通常需要抽象出您的机器学习模型细节,然后将其与易于使用的 API 端点部署或集成。 例如,我们可以提供一个 URL 端点,任何人都可以使用它来发出 POST 请求,他们将获得模型推断的 JSON 响应,而不必担心其技术问题。

https://embed.notionlytics.com/wt/ZXlKd1lXZGxTV1FpT2lKaU1qYzFPR1V5TmpNNFpHSTBOalUxWW1NeFpqY3laR0V5WmpkaE1EaG1NQ0lzSW5kdmNtdHpjR0ZqWlZSeVlXTnJaWEpKWkNJNklsZHNTR2hsVEZSUFdXeHpaVmRhUW1ZNU1YQmxJbjA9

在本教程中,我们将创建一个 TensorFlow Serving 服务器,部署我们在 Keras 中构建的 InceptionV3 图像分类卷积神经网络 (CNN)。 然后我们将创建一个简单的 Flask 服务器,它将接受 POST 请求并进行一些图像预处理,这是 Tensorflow 服务服务器所需的,并返回一个 JSON 响应。

TensorFlow 服务

导出 Keras 模型

Flask 服务器选择理由

源代码