複数のモデルにTensorflow Servingを使用するにはどうすればいいですか?質問する

複数のモデルにTensorflow Servingを使用するにはどうすればいいですか?質問する

複数のモデルを使用するにはどうすればよいですかtensorflow? Docker コンテナを使用します。

model_config_list: {

  config: {
    name: "model1",
    base_path: "/tmp/model",
    model_platform: "tensorflow"
  },
  config: {
     name: "model2",
     base_path: "/tmp/model2",
     model_platform: "tensorflow"
  }
}

ベストアンサー1

公式からDockerイメージを構築tensorflow serving docker ファイル

次に、Docker イメージ内に移動します。

/usr/local/bin/tensorflow_model_server --port=9000 --model_config_file=/serving/models.conf

ここに/serving/models.confあなたのものと似たファイルがあります。

おすすめ記事