tensorflow-serving专题提供tensorflow-serving的最新资讯内容,帮你更好的了解tensorflow-serving。
我正在尝试使用 Tensorboard Profiler 插件来分析在 tensorflow 服务中托管的模型上使用 grpc 请求执行的推理。
我有一个由 Tensorflow Serving 提供服务的分类模型。 我们正在通过 REST api 请求使用 Python 进行预测。<
我在 Kubernetes 1.19 上使用 Nginx(尝试使用 docker 桌面和 GKE)并尝试公开 gRPC 服务。我已经使用以下命令安
我正在尝试为使用 C API 加载的 Tensorflow 图中的变量赋值。当我使用 Tensorflow 2.x 导出图形时,它包含与特
我正在尝试使用 docker-py 包在 python 中运行 Tensorflow/serving。 使用以下代码,我可以获得张量流/服务
我有 2 个正在试验的模型,它们的输入和输出是相同的。一个是 CNN,另一个只有 Dense 层。我以相同的方
有我的环境信息: <ul> <li>TensorFlow 服务 1.14 版</li> <li>os mac10.15.7</li> </ul> 我想使用 tfserving 从 hdfs 加
我只想接收文本输入并尝试仅返回预测结果中的标签值。 例如。 卷曲-d“{‘输入’:{‘测试’:
我设法让服务器工作,但我无法将图像发布到我的网络。我的网络是对 <a href="https://keras.io/examples/vision/c
所以在我的测试中,我纯粹使用检查点来测试模型,使用检查点,一旦我使用 saver.restore(ckpt) 恢复模型
使用 Tensorflow 2.3,我已经用 EfficientNet 训练了一个 tf.keras 模型,现在我想导出一个仅推理的端到端模型
检查点中保存了许多模型权重张量 [512, 512 * 3]。 在服务图中,我需要在每次会话运行中将这些张量拆分
我在<code>tensorflow/tensorflow:1.15.4-gpu-py3</code>中用bazel构建了tensorflow,bazel自动生成静态库文件,例如生成<c
我有一个 LSTM 网络,它有 3 个输入和 3 个输出(在 Tf.keras 中使用 <a href="https://keras.io/guides/functional_api/" r
获取我的预训练模型的预测/输出; <a href="https://github.com/OMR-Research/tf-end-to-end" rel="nofollow noreferrer">model</a
我使用 bazel 来构建 tensorflow 和 tensorflow/serving,通常当我用 bazel 构建 tensorflow/serving 时,bazel 会在 <code>ba
我正在学习使用 AI Platform 组件时在 GCP 上预制的教程。简而言之,它涉及使用 Kubeflow 和 Tensorflow Extended
我创建了一个使用 RaggedTensors 的 TensorFlow 模型。模型工作正常,当调用 <code>model.predict</code> 时,我得到
我正在尝试使用 AWS 的 <a href="https://aws.amazon.com/machine-learning/elastic-inference/" rel="nofollow noreferrer">Elastic Infe
我正在尝试使用 DenseVariational 层构建模型,以便它可以报告认知不确定性。类似于 <a href="https://www.tensorf