TensorFlow Serving 是一个端到端的开源机器学习推理系统,用于在生产环境中部署机器学习模型。它提供了一个标准化的 RESTful API,可用于在客户端和服务端之间交换数据。tf-serving-nodejs-client 是一个 Node.js 包,用于连接 TensorFlow Serving API 并执行推理任务。本文将详细介绍如何使用 npm 包 tf-serving-nodejs-client。
安装
使用 npm 进行安装:
npm install tf-serving-nodejs-client
使用
连接到 TensorFlow Serving
const tf = require('tf-serving-nodejs-client'); const client = tf.createServingClient({ address: 'localhost:8500', modelName: 'example' });
在上面的示例中,我们使用 createServingClient 函数创建一个 tf-serving-nodejs-client 的实例,并指定 TensorFlow Serving 的地址和要使用的模型名称。
发送推理请求
const x = [[1, 2, 3, 4]]; client.predict({ inputs: { x }, outputs: ['y'], }).then(predictions => { console.log(predictions); }).catch(console.error);
在上面的示例中,我们使用 predict 函数发送一个推理请求,并指定输入数据和输出节点名称。predict 函数返回一个 Promise,它解析为推理结果。
加载模型元数据
client.loadMeta().then(meta => { console.log(meta); }).catch(console.error);
在上面的示例中,我们使用 loadMeta 函数加载模型的元数据。模型的元数据包括输入和输出节点的名称和形状。
示例代码
下面是一个完整的示例代码,展示了如何使用 tf-serving-nodejs-client 进行推理任务:
-- -------------------- ---- ------- ----- -- - ------------------------------------ ----- ------ - ------------------------ -------- ----------------- ---------- --------- --- ----- - - ---- -- -- ---- --------------------------- -- - ------------------ ------ ---------------- ------- - - -- -------- ------ --- ------------------- -- - ------------------------- ------------------------
结论
npm 包 tf-serving-nodejs-client 提供了一个便捷的方式来连接 TensorFlow Serving API 并进行推理任务。本文介绍了如何安装和使用 tf-serving-nodejs-client,并提供了示例代码,希望对读者有所帮助。
来源:JavaScript中文网 ,转载请注明来源 https://www.javascriptcn.com/post/60055b7d81e8991b448d9050