Online Prediction¶
如果您希望将模型文件部署到自己的生产环境中,可以用 tensorflow serving 的方式部署。
这里,我们推荐使用阿里云上的模型在线服务(PAI-EAS) 来进行在线推理,具体参考:EAS部署模型 的控制台上传模型部分。
部署模型示例:
#!/bin/bash
bizdate=$1
cat << EOF > eas_config_rank.json
{
"name": "dbmtl_rank_ml",
"generate_token": "true",
"model_path": "oss://XXX/${bizdate}/export/best/",
"processor": "tensorflow_cpu",
"oss_endpoint": "oss-us-west-1.aliyuncs.com",
"token": "XXXX",
"metadata":{
"region": "us-west-1",
"instance": 4,
"cpu": 8,
"gpu": 0,
"memory": 8000
}
}
EOF
cat eas_config_rank.json
# 创建服务
# /home/admin/usertools/tools/eascmd -i <AccessKeyID> -k <AccessKeySecret> \
# -e pai-eas.us-west-1.aliyuncs.com create eas_config_rank.json
# 更新服务
echo "-------------------更新服务-------------------"
/home/admin/usertools/tools/eascmd -i <AccessKeyID> -k <AccessKeySecret> \
-e pai-eas.us-west-1.aliyuncs.com \
modify dbmtl_rank_ml -s eas_config_rank.json
status=$?
# 查看服务
echo "-------------------查看服务-------------------"
/home/admin/usertools/tools/eascmd -i <AccessKeyID> -k <AccessKeySecret> \
-e pai-eas.us-west-1.aliyuncs.com desc dbmtl_rank_ml
exit ${status}
模型部署到线上后,线上需构造请求数据,具体请参考:TensorFlow服务请求构造
如果您用到了fg,可以参考:RTP FG的预测部分
如果需要用到PaiRec进行在线推荐服务,可以参考: 入门介绍 项目示例 PaiRec部署服务