问题
问题很简单,在docker部署算法服务,用CPU+tensorflow进行模型运算,tensorflow1.14,docker镜像 python3.7
会报错下面两个
Allocation of XXXXXXXX exceeds 10% of system memory
Not using XLA:CPU for cluster because envvar TF_XLA_FLAGS=--tf_xla_cpu_globa
复制代码
Allocation报错可以通过降低batch_size来控制,但是因为我的batch_size已经很小了,并且大把内存可以造作,所以不是一个报错的原因。
那针对第二报错,stackoverflow上有相关的帖子。
stackoverflow
大致就是 TF_XLA_FLAGS 设置成tf_xla_enable_xla_devices可以加速linux下cpu运算TensorFlow,不过这个参数只限于TensorFlow1。
export TF_XLA_FLAGS=--tf_xla_enable_xla_devices
亲测有效!
最后补充一下XLA干嘛的,选择tensflow官网截图:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END