部署高性能的深度学习推理
英特尔® 发行版 OpenVINO™ 工具套件的最新版本 (2022.3 LTS) 让各地开发人员可以更加轻松地开始创新。此新版本可通过新性能提升、更多深度学习模型、更高设备可移动性、更高推理性能以及更少的代码更改,来支持开发人员。
从始至终充分利用您的 AI 部署
英特尔发行版 OpenVINO 工具套件让您的代码易于采用和维护。Open Model Zoo 提供经优化的预训练模型,而模型优化器 API 参数也能够让转化模型变得更加轻松,并为推理做好准备。运行时(推理引擎)可支持您通过在特定设备上编译经优化的网络,并管理推理运算,来调整性能。它还可以通过跨 CPU、GPU 等的设备发现、负载均衡和推理并行来进行自动优化。
高性能,深度学习
训练时考虑到推理,从 TensorFlow* 和 PyTorch* 等常见框架着手,并使用用于英特尔发行版 OpenVINO 工具套件的神经网络压缩框架 (NNCF)。
简化开发
借助训练后优化工具将您的模型导入到 OpenVINO 中,以进行训练后量化和优化。
一次写入,处处部署
在主机处理器和加速器 (CPU、GPU、VPU) 和环境(本地、设备、浏览器或云端)的组合中部署相同的应用程序。