por Intel
Conozca las herramientas de inferencia de IA que pueden ayudarlo a acelerar su proceso de desarrollo de aplicaciones: kit de herramientas OpenVINO™, integración de OpenVINO™ con Tensorflow y proveedor de ejecución de OpenVINO™ para ONNX Runtime.
Fundamentos del kit de herramientas de OpenVINO™Este curso introductorio cubre los componentes del kit de herramientas, el flujo de trabajo de desarrollo de la API de Python, la instalación, los modelos preentrenados, Model Optimizer y más. Empezar |
---|
Introducción a la integración de OpenVINO™ con TensorflowAcelere la inferencia en los modelos de IA en una variedad de silicio Intel®: obtenga información sobre la integración de OpenVINO™ con TensorFlow, cómo instalarlo y configurarlo, y más. Iniciar curso |
---|
Proveedor de ejecución OpenVINO™ para ONNX RuntimeObtenga información sobre OpenVINO™ Execution Provider para ONNX Runtime, reconozca las opciones de instalación, ejecute un ejemplo de trabajo en Intel® DevCloud y ejecute una aplicación de muestra de la API Python de detección de objetos. Empezar ahora |
---|