por Intel

Conozca las herramientas de inferencia de IA que pueden ayudarlo a acelerar su proceso de desarrollo de aplicaciones: kit de herramientas OpenVINO™, integración de OpenVINO™ con Tensorflow y proveedor de ejecución de OpenVINO™ para ONNX Runtime.


Fundamentos del kit de herramientas de OpenVINO™Este curso introductorio cubre los componentes del kit de herramientas, el flujo de trabajo de desarrollo de la API de Python, la instalación, los modelos preentrenados, Model Optimizer y más.
Empezar

Introducción a la integración de OpenVINO™ con TensorflowAcelere la inferencia en los modelos de IA en una variedad de silicio Intel®: obtenga información sobre la integración de OpenVINO™ con TensorFlow, cómo instalarlo y configurarlo, y más.
Iniciar curso

Proveedor de ejecución OpenVINO™ para ONNX RuntimeObtenga información sobre OpenVINO™ Execution Provider para ONNX Runtime, reconozca las opciones de instalación, ejecute un ejemplo de trabajo en Intel® DevCloud y ejecute una aplicación de muestra de la API Python de detección de objetos.
Empezar ahora

Fuente: https://docs.openvino.ai/latest/index.html

Deja una respuesta