Intel lanza módulo USB de informática neuronal

0
2565

El Movidius Neural Compute Stick es el primer equipo de inferencia de aprendizaje profundo basado en USB y acelerador autónomo de inteligencia artificial.

De acuerdo con lo informado por la compañía, ofrece capacidades especiales de procesamiento de redes neuronales profundas para una amplia variedad de dispositivos receptores externos.

Diseñado para desarrolladores de productos, investigadores y fabricantes, busca reducir las barreras al desarrollo, el ajuste y la implementación de aplicaciones de AI brindando un procesamiento especial y de alto rendimiento de redes neuronales profundas en un módulo de tamaño compacto.

“Debido a que cada vez más desarrolladores adoptan avanzados enfoques de aprendizaje automatizado para crear aplicaciones y soluciones innovadoras, Intel se compromete a brindar el conjunto de herramientas y recursos de desarrollo más completo con el fin de garantizar que los desarrolladores estén bien equipados para una economía digital basada en inteligencia artificial”, informó la compañía.

Ya sea para el entrenamiento de redes neuronales artificiales en la nube Intel Nervana, para optimizar las cargas de trabajo emergentes, tales como inteligencia artificial, realidad virtual o aumentada y conducción autónoma con los procesadores escalables Intel Xeon, o para ampliar las fronteras de la inteligencia artificial con la unidad de procesamiento de visión (VPU), Movidius, ofrece una amplia variedad de herramientas de AI

“La VPU Myriad 2, instalada en el módulo Movidius Neural Compute Stick, ofrece un rendimiento potente y eficiente (más de 100 gigaflops de rendimiento dentro de un envolvente de potencia de 1W) para ejecutar redes neuronales profundas en tiempo real directamente desde el dispositivo”, explicó Remi El-Ouazzane, vicepresidente y director general de Movidius, una empresa de Intel. “Esto permite implementar sin conexión una amplia variedad de aplicaciones de inteligencia artificial”.

El desarrollo de inteligencia automatizada se compone fundamentalmente de dos etapas: entrenamiento de un algoritmo en grandes conjuntos de datos a través de técnicas modernas de aprendizaje automatizado; y ejecución del algoritmo en una aplicación final que necesite interpretar datos reales. A esta segunda etapa se la conoce como “inferencia”.

La inferencia externa o nativa (dentro del dispositivo) brinda beneficios en cuanto a latencia, consumo de energía y privacidad.

En lo que respecta a compilación, convierte automáticamente una red neuronal convolucional (CNN) entrenada y basada en Caffe en una red neuronal integrada y optimizada para su ejecución en la unidad incorporada Movidius Myriad 2 VPU.

Asimismo, Intel asegura que las métricas de rendimiento por capa, tanto para las redes neuronales estándares como para aquellas personalizadas, “permiten un ajuste efectivo para lograr un verdadero rendimiento óptimo con muy bajo consumo. Con las secuencias de comandos de validación, los desarrolladores pueden comparar la precisión del modelo optimizado del dispositivo con el modelo original basado en PC.”

Por último, el módulo Movidius Neural Compute Stick puede actuar como un acelerador discreto de redes neuronales, agregando capacidades especiales de inferencia de aprendizaje profundo a plataformas informáticas ya existentes para mejorar el rendimiento y la eficiencia energética.