Business-Chip-LightMatter

Lightmatter dice que las demandas de computación y energía de las redes neuronales complejas necesitan nuevas tecnologías como estas para mantenerse al día.

por WILL KNIGHT

La inteligencia artificial crece, al igual que el hambre de la potencia informática necesaria para mantener la IA en funcionamiento.

Lightmatter, una startup nacida en el MIT, apuesta a que el hambre voraz de la IA generará una demanda de un tipo de chip de computadora fundamentalmente diferente, uno que use la luz para realizar cálculos clave.

“O inventamos nuevos tipos de computadoras para continuar”, dice el CEO de Lightmatter, Nick Harris, “o la IA se ralentiza”.

Business-Chip-LightMatter
Chip Envise de Lightmatter en una placa base de computadora convencional. CORTESÍA DE LIGHTMATTER

Los chips de computadora convencionales funcionan mediante el uso de transistores para controlar el flujo de electrones a través de un semiconductor. Al reducir la información a una serie de unos y ceros, estos chips pueden realizar una amplia gama de operaciones lógicas y potenciar software complejo. El chip de Lightmatter, por el contrario, está diseñado para realizar solo un tipo específico de cálculo matemático que es fundamental para ejecutar potentes programas de inteligencia artificial.

Harris mostró recientemente WIRED el nuevo chip en la sede de la compañía en Boston. Parecía un chip de computadora normal del que salían varios cables de fibra óptica. Pero realizó cálculos dividiendo y mezclando haces de luz dentro de pequeños canales, midiendo solo nanómetros. Un chip de silicio subyacente organiza el funcionamiento de la parte fotónica y también proporciona almacenamiento de memoria temporal.

Lightmatter planea comenzar a enviar su primer chip de inteligencia artificial basado en la luz, llamado Envise, a finales de este año. Enviará blades de servidor que contienen 16 chips que se adaptan a los centros de datos convencionales. La compañía ha recaudado $ 22 millones de GV (anteriormente Google Ventures), Spark Capital y Matrix Partners.

La compañía dice que su chip funciona de 1,5 a 10 veces más rápido que un chip de IA Nvidia A100 de primera línea, dependiendo de la tarea. Al ejecutar un modelo de lenguaje natural llamado BERT, por ejemplo, Lightmatter dice que Envise es cinco veces más rápido que el chip Nvidia; también consume una sexta parte de la energía. Nvidia se negó a comentar.

La tecnología tiene límites técnicos y puede resultar difícil persuadir a las empresas para que cambien a un diseño no probado. Pero Rich Wawrzyniak , un analista de Semico que ha sido informado sobre la tecnología, dice que cree que tiene una buena posibilidad de ganar terreno. “Lo que me mostraron, creo que es bastante bueno”, dice.

Wawrzyniak espera que las grandes empresas tecnológicas al menos prueben la tecnología porque la demanda de IA y el costo de usarla están creciendo muy rápido. “Este es un tema urgente desde muchos puntos de vista diferentes”, dice. Las necesidades de energía de los centros de datos están “aumentando como un cohete”.

El chip de Lightmatter es más rápido y más eficiente para ciertos cálculos de IA porque la información se puede codificar de manera más eficiente en diferentes longitudes de onda de luz y porque controlar la luz requiere menos energía que controlar el flujo de electrones con transistores.

Una limitación clave del chip Lightmatter es que sus cálculos son analógicos en lugar de digitales. Esto lo hace intrínsecamente menos preciso que los chips de silicio digitales, pero la compañía ha ideado técnicas para mejorar la precisión de los cálculos. Lightmatter comercializará sus chips inicialmente para ejecutar modelos de IA previamente entrenados en lugar de modelos de entrenamiento, ya que esto requiere menos precisión, pero Harris dice que, en principio, pueden hacer ambas cosas.

El chip será más útil para un tipo de inteligencia artificial conocida como aprendizaje profundo , que se basa en el entrenamiento de redes neuronales muy grandes o “profundas” para dar sentido a los datos y tomar decisiones útiles. El enfoque ha brindado a las computadoras nuevas capacidades en el procesamiento de imágenes y videos, comprensión del lenguaje natural, robótica y para dar sentido a los datos comerciales. Pero requiere grandes cantidades de datos y potencia informática.

Entrenar y ejecutar redes neuronales profundas significa realizar muchos cálculos paralelos, una tarea muy adecuada para chips gráficos de alta gama. El auge del aprendizaje profundo ya ha inspirado un florecimiento de nuevos diseños de chips, desde los especializados para centros de datos hasta diseños altamente eficientes para dispositivos móviles y dispositivos portátiles.

Aydogan Ozcan , profesor de UCLA que trabaja en computación fotónica, cree que el auge de la inteligencia artificial podría traer tecnología como Lightmatter a un primer plano. Sugiere que un cambio hacia nuevas formas de computación fotónica podría incluso desbloquear nuevas formas de hacer IA. “Podríamos ver avances importantes en la velocidad, la potencia y el paralelismo de la computación, que contribuirán y acelerarán el éxito de la IA”, dice.

“O inventamos nuevos tipos de computadoras para continuar, o la IA se ralentiza”.

NICK HARRIS, DIRECTOR EJECUTIVO DE LIGHTMATTER

La idea de utilizar la luz para la computación está lejos de ser nueva, ya que se remonta a la década de 1950. Pero la informática electrónica resultó más práctica de desarrollar y comercializar. En la década de 1980, Bell Labs intentó crear un chip basado en luz de uso general , pero falló debido a la dificultad de construir un transistor óptico que funcionara.

Lightmatter dice que sus chips se pueden colocar en un centro de datos existente y funcionar con la mayoría de los principales software de inteligencia artificial. A finales de este año, la compañía planea lanzar una nueva tecnología para conectar chips, incluidos los fabricados por otras compañías, utilizando su tecnología fotónica. La luz se usa ampliamente para transportar información entre computadoras, utilizando cables de fibra óptica.

Harris argumenta que la IA chocará contra un muro en los próximos años debido al aumento de los costos y el uso de energía, y debido a las limitaciones de ingeniería en el horizonte. A medida que los ingenieros intentan meter más transistores en un chip para acelerar el rendimiento, los chips pueden calentarse demasiado para manejarlos.

Incluso si los fabricantes de chips continúan exprimiendo más computación de sus diseños utilizando ingeniería y fabricación inteligentes, el campo de la IA parece estar en una trayectoria casi insostenible. Los datos recientes de OpenAI muestran que la cantidad de energía de la computadora necesaria para realizar una investigación histórica de IA se ha duplicado aproximadamente cada 3.4 meses, aumentando 300,000 veces entre 2012 y 2018.

Pero algunos expertos en inteligencia artificial advierten que el progreso en la inteligencia artificial podría comenzar a ralentizarse debido al costo de aumentar continuamente la potencia de las computadoras. A otros les preocupa el posible impacto ambiental del uso generalizado de algoritmos de IA que consumen mucha energía.

Actualizado, 3-10-21, 11:30 am ET: Una versión anterior de este artículo decía incorrectamente que los servidores blade de Lightmatter contendrían 14 chips Envise.

Fuente: https://www.wired.com/story/chip-ai-works-using-light-not-electrons/

Deja una respuesta