Saltar al contenido

El nuevo diseño es apilable y reconfigurable, para intercambiar y construir sobre sensores existentes y procesadores de redes neuronales — ScienceDaily

11 de agosto de 2022

Imagine un futuro más sostenible, donde los teléfonos celulares, los relojes inteligentes y otros dispositivos portátiles no tengan que dejarse de lado o descartarse por un modelo más nuevo. En su lugar, podrían actualizarse con los últimos sensores y procesadores que encajarían en el chip interno de un dispositivo, como ladrillos LEGO incorporados en una construcción existente. Tal chipware reconfigurable podría mantener los dispositivos actualizados mientras reduce nuestros desechos electrónicos.

Ahora, los ingenieros del MIT han dado un paso hacia esa visión modular con un diseño tipo LEGO para un chip de inteligencia artificial apilable y reconfigurable.

El diseño comprende capas alternas de elementos de detección y procesamiento, junto con diodos emisores de luz (LED) que permiten que las capas del chip se comuniquen ópticamente. Otros diseños de chips modulares emplean cableado convencional para transmitir señales entre capas. Estas conexiones complejas son difíciles, si no imposibles, de cortar y volver a cablear, lo que hace que estos diseños apilables no sean reconfigurables.

El diseño del MIT utiliza luz, en lugar de cables físicos, para transmitir información a través del chip. Por lo tanto, el chip se puede reconfigurar, con capas que se pueden intercambiar o apilar, por ejemplo, para agregar nuevos sensores o procesadores actualizados.

«Puede agregar tantas capas informáticas y sensores como desee, como luz, presión e incluso olor», dice el postdoctorado del MIT, Jihoon Kang. «Llamamos a esto un chip de inteligencia artificial reconfigurable similar a LEGO porque tiene una capacidad de expansión ilimitada según la combinación de capas».

Los investigadores están ansiosos por aplicar el diseño a los dispositivos informáticos de última generación: sensores autosuficientes y otros dispositivos electrónicos que funcionan independientemente de cualquier recurso central o distribuido, como las supercomputadoras o la computación basada en la nube.

«A medida que ingresamos en la era del Internet de las cosas basado en redes de sensores, la demanda de dispositivos de computación perimetral multifuncionales se expandirá dramáticamente», dice Jeehwan Kim, profesor asociado de ingeniería mecánica en el MIT. «Nuestra arquitectura de hardware propuesta proporcionará una gran versatilidad de la informática de punta en el futuro».

Recomendado:  ElectrifAi logra el estado de competencia de AWS Machine Learning en IA aplicada

Los resultados del equipo se publican en Naturaleza Electrónica. Además de Kim y Kang, los autores del MIT incluyen a los coautores Chanyeol Choi, Hyunseok Kim y Min-Kyu Song, y los autores contribuyentes Hanwool Yeon, Celesta Chang, Jun Min Suh, Jiho Shin, Kuangye Lu, Bo-In Park, Yeongin Kim, Han Eol Lee, Doyoon Lee, Subeen Pang, Sang-Hoon Bae, Hun S. Kum y Peng Lin, junto con colaboradores de la Universidad de Harvard, la Universidad de Tsinghua, la Universidad de Zhejiang y otros lugares.

iluminando el camino

El diseño del equipo está actualmente configurado para realizar tareas básicas de reconocimiento de imágenes. Lo hace a través de una capa de sensores de imagen, LED y procesadores hechos de sinapsis artificiales: conjuntos de resistencias de memoria, o «memristores», que el equipo desarrolló previamente, que juntos funcionan como una red neuronal física, o «cerebro en movimiento». -Una papa.» Cada matriz se puede entrenar para procesar y clasificar señales directamente en un chip, sin necesidad de software externo o conexión a Internet.

En su nuevo diseño de chip, los investigadores combinaron sensores de imagen con conjuntos de sinapsis artificiales, cada uno de los cuales entrenaron para reconocer ciertas letras, en este caso, M, I y T. Mientras que un enfoque convencional sería transmitir las señales de un sensor a un procesador a través de cables físicos, el equipo fabricó un sistema óptico entre cada sensor y una matriz de sinapsis artificial para permitir la comunicación entre las capas, sin necesidad de una conexión física.

«Otros chips están cableados físicamente a través del metal, lo que los hace difíciles de volver a cablear y rediseñar, por lo que necesitaría hacer un nuevo chip si quisiera agregar alguna función nueva», dice el postdoctorado del MIT, Hyunseok Kim. «Reemplazamos esa conexión de cable físico con un sistema de comunicación óptica, lo que nos da la libertad de apilar y agregar chips de la forma que queramos».

Recomendado:  Inteligencia artificial en el mercado farmacéutico 2022: análisis de la industria global, tamaño, participación, crecimiento, tendencias, oportunidades y pronóstico 2027

El sistema de comunicación óptica del equipo consta de fotodetectores y LED emparejados, cada uno con un patrón de píxeles diminutos. Los fotodetectores constituyen un sensor de imagen para recibir datos y los LED para transmitir datos a la siguiente capa. Cuando una señal (por ejemplo, la imagen de una letra) llega al sensor de imagen, el patrón de luz de la imagen codifica una cierta configuración de píxeles LED, que a su vez estimula otra capa de fotodetectores, junto con una matriz de sinapsis artificial, que clasifica la señal según en el patrón y la fuerza de la luz LED entrante.

Apilar

El equipo fabricó un solo chip, con un núcleo de computación que medía unos 4 milímetros cuadrados, o del tamaño de un trozo de confeti. El chip está apilado con tres «bloques» de reconocimiento de imágenes, cada uno de los cuales comprende un sensor de imagen, una capa de comunicación óptica y una matriz de sinapsis artificial para clasificar una de las tres letras, M, I o T. Luego proyectaron una imagen pixelada de letras aleatorias en el chip y midió la corriente eléctrica que cada matriz de red neuronal produjo en respuesta. (Cuanto mayor sea la corriente, mayor será la posibilidad de que la imagen sea de hecho la letra que la matriz particular está entrenada para reconocer).

El equipo descubrió que el chip clasificaba correctamente las imágenes claras de cada letra, pero era menos capaz de distinguir entre imágenes borrosas, por ejemplo, entre la I y la T. Sin embargo, los investigadores pudieron cambiar rápidamente la capa de procesamiento del chip por una mejor. procesador de eliminación de ruido, y encontró el chip y luego identificó con precisión las imágenes.

Recomendado:  Las redes neuronales construidas a partir de datos sesgados de Internet enseñan a los robots a promulgar estereotipos tóxicos

«Mostramos capacidad de apilamiento, reemplazabilidad y la capacidad de insertar una nueva función en el chip», señala el posdoctorado del MIT Min-Kyu Song.

Los investigadores planean agregar más capacidades de detección y procesamiento al chip, y prevén que las aplicaciones sean ilimitadas.

«Podemos agregar capas a la cámara de un teléfono celular para que pueda reconocer imágenes más complejas, o convertirlas en monitores de atención médica que se pueden incrustar en una piel electrónica portátil», ofrece Choi, quien junto con Kim desarrolló previamente una piel «inteligente» para monitorear vital señales.

Otra idea, agrega, es para chips modulares, integrados en la electrónica, que los consumidores pueden elegir construir con los últimos «ladrillos» de sensores y procesadores.

«Podemos hacer una plataforma general de chips y cada capa podría venderse por separado como un videojuego», dice Jeehwan Kim. «Podríamos hacer diferentes tipos de redes neuronales, como para reconocimiento de imagen o voz, y dejar que el cliente elija lo que quiere, y agregarlo a un chip existente como un LEGO».

Esta investigación fue financiada, en parte, por el Ministerio de Comercio, Industria y Energía (MOTIE) de Corea del Sur; el Instituto Coreano de Ciencia y Tecnología (KIST); y el Programa de Extensión de Investigación Global de Samsung.