Investigadores de ingeniería de la Universidad de Minnesota Twin Cities han demostrado un sofisticado dispositivo de hardware que puede reducir el consumo de energía en un factor de al menos 1000 para aplicaciones informáticas de inteligencia artificial (IA).

El estudio fue publicado npj informática no convencional, una revista científica revisada por pares publicada por Nature. Los investigadores tienen múltiples patentes sobre la tecnología utilizada en el dispositivo.

Con la creciente demanda de aplicaciones de IA, los investigadores están buscando formas de crear procesos más eficientes desde el punto de vista energético manteniendo al mismo tiempo un alto rendimiento y unos costes bajos. Normalmente, los procesos de máquinas o de inteligencia artificial transfieren datos entre la lógica (donde se procesa la información dentro de un sistema) y la memoria (donde se almacenan los datos), consumiendo grandes cantidades de potencia y energía.

Un equipo de investigadores de la Facultad de Ciencias e Ingeniería de la Universidad de Minnesota ha demostrado un nuevo modelo en el que los datos nunca salen de la memoria, llamado memoria computacional de acceso aleatorio (CRAM).

“Este trabajo es la primera demostración experimental de CRAM, donde los datos pueden procesarse completamente dentro de una matriz de memoria sin la red en la que una computadora almacena información”, dijo Yang Lv, profesor de ingeniería eléctrica e informática en la Universidad de Minnesota. Investigador postdoctoral y primer autor del artículo.

La Agencia Internacional de Energía (AIE) emitió un pronóstico de uso de energía global en marzo de 2024, prediciendo que el uso de energía para la IA podría duplicarse de 460 teravatios-hora (TWh) en 2022 a 1000 TWh en 2026. Esto equivale aproximadamente al consumo de electricidad de todo el país de Japón.

Según los autores del nuevo artículo, se estima que un acelerador de inferencia de aprendizaje automático basado en CRAM proporcionará mejoras del orden de 1.000. Otro ejemplo muestra un ahorro de energía entre 2.500 y 1.700 veces en comparación con los métodos convencionales.

Esta investigación tardó más de dos décadas en realizarse.

“Nuestra idea inicial de utilizar células de memoria directamente para la informática hace 20 años se consideró una locura”, dijo Jian-Ping Wang, autor principal del artículo y profesor distinguido McKnight y Robert F. Hartman es presidente del Departamento de Ingeniería Eléctrica e Informática de la Universidad de Minnesota.

“Con un grupo evolucionado de estudiantes y un equipo docente verdaderamente interdisciplinario creado en la Universidad de Minnesota desde 2003, desde física, ciencia e ingeniería de materiales, ciencias informáticas e ingeniería hasta modelado y evaluación comparativa y fabricación de hardware, hemos podido obtener resultados positivos y ahora demostrar que dicha tecnología es factible y está lista para ser incorporada a la tecnología”, dijo Wang.

La investigación es parte de un esfuerzo coordinado y de larga data de Wang y sus colegas en una investigación innovadora y patentada sobre dispositivos de uniones de túnel magnético (MTJ), que son dispositivos nanoestructurados utilizados para mejorar discos duros, sensores y otros sistemas microelectrónicos. Memoria magnética de acceso aleatorio (MRAM), que se ha utilizado en sistemas integrados como microcontroladores y relojes inteligentes.

La arquitectura CRAM permite la computación real en y mediante la memoria y derriba el muro entre la computación y la memoria como barrera a la arquitectura tradicional de von Neumann, un diseño teórico para una computadora con programa almacenado que sirve como base para casi todas las computadoras modernas.

“Como sustrato informático en memoria basado en datos digitales de alta eficiencia energética, CRAM es extremadamente flexible en el sentido de que el cálculo se puede realizar en cualquier lugar de la matriz de memoria. En consecuencia, podemos reconfigurar CRAM para que se adapte mejor a un conjunto diverso de necesidades de rendimiento. Algoritmos de IA, ” dijo Ulia Karpuzcu, experta en arquitectura informática, coautora del artículo y profesora asociada en el Departamento de Ingeniería Eléctrica e Informática de la Universidad de Minnesota. “Es más eficiente energéticamente que los componentes tradicionales de los sistemas de IA actuales”.

CRAM realiza cálculos directamente dentro de las celdas de memoria, utilizando eficientemente la estructura de matriz, lo que elimina la necesidad de transferencias de datos lentas y que consumen mucha energía, explicó Carpuzcu.

El dispositivo de memoria de acceso aleatorio a corto plazo, o RAM, más eficiente utiliza cuatro o cinco transistores para codificar un uno o un cero, pero un MTJ, un dispositivo espintrónico, puede hacer lo mismo con una fracción de la potencia a alta velocidad, y es resistente a ambientes hostiles. Los dispositivos espintrónicos utilizan el giro de los electrones en lugar de cargas eléctricas para almacenar datos, lo que proporciona una alternativa más eficiente a los chips tradicionales basados ​​en transistores.

Actualmente, el equipo planea trabajar con líderes de la industria de semiconductores, incluido Minnesota, para realizar demostraciones a gran escala y construir hardware para mejorar la funcionalidad de la IA.

Además de LV, Wang y Karpuzku, el equipo incluyó a los investigadores Robert Bloom y Husrev Silasun del Departamento de Ingeniería Eléctrica e Informática de la Universidad de Minnesota; el distinguido profesor McKnight y presidente Robert y Marjorie Henley, Sachin Sapatnekar; y los ex investigadores postdoctorales Brandon Zink, Jamshed Chowdhury y Salnik Resh; Con investigadores de la Universidad de Arizona: Pravin Khanal, Ali Habiboglu y el profesor Weigang Wang

Este trabajo fue apoyado por subvenciones de la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. (DARPA), el Instituto Nacional de Estándares y Tecnología (NIST), la Fundación Nacional de Ciencias (NSF) y Cisco Inc. La investigación, incluido el modelado de nanodispositivos, se llevó a cabo en el Nano Center de Minnesota y el trabajo de simulación/computación se realizó con el Instituto de Supercomputación de Minnesota de la Universidad de Minnesota. Lea el artículo completo titulado “Demostración experimental de la memoria computacional de acceso aleatorio basada en uniones de túneles magnéticos” npj informática no convencional sitio web

Source link