
Sistema de computación híbrida de Andi para una compleja inferencia de redes neuronales de regresión basada en FP. Crédito: Ze Wang, Universidad de Tsinghua.
Muchas arquitecturas informáticas convencionales están mal equipadas para satisfacer las demandas computacionales de los modelos basados en el aprendizaje automático. En los últimos años, algunos ingenieros han estado tratando de diseñar arquitecturas alternativas que podrían ser más adecuadas para ejecutar estos modelos.
Algunas de las soluciones más prometedoras para ejecutar redes neuronales artificiales (ANN) son los llamados sistemas de cómputo en memoria (CIM). Estos sistemas están diseñados para procesar y almacenar datos en un solo sistema de hardware, lo que puede reducir el consumo de energía y aumentar el rendimiento de los modelos basados en ANN.
Los sistemas CIM se dividen en dos amplias categorías: sistemas Digital CIM (DCIM) y Analog CIM (ACIM). En un papel publicado en Electrónica de la naturalezalos investigadores de la Universidad de Tsinghua introducen un nuevo sistema ACIM de doble dominio que podría ejecutar ANN de manera más eficiente, al tiempo que aumenta su rendimiento en tareas de inferencia general.
«La investigación sobre los cálculos de ACIM para las redes neuronales ha ganado una atención significativa, pero el progreso ha sido principalmente en tareas de clasificación (por ejemplo, clasificación de imágenes)», dijo Ze Wang, primer autor del documento, a Tech Xplore.
«Hasta la fecha, ACIM aún enfrenta desafíos significativos en el manejo de tareas de regresión compleja (por ejemplo, YOLO para la detección de objetos), debido a dos limitaciones clave. El primero es el ruido computacional alto y el segundo consiste en problemas de compatibilidad de datos de punto flotante (FP), que lo hacen inadecuado para las tareas de regresión que generalmente requieren un cálculo de FP de alta precisión «.
Para superar los desafíos típicamente asociados con los sistemas ACIM, Wang y sus colegas diseñaron una nueva arquitectura híbrida que combina la informática digital compatible con FP de alta precisión con buena eficiencia energética. Se descubrió que su arquitectura propuesta era prometedora para ejecutar redes neuronales, lo que también permite que estas redes completen tareas generales de inferencia.
«ACIM se destaca en la realización de multiplicaciones de matriz altamente paralelas y eficientes en energía, una operación fundamental ampliamente utilizada en redes neuronales, que ofrece ventajas significativas sobre la informática digital», explicó Wang.
«ACIM opera en la ley actual de Kirchhoff y la ley de Ohm para realizar la multiplicación basada en voltaje y la suma basada en la corriente directamente en el dominio analógico. Sin embargo, las variaciones de fabricación introducen el ruido computacional, lo que afecta la precisión en la informática de la red neuronal».
Además de ser propenso a la introducción del ruido, que perjudica la precisión de ANN, los sistemas ACIM se aplicaron principalmente a tareas que implican la multiplicación lineal y la adición. Por el contrario, se encontró que hasta ahora eran incompatibles con los cálculos de FP, operaciones matemáticas más complejas que se realizan en los llamados números de FP (es decir, representaciones computacionales de números).
«Por primera vez, demostramos una tarea de detección de objetos múltiple y múltiple de clase multi-objetivo implementada en un hardware, YOLO (solo se ve una vez), en un sistema ACIM real», escribió Wang. «Esto representa un hito significativo, que extiende las capacidades de ACIM más allá de simplemente apoyar las tareas de clasificación a un apoyo total de la inferencia general de la red neuronal con FP DataFlow».
Wang y sus colegas evaluaron su arquitectura en una serie de pruebas y descubrieron que exhibía una notable eficiencia energética, que era 39.2 veces mayor que la lograda por los multiplicadores FP-32 comunes que ejecutan modelos basados en ANN. Los investigadores también crearon un sistema informático prototipo basado en memristor basado en su diseño, que se encontró que alcanza una alta precisión (2.7 veces más alta en promedio que la de los sistemas ACIM puros).
Este estudio reciente podría inspirar el desarrollo de otras arquitecturas ACIM híbridas, que podrían ser más adecuadas para ejecutar modelos basados en el aprendizaje automático en tareas de computación compleja. Mientras tanto, Wang y sus colegas planean continuar construyendo en su arquitectura, para mejorar aún más su precisión y eficiencia energética.
«Todavía hay un amplio espacio para una mayor exploración y mejora de nuestro trabajo actual», agregó Wang.
«Nuestra futura investigación se centrará en el codiseño y la optimización de la arquitectura, los algoritmos y el hardware para mejorar la eficiencia energética y la precisión de los sistemas híbridos de computación analógica-digital. En última instancia, nuestro objetivo es admitir una gama más amplia de computación de redes neuronales y computación de redes y computación de redes neuronales Nuevos escenarios de aplicación «.
Más información:
Ze Wang et al, un sistema de cómputo en memoria de doble dominio para la inferencia general de la red neuronal, Electrónica de la naturaleza (2025). Doi: 10.1038/s41928-024-01315-9.
© 2025 Science X Network
Citación: La arquitectura de doble dominio muestra una eficiencia energética casi 40 veces mayor para ejecutar redes neuronales (2025, 12 de febrero) Recuperado el 12 de febrero de 2025 de https://techxplore.com/news/2025-02-dual-doma-domain-architecture-highter-energía .html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.
GIPHY App Key not set. Please check settings