La tecnología podría hacer que los sistemas de IA sean mucho más eficientes desde el punto de vista energético
Un enfoque de sincronización descentralizado permite que la arquitectura neuromórfica se ejecute de manera eficiente en miles de núcleos. / Crédito: Universidad de Yale/IA.
Pablo Javier Piacente / T21
09 DIC 2025
El nuevo sistema sincroniza grupos individuales de neuronas y sinapsis artificiales que están conectadas directamente entre sí, dejando atrás una de las grandes limitaciones de los chips neuromórficos: su escalabilidad y la posibilidad de sumar cada vez más componentes.
Investigadores de la Universidad de Yale, en Estados Unidos, han presentado una nueva forma de conectar chips que imitan el funcionamiento del cerebro humano, denominados neuromórficos. De esta manera, lograron que puedan trabajar juntos como un único sistema, de grandes dimensiones y con un funcionamiento predecible.
El nuevo gran "cerebro artificial", denominado NeuroScale, propone sincronizar grupos locales de chips neuromórficos, que "copian" el funcionamiento de las neuronas humanas, en vez de forzar un reloj global para todo el conjunto. Esta condición permite escalar a redes mucho mayores, pero sin perder exactitud en los resultados. Así lo explican en un estudio publicado en la revista Nature Communications.
Buscando la eficiencia del cerebro humano
Los científicos e ingenieros a cargo del nuevo estudio explicaron que los chips neuromórficos son circuitos diseñados para imitar ciertos aspectos de los mecanismos cerebrales humanos: cada unidad procesa y envía señales en forma de "pulsos" o picos, en vez de operar como la CPU de un ordenador tradicional.
Según una nota de prensa, hasta el momento agrupar muchos de esos chips en un sistema más grande era una idea que se enfrentaba con un problema práctico: mantener la sincronía temporal entre unidades, para que los cálculos sean reproducibles. Las soluciones anteriores empleaban una señal global para marcar los pasos del sistema, pero esa señal se vuelve lenta y poco eficiente cuando el número de "neuronas" crece progresivamente.
La propuesta de NeuroScale evita esa señal global: en su reemplazo, las unidades cercanas se sincronizan entre sí de forma local y asíncrona. Gracias a este protocolo distribuido, solo se necesita coordinar los grupos que realmente se comunican entre sí, reduciendo retrasos y haciendo que el sistema pueda predecir los resultados a lo largo del tiempo.
Sistemas de IA más eficientes y esquemas que se adaptan a los cambios
Al poder producir los mismos resultados si se repite la misma entrada, aún cuando el sistema crezca, el mecanismo gana en eficiencia. Según los autores, esto elimina la limitación de escala impuesta por la sincronización global y permite que los chips imiten redes neuronales cada vez más grandes y potentes.
NeuroScale podría facilitar la construcción de sistemas neuromórficos con miles de millones de neuronas artificiales, manteniendo un consumo de energía bajo y resultados reproducibles a largo plazo, dos cualidades importantes para aplicaciones prácticas fuera del laboratorio.
De esta manera, los sistemas neuromórficos escalables podrían impulsar dispositivos de Inteligencia Artificial (IA) más eficientes en su consumo energético, con aplicaciones en robótica, sensores inteligentes y procesamiento fuera de la nube.
Además, al evitar la dependencia de un reloj central, los circuitos pueden adaptarse mejor a las variables cambiantes del mundo real, como las distintas temperaturas del entorno o las pequeñas diferencias de fabricación, pero sin perder la capacidad de repetir experiencias y eliminar errores.
___________
Referencia
A deterministic neuromorphic architecture with scalable time synchronization. Congyang Li et al. Nature Communications (2025). DOI:https://doi.org/10.1038/s41467-025-65268-z
_________
Fuente:
