Científicos confirman que las máquinas inspiradas en el cerebro humano son mejores en matemáticas de lo esperado

​​

Es posible que no estés familiarizado con un término tecnológico concreto: computación neuromórfica. De primeras, puede sonar un poco extraño. No obstante, su definición es bastante simple: se trata de aquellos ordenadores que de alguna forma están inspirados en el cerebro humano. Un poco como la inteligencia artificial, pero con fines mucho más concretos.

La computación neuromórfica, de hecho, lleva tiempo presentándose por los expertos como una alternativa (a veces más prometedora, otras menos) de los chips tradicionales. Por ejemplo, se viene empleando en la detección de imágenes o en el procesamiento de señales. Ahora, en cambio, científicos han descubierto que sus límites no son ni mucho menos esos.

La importancia de las máquinas inspiradas en el cerebro humano

Es cierto que la computación neuromórfica (máquinas que imitan el comportamiento del cerebro humano) no es demasiado famosa. No puede competir en lo que a popularidad se refiere con otras tecnologías, como por ejemplo la IA, tan de moda en estos momentos. Sin embargo, eso no quita para que tenga una considerable importancia a juzgar por los expertos.

Lo que en concreto dice el nuevo trabajo compartido en medios especializados es que las máquinas neuromórficas pueden resolver ecuaciones matemáticas extremadamente complejas y hacerlo, además, con un consumo energético mucho menor que el de la computación convencional.

En otras palabras: los ordenadores inspirados en el cerebro humano son mucho mejores matemáticos de lo que se creía.

¿Y por qué tiene relevancia este descubrimiento? Para empezar, hay que partir de algo muy básico: la computación tradicional -la de los ordenadores y servidores actuales, vaya- se basa en arquitecturas tipo von Neumann (padre de la IA, por cierto): una separación precisa entre memoria y procesador, con datos moviéndose continuamente entre ambos.

El cerebro humano, por el contrario, funciona de otra manera. No distingue (separa) memoria y cálculo como un ordenador clásico. Sus neuronas procesan información y, al mismo tiempo, almacenan patrones. Además, trabaja de forma paralela, con millones de conexiones simultáneas, y lo hace con una eficiencia energética que sigue siendo casi imposible de igualar.

La computación neuromórfica intenta replicar esa lógica mediante chips y arquitecturas que simulan neuronas y sinapsis. El objetivo no es crear máquinas más rápidas porque sí, sino que estas permitan un menor consumo de energía y sean capaces de procesar información de forma paralela. Al lograrlo, el esfuerzo de los ordenadores se reduce enormemente.

Una sorpresa que nadie se esperaba

La gran sorpresa del estudio es que estos sistemas neuromórficos han logrado resolver ecuaciones diferenciales parciales (PDEs, por sus siglas en inglés), un tipo de matemáticas que forma parte del «núcleo duro» de la ciencia moderna. O lo que es lo mismo, operaciones que suelen requerir de enormes equipos que consumen un montón de energía.

¿Hacia dónde podría llevar este descubrimiento? Básicamente, hacia un ahorro. Un gran ahorro. Y en los tiempos que corren con la IA exigiendo un consumo sin precedentes, las infraestructuras gigantes de han convertido en un problema que conviene tomarse muy en serio. De ahí que buscar alternativas, señalan los expertos, sea prácticamente una necesidad tecnológica.

 

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *