COMPUTACIÓN NEUROMÓRFICA: LA IA HACIA EL PENSAMIENTO HUMANO

“Busca recrear el funcionamiento del cerebro”.

Arturo Moncada
Internacional
Compartir
COMPUTACIÓN NEUROMÓRFICA

Actualmente la tecnología que más se utiliza para procesar información es la llamada computación clásica, compuesta por computadoras, equipos de telecomunicación para almacenar, recuperar, transmitir y manipular datos, sobre todo en el contexto de los negocios u otras empresas.

Múltiples industrias se asocian con las tecnologías de la información: hardware y software de computadoras, electrónica, semiconductores, internet, comercio electrónico, servicios computacionales, etcétera.

No obstante, además de la computación clásica existen disciplinas emergentes como la computación cuántica, la computación biológica y la computación neuromórfica.

Sobre esta última diversas empresas —como Intel, IBM, HP o Google, entre otras— y algunas de las universidades más importantes del mundo —como el MIT, Stanford o el IMEC— ponen recursos a disposición de investigadores para propiciar su desarrollo.

La computación neuromórfica, conocida también como ingeniería neuromórfica, es el campo del conocimiento que busca utilizar sistemas de integración a muy gran escala (VLSI, por sus siglas en inglés), consistentes en circuitos electrónicos analógicos, con el propósito de imitar estructuras neurobiológicas del sistema nervioso.

De forma más simple, aunque no del todo precisa, la computación neuromórfica busca recrear el funcionamiento del cerebro o áreas de este usando tecnología.

No se trata solo de imitarlo en función, sino también en forma: copiando en la medida de lo posible sus estructuras físicas.

El propósito de esta disciplina es desarrollar sistemas electrónicos capaces de procesar la información de una forma más eficiente. De hecho, aspiran a ser tan eficientes como un cerebro orgánico.

Objetivos

Los ingenieros neuromórficos se basan en varias disciplinas, como informática, biología, matemáticas, ingeniería electrónica y física, para crear sistemas neuronales artificiales inspirados en estructuras biológicas.

Hay dos objetivos generales en la computación neuromórfica. El primero es crear un dispositivo que pueda aprender, retener información e incluso hacer deducciones lógicas de la forma en que lo hace un cerebro humano, es decir, una máquina de cognición; y, en segunda instancia, adquirir nueva información y quizá probar una teoría racional sobre cómo funciona el cerebro humano.

Al igual que el cerebro, los sistemas neuromórficos logran un cálculo rápido y un bajo consumo de energía, además de una alta adaptabilidad, flexibilidad y tolerancia a fallos. Es decir, intentan imitar el funcionamiento del sentido común.

Por ejemplo, el cerebro usa aproximadamente 20 vatios de energía en promedio, que son alrededor de la mitad de lo que utiliza una computadora portátil estándar.

El cerebro es extremadamente tolerante a los fallos gracias a que almacena información de forma redundante y en varios lugares. Incluso los fallos relativamente graves de determinadas áreas del cerebro no impiden su funcionamiento general. También puede resolver problemas novedosos y adaptarse a nuevos entornos muy rápidamente.

La computación neuromórfica logra estas funciones y una eficiencia similar a la del cerebro mediante la construcción de sistemas neuronales artificiales que implementan “neuronas” —los nodos reales que procesan información— y “sinapsis” —las conexiones entre esos nodos— para transferir señales eléctricas utilizando circuitos analógicos. Esto le permite modular la cantidad de electricidad que fluye entre esos nodos para imitar los diversos grados de fuerza que tienen las señales cerebrales que ocurren naturalmente.

Actualidad

La computación neuromórfica es un campo emergente de la tecnología que en su mayor parte aún se investiga.

Solo recientemente ha habido intentos de uso práctico de arquitecturas informáticas neuromórficas.

Los desarrollos más recientes en hardware neuromórfico tienen el potencial de mejorar la eficiencia de las redes neuronales actuales, que al presente se ejecutan en unidades de procesamiento gráfico (GPU) algo ineficientes. Sin embargo, un chip cerebral humano funcional se halla todavía muy lejos.

A pesar de estar en sus inicios, existe una inversión significativa en este campo. Aunque hay escépticos, muchos expertos afirman que la computación neuromórfica tiene el potencial de revolucionar el poder algorítmico, la eficiencia y las capacidades generales de la Inteligencia Artificial (IA), además de revelar nuevos conocimientos sobre la cognición.

En la actualidad, por ejemplo, IBM e Intel abordan la computación neuromórfica desde una perspectiva computacional, enfocándose en mejorar la eficiencia y el procesamiento. Por otro lado, las universidades adoptan un enfoque de neurociencia primero, utilizando computadoras neuromórficas como un medio para aprender sobre el cerebro humano.

Ambos enfoques son importantes para el campo de la computación neuromórfica, ya que los dos tipos de conocimiento son necesarios para hacer avanzar a la IA.

La ingeniería neuromórfica abre una infinidad de posibilidades para el desarrollo de sistemas de IA ultrarrápidos y de enorme precisión. También a toda clase de tratamientos médicos simplemente impensables a través de otros métodos. Los expertos predicen que cuando las computadoras neuromórficas se destaquen, funcionarán bien para ejecutar algoritmos de IA fuera de la nube debido a su tamaño más pequeño y bajo consumo de energía.

Al igual que un humano, serían capaces de adaptarse a su entorno, recordando lo que es necesario y accediendo a una fuente externa —la nube en este caso— para obtener más información cuando sea necesario.

Por todo ello la computación neuromórfica ofrece nuevas vías emergentes para avanzar hacia una IA similar a la humana.

Utilidades

Compañías como Intel ya trabajan en componentes neuromórficos. Ejemplo de ello es el chip denominado Lohi 2, que incorpora un millón de neuronas programables artificiales. Asimismo, Intel Labs, en colaboración con el Instituto Italiano de Tecnología y la Universidad Técnica de Münich, presentan un nuevo enfoque para el aprendizaje de objetos con base en redes neuronales. Se dirige específicamente a aplicaciones futuras, como los asistentes robóticos que interactúan con entornos no restringidos, entre ellos la logística; la asistencia sanitaria o el cuidado de personas mayores; coches sin conductor; dispositivos domésticos inteligentes; comprensión del lenguaje natural; analítica de datos; optimización de procesos, y procesamiento de imágenes en tiempo real para su uso en cámaras de policía, por ejemplo.

Fuente: Intel