Carlos A. Coello: las IAs tienen su origen en la filosofía

El miembro de El Colegio Nacional impartió curso

Redacción
Cultura
Compartir
Carlos A. Coello Coello Colegio Nacional 2025
Foto: El Colegio Nacional

Ciudad de México, México, 26 de febrero 2025. “Hoy en día, las expectativas sobre lo que se logrará con la inteligencia artificial (IA) son muy elevadas. Se espera que tenga un enorme impacto en áreas tales como la educación, la investigación científica, las finanzas, el transporte y la salud”, señaló Carlos A. Coello Coello, miembro de El Colegio Nacional, al impartir y coordinar la primera sesión del curso Una breve introducción a la inteligencia artificial y sus aplicaciones.

El colegiado realizó una cronología en la que dejó claro que el interés por mecanizar los procesos del pensamiento humano no es nuevo, es muy antiguo. “Mucho de lo que plantearon los pioneros de la IA, surge de la filosofía. Aristóteles introdujo los “silogismos”, una propuesta que permitía generar mecánicamente conclusiones, con base en una serie de leyes de razonamiento deductivo. Los silogismos constaban de tres partes: argumento mayor, argumento menor y conclusión. Por ejemplo: Argumento mayor, todos los hombres son mortales; el argumento menor, Carlos es un hombre, por lo tanto, como conclusión: Carlos es mortal. La idea era poder mecanizar el proceso de llegar a la conclusión”.

Fue en 1308, cuando el filósofo español Ramón Llull diseñó y construyó la primera máquina lógica llamada Ars Magna, en la que las teorías, los sujetos y los predicados teológicos se representaban mediante figuras geométricas que él consideraba “perfectas”, como círculos, cuadrados y triángulos. Usando palancas, manivelas y un volante, era posible demostrar con esta máquina la falsedad o certeza de un postulado, explicó el ingeniero mexicano.

Agregó que, en 1637, el filósofo René Descartes planteó la idea de dudar de lo que captaban los sentidos. Es decir, separó a la mente del mundo físico; identificó la conciencia y autoconciencia, y la distinguió del cerebro como el asiento de la inteligencia. En 1694, el matemático y filósofo Gottfried Wilhelm Leibniz planteó la posibilidad de la existencia de máquinas que pudieran evaluar las argumentaciones, pues creía que se podía automatizar el pensamiento. Y para 1943, los investigadores estadounidenses Warren McCulloch y Walter Pitts propusieron un modelo de neuronas artificiales en el cual cada neurona se caracterizaba por estar “encendida” o “apagada”.

En 1943, el matemático norteamericano Norbert Wiener publicó su libro Cybernetics, originando una nueva disciplina llamada Cibernética. Pero fue hasta 1950 que el matemático y filosofo Alan Mathison Turing publicó Computing Machinery and Intelligence, con el que puso sobre la mesa el tema de la inteligencia artificial y cuestiones como si ¿las máquinas podían pensar?Turing especulaba que existiría una máquina que pasaría esta prueba, y hoy día hay programas como el ChatGPT que la acreditan”.

En 1951, el matemático Marvin Minsky y el físico Dean S. Edmonds construyeron el primer modelo físico de una red neuronal. Este dispositivo, que fue denominado Stochastic Neural Analog Reinforcement Computer (SNARC), usaba 300 bulbos para simular una red de 40 neuronas que utilizaban aprendizaje de Hebb, propuesto en 1940. SNARC fue capaz de hacer que unos ratones encontraran la salida de un laberinto mediante una simulación que se visualizaba como un “arreglo de luces”.

En palabras del colegiado, en la década de 1960, los rusos Alexsey Ivakhnenko y Valentin Lapa desarrollaron el primer algoritmo de aprendizaje profundo, que originaría una disciplina que se denominaría años después “inteligencia computacional”. En 1968, el programador estadounidense Richard Greenblatt desarrolló, en el Instituto Tecnológico de Massachusetts, el primer programa de computadora para jugar ajedrez a nivel de torneo, titulado Mac Hack. “Este programa fue también el primero en derrotar a un contrincante humano y en competir en un torneo de ajedrez de humanos. Cuenta la leyenda que él fue el primer hacker de la historia”.

Pero el origen de las ciencias de la computación, como se conocen actualmente, se dio en 1975, cuando en su discurso de aceptación del Turing Award, los investigadores Allen Newell y Herbert Simon anunciaron la denominada hipótesis del sistema de símbolos físicos, como la computadora digital, que tenía los medios suficientes y necesarios para poder realizar acciones inteligentes. “Esta hipótesis hizo que el tipo de inteligencia artificial realizada en esa época se denominara “simbólica”.

En 1981, el gobierno de Japón, en colaboración con su sector industrial, planteó el proyecto denominado Sistemas de Cómputo de Quinta Generación. El plan original establecía una duración de 10 años y era muy ambicioso, pero poco realista. “Entre otras cosas, este proyecto planteaba que los sistemas de cómputo de quinta generación contarían con mecanismos para resolución de problemas y para realizar inferencias; manejo de enormes bases de conocimiento e interfaces inteligentes que usaran lenguaje natural, tanto de forma impresa como hablada.

De acuerdo con el catedrático, pese a los avances de esta tecnología, entre 1987 y 1993 ocurrió el “segundo invierno de la IA”. Su primer signo fue el colapso del mercado de hardware especializado en esta aplicación, ocurrido en 1987. Para 1993, más de 300 empresas que desarrollaban soluciones basadas en IA se habían ido a la quiebra.

Fue en 1990 cuando el informático francoestadounidense Yann LeCun, de Laboratorios Bell, usó una red neuronal convolucional para reconocer dígitos escritos a mano. Este sistema fue usado ampliamente en esa década para leer códigos postales y cheques personales. “Muchos lo consideraban como la primera aplicación práctica, genuinamente útil, de las redes neuronales”.

En 1997, Deep Blue se convirtió en el primer programa de computadora capaz de derrotar al campeón del mundo en ajedrez, Garry Kasparov, en tres partidas. También empató en dos más, volviéndose un hito en la historia de la inteligencia artificial. Para 2014, el informático canadiense Yoshua Bengio desarrolló, junto con lan Goodfellow, el concepto de “redes generativas adversarias”. “Mientras que la mayoría de las redes se diseñaron para reconocer patrones, una red generativa aprendía a generar objetos difíciles de distinguir entre los disponibles en el conjunto de entrenamiento. Se llama “adversaria” porque es posible entrenar una de estas redes para generar salidas falsas creíbles. En años recientes, este tipo de redes se han usado, por ejemplo, para generar fotografías muy realistas que contienen a personas inexistentes”.

Entre 2022 y 2023 se liberó al público en general ChatGPT, un chatbot de inteligencia artificial generativa diseñado por OpenAl, que pertenece a la familia de modelos de lenguaje conocidos como “Generative Pre-trained Transformer” (GPT). “Se basa en un Large Language Model (LLM) llamado GPT-4o y puede generar respuestas y sostener conversaciones similares a las de un humano. ChatGPT fue entrenado por medio de humanos y de aprendizaje por refuerzo, usando la infraestructura de supercómputo llamada Azure, de Microsoft. Actualmente, la importancia de la IA en la ciencia es reconocida con los Premios Nobel de Física y Química”, finalizó Coello Coello.

La primera sesión de Una breve introducción a la inteligencia artificial y sus aplicaciones se encuentra disponible en elcolegionacionalmx. El curso coordinado por el colegiado Carlos A. Coello Coello concluye el 28 de febrero.