LA IA NO ES UN RIESGO PARA LA HUMANIDAD

“No tienen potencial para aprender nuevas habilidades sin recibir instrucciones previas”.

Arturo Moncada
Ciencia
IA

El desarrollo de la Inteligencia Artificial (IA) durante los últimos años se ha convertido rápidamente en una fuerza universal, ya que en todo el mundo revoluciona las industrias, mejora la productividad y da forma al futuro de la tecnología.

Sin embargo, junto a sus valiosos avances, la IA también genera un miedo evidente: a menudo alimentado por relatos de ciencia ficción y noticias falsas, ese temor surge sobre todo por la preocupación del desplazamiento laboral y la pérdida de fuentes de trabajo.

Muchos expertos afirman que si bien está claro que la IA parece tener el potencial de suplir a los trabajadores en algunas áreas, especialmente en aquellas que implican tareas repetitivas, físicamente exigentes o que requieren habilidades especializadas, la IA no está destinada a reemplazar, sino a complementar y mejorar las habilidades humanas.

Agregan los especialistas que la IA es una herramienta para mejorar la eficiencia y la precisión de ciertas tareas, lo que permitirá a los trabajadores poder concentrarse en otras áreas que requieren habilidades humanas específicas, como la creatividad, la empatía, el trabajo en equipo y la toma de decisiones complejas.

Desmentido

Recientemente una investigación de la británica Universidad de Bath, realizada conjuntamente con expertos de la Universidad Técnica de Darmstadt en Alemania, demostró que los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), un tipo de modelo de IA que emplea técnicas de machine learning para comprender y generar lenguaje humano como son ChatGPT y otros, no pueden aprender de forma independiente ni adquirir nuevas habilidades, lo que quiere decir que no representan una amenaza real para la humanidad.

El estudio, publicado como parte de las actas de la 62 Reunión Anual de la Asociación de Lingüística Computacional (ACL 2024), la principal conferencia internacional sobre procesamiento del lenguaje natural, reveló que los LLM tienen una capacidad superficial para seguir instrucciones y sobresalir en el dominio del lenguaje, pero no tienen potencial para dominar nuevas habilidades sin instrucciones explícitas.

Esto significa que siguen siendo inherentemente controlables, predecibles y seguros.

Método

La profesora Iryna Gurevych —de la Universidad Técnica de Darmstadt en Alemania— y su equipo realizaron experimentos para probar la capacidad de los LLM para completar tareas que dichos modelos nunca habían realizado, las llamadas “habilidades emergentes”, y demostraron claramente la ausencia de habilidades de razonamiento complejas emergentes en los LLM.

El estudio reveló que los LLM tienen una capacidad superficial para seguir instrucciones y dominar el lenguaje, pero no poseen potencial para aprender nuevas habilidades sin recibir instrucciones previas. Esto quiere decir, indicó la profesora, que “los modelos de lenguaje de gran tamaño siguen siendo inherentemente controlables, predecibles y seguros”.

Asimismo, según los expertos, es probable que con el paso del tiempo estos modelos consigan generar un lenguaje más sofisticado y ofrecer indicaciones más explícitas y detalladas, pero es altamente improbable que puedan adquirir habilidades de razonamiento complejas.

El equipo de investigación concluyó que los LLM, que se entrenan en conjuntos de datos cada vez más grandes, pueden seguir implementándose sin problemas de seguridad, aunque la tecnología aún puede usarse indebidamente.

Con el crecimiento es probable que estos modelos generen un lenguaje más sofisticado y se vuelvan mejores a la hora de seguir indicaciones explícitas y detalladas, pero es muy poco probable que adquieran habilidades de razonamiento complejas.

Harish Tayyar Madabushi, científico informático de la Universidad de Bath y coautor del estudio sobre las “habilidades emergentes” de los LLM, indicó que “la narrativa predominante de que este tipo de IA es una amenaza para la humanidad impide la adopción y el desarrollo generalizados de estas tecnologías y también desvía la atención de los problemas genuinos que requieren nuestra atención”.

Y es que las preocupaciones sobre la amenaza existencial que plantean los LLM no se limitan a la gente común, sino que han sido expresadas incluso por algunos de los principales investigadores de IA del mundo, apuntó Tayyar Madabushi, quien sostuvo que este temor es infundado, ya que las pruebas de los investigadores demostraron claramente la ausencia de capacidades de razonamiento complejo emergentes en los LLM.

“Si bien es importante abordar el potencial existente de mal uso de la IA, como la creación de noticias falsas y el mayor riesgo de fraudes, sería prematuro promulgar regulaciones con base en amenazas existenciales percibidas”, finalizó.

Principales aplicaciones de modelos LLM

El popular chatbot ChatGPT AI es uno de los grandes ejemplos de esta tecnología que utilizan, entre otros, los siguientes sectores.

Minoristas y otros proveedores de servicios pueden usar los LLM para brindar mejores experiencias a los clientes a través de chatbots dinámicos, asistentes de IA y más.

Motores de búsqueda para proporcionar respuestas más directas y similares a las humanas.

Investigadores de ciencias de la vida para comprender proteínas, moléculas, ADN y ARN.

Desarrolladores de software para enseñar a robots tareas físicas con grandes modelos de lenguaje.

En marketing para organizar comentarios y solicitudes de los clientes en grupos, o segmentar productos en categorías según las descripciones de los productos.

Asesores financieros para resumir las llamadas de ganancias y crear transcripciones de reuniones importantes utilizando grandes modelos de lenguaje.

Compañías de tarjetas de crédito para detección de anomalías y análisis de fraudes en protección de los consumidores.

Equipos legales para ayudar con la escritura y la paráfrasis legal, etcétera.

Fuente: Nvidia