La singularidad tecnológica es la hipotética llegada de la Inteligencia Artificial (IA) a emular o superar las capacidades intelectuales de un ser humano. Esta expresión se vincula con la velocidad a la que avanza la tecnología y el aparente limitado control que tenemos sobre ese avance.
Se especula que la singularidad tecnológica causaría cambios sociales inimaginables e imposibles de comprender o predecir por cualquier humano.
Esto haría que un equipo tecnológico, sea un robot, una red o un prototipo, resulte capaz de automejorarse y así sobrepasar la inteligencia humana y tomar el control.
No se trata únicamente de que una máquina pueda resolver una ecuación matemática en milésimas de segundo, algo ya alcanzado hace varias décadas: la verdadera singularidad se alcanzará cuando la IA sea capaz de entender y aprender de forma autónoma, evolucionando sin intervención humana.
Plazo
El tiempo para alcanzar la singularidad tecnológica es un tema de debate entre los expertos, con predicciones que varían ampliamente en función de diferentes supuestos y modelos de crecimiento tecnológico.
Ray Kurzweil, uno de los defensores más importantes de la singularidad, predice desde hace tiempo que la singularidad está cerca y sucederá en 2045. Su vaticinio se basa en tendencias como la Ley de Moore y la creciente tasa de avances tecnológicos en campos como la computación, la IA y la biotecnología.
Otros expertos son menos optimistas y proponen diferentes plazos. Algunos sugieren que si bien la IA seguirá avanzando, las complejidades y los desafíos imprevistos de lograr la superinteligencia podrían retrasar la singularidad más allá de este siglo, si es que sucede.
Los desafíos tecnológicos, éticos y normativos podrían ralentizar potencialmente el ritmo del desarrollo de la IA, agregan.
Avances
La IA y su contraparte más avanzada, la Inteligencia Artificial General (IAG), son fundamentales para moldear la trayectoria hacia la singularidad tecnológica.
Tanto la IA como los sistemas diseñados para realizar tareas específicas con capacidades que imitan la inteligencia de nivel humano y la IAG, que apunta a igualar y superar las capacidades cognitivas de los humanos en una amplia gama de tareas, contribuyen a la aceleración del crecimiento tecnológico que podría conducir a la singularidad.
La teoría de la singularidad postula que el advenimiento de la IAG podría conducir a un escenario en el que estos sistemas serían capaces de automejorarse.
Esta automejora recursiva podría desencadenar una explosión de inteligencia, lo que daría lugar a la primera máquina superinteligente, cuya producción intelectual podría superar significativamente las capacidades humanas.
Desde principios de 2025 la IA y el coeficiente intelectual agente —programa de software que puede interactuar con su entorno, recopilar datos y utilizarlos para realizar tareas definidas de forma autónoma a fin de cumplir objetivos predeterminados— están en el centro de la atención tecnológica.
Ello sumado a los rápidos avances el campo de la computación cuántica plantea que la singularidad tecnológica podría alcanzarse en poco tiempo. Y es que a medida que se aceleran los esfuerzos por lograr el coeficiente intelectual (QI), la perspectiva de una singularidad parece cada vez más probable.
Tan solo el lanzamiento hace un par de años por parte de IBM de su procesador Condor, de 1.121 cubits, provocó un progreso significativo hacia sistemas cuánticos escalables. Este avance, junto con mejoras en la corrección de errores cuánticos, abordó desafíos cruciales en esta área.
Además, IBM continúa perfeccionando y ampliando su ecosistema de software cuántico, incluso con Qiskit, una plataforma de computación cuántica de código abierto que permite a los desarrolladores diseñar y ejecutar algoritmos cuánticos. En la misma línea, la división Quantum AI de Google presentó el chip Willow, un procesador de 105 cubits capaz de realizar tareas computacionales hasta ahora consideradas inaccesibles para las supercomputadoras convencionales. Estos hitos ponen de relieve la rápida evolución del hardware cuántico.
En tanto, la colaboración de IonQ, una empresa estadunidense de hardware y software de computación cuántica, con Nvidia para integrar IQ en los sistemas convencionales ilustra las aplicaciones emergentes de estas tecnologías en el mundo real. Estos avances muestran el impulso de la industria hacia las soluciones cuánticas operativas.
Gracias a importantes inversiones, colaboraciones internacionales y avances tecnológicos convergentes en la computación cuántica, la posibilidad de una singularidad en el coeficiente intelectual —donde los sistemas cuánticos logran una utilidad práctica y generalizada— parece cada vez más posible en el corto plazo y, por ende, hacia la singularidad tecnológica.
Niveles hacia la IAG
OpenAI, los creadores de ChatGPT, proponen una escala de cinco niveles para la inteligencia de IA, dando un enfoque estructurado para categorizar su progresión.
Nivel 1. IA estrecha La IA en este nivel está diseñada para realizar tareas específicas con competencia, pero carece de la capacidad de generalizar en diferentes dominios.
Nivel 2. IA-resolución de problemas Este nivel de IA puede resolver problemas básicos a un nivel comparable al de una persona con un doctorado.
Nivel 3. Agentes de IA autónomos Los agentes de IA de este nivel son capaces de realizar acciones autónomas en nombre de los usuarios. Pueden realizar tareas que requieren una secuencia de decisiones, adaptarse a nuevas situaciones y tomar decisiones sin intervención humana, pero su autonomía sigue siendo específica de un dominio
Nivel 4. IA innovadora La IA en esta etapa puede crear nuevas innovaciones, demostrando un alto nivel de creatividad y capacidades avanzadas de resolución de problemas. Puede generar nuevas ideas, diseños y soluciones, superando las capacidades humanas en muchos campos creativos y técnicos.
Nivel 5. IA General (IAG) Puede realizar tareas que actualmente manejan organizaciones enteras de personas. Este nivel representa sistemas altamente autónomos que superan la inteligencia humana en la mayoría de las tareas económicamente valiosas, integrando y generalizando el conocimiento en varios dominios.
OpenAI no propone un Nivel 6, pero su escala no se detiene en IAG: los expertos indican que el siguiente nivel sería SIA (Super Inteligencia Artificial). Nadie sabe qué es eso, pero la hipótesis es que sería un sistema tan inteligente y capaz, que los humanos no entenderían cómo funciona ni qué hace.
Fuente: OpenAI y agencias