DESAFÍOS PARA ALINEAR A LA IA CON LOS VALORES HUMANOS

“La IA debe apoyar los objetivos de aumentar la igualdad y reducir la pobreza”.

Arturo Moncada
Internacional
Copia de COLUMNAS (1920 × 1080 px)-27.png

Una de las tecnologías que más auge registra en los últimos años es sin duda la Inteligencia Artificial (IA), que inició su desarrollo desde 1950 como un campo que combinaba capacidades multitarea crecientes, poder computacional y memoria con conjuntos de datos progresivamente más grandes, lo que permitía la inferencia con base en computadora y la resolución de problemas.

Posteriormente se desarrollaron los subcampos de aprendizaje automático (Machine Learning), aprendizaje profundo y aprendizaje reforzado, que aprovechan los algoritmos de IA —unidades computacionales que transforman entradas dadas en salidas deseadas— para proporcionar predicciones y clasificaciones con fundamento en los datos disponibles.

Actualmente la digitalización de la mayoría de los aspectos de la actividad humana produce cantidades masivas de datos para algoritmos de entrenamiento. Estos datos, junto con el aumento exponencial del poder computacional, impulsan la generalización de las técnicas de IA en todas las industrias.

Si bien el objetivo final de construir entidades completamente inteligentes sigue siendo difícil de alcanzar, la era de la IA ya impacta a la humanidad de maneras que son sustanciales pero que no se comprenden bien.

Un grupo de 26 científicos internacionales liderados por Ozlem Garibay, profesor asistente en el Departamento de Ingeniería Industrial y Sistemas de Gestión de la Universidad Central de Florida (UCF), realizó un estudio que destaca los obstáculos que la humanidad debe enfrentar para garantizar que la IA sea confiable, segura y alineada con los valores humanos.

Retos definidos

Aunque algunos imaginan un futuro en el que la IA eclipsa a la inteligencia humana, este grupo aboga por uno donde los avances en IA aumenten en lugar de reemplazar a los humanos y mejoren su entorno.

En última instancia los especialistas destacan en su estudio, publicado en el International Journal of Human-Computer Interaction, que la IA debe apoyar los objetivos de gran alcance de aumentar la igualdad, reducir la pobreza, mejorar los resultados médicos, ampliar e individualizar la educación, poner fin a las epidemias, proporcionar un comercio más eficiente y un transporte más seguro, promover comunidades sostenibles y mejorar el medio ambiente, entre otros puntos.

Según Garibay, si bien la tecnología de IA se vuelve cada vez más frecuente en varios aspectos de nuestras vidas, también presenta una multitud de retos que deben examinarse a fondo.

Así, el documento identifica seis grandes desafíos para construir tecnologías y sistemas de IA centrados en el ser humano.

1. Bienestar humano La IA debería poder descubrir las oportunidades de implementación para que beneficie el bienestar de los seres humanos. También se debe considerar apoyar el bienestar del usuario cuando interactúa con la IA.

2. IA responsable Este punto se refiere al concepto de priorizar el bienestar humano y social a lo largo del ciclo de vida de la IA. Ello garantiza que los beneficios potenciales de la IA se aprovechen de una manera que se alinee con los valores y prioridades humanos, al mismo tiempo que se mitiga el riesgo de consecuencias no deseadas o infracciones éticas.

3. Privacidad La recopilación, el uso y la difusión de datos en los sistemas de IA deben considerarse cuidadosamente para garantizar la protección de la privacidad de las personas y evitar el uso dañino contra personas o grupos.

4. Diseño Los principios de diseño centrados en el ser humano para los sistemas de IA deben utilizar un marco que pueda informar a los profesionales. Este marco distinguiría entre IA con riesgo extremadamente bajo, IA sin necesidad de medidas especiales, IA con riesgos extremadamente altos e IA que no debería permitirse.

5. Gobernanza y supervisión Es necesario un marco de gobernanza que considere todo el ciclo de vida de la IA, desde la concepción hasta el desarrollo y la implementación.

6. Interacción humano-IA Para fomentar una relación ética y equitativa entre los humanos y los sistemas de IA es imperativo que las interacciones se basen en el principio fundamental de respetar las capacidades cognitivas de los humanos. Específicamente, los humanos deben mantener el control total y la responsabilidad por el comportamiento y los resultados de los sistemas de IA.

En general, señala Garibay, estos desafíos son un llamado a la acción para que la comunidad científica desarrolle e implemente tecnologías de IA que prioricen y beneficien a la humanidad.