El Alto Comisionado de la ONU para los Derechos Humanos, Volker Türk, advirtió sobre el riesgo de que la inteligencia artificial se convierta en un "monstruo de Frankenstein" si no se implementan salvaguardas adecuadas. Durante la Cumbre sobre el Impacto de la IA en Nueva Delhi, destacó que la falta de comprensión ética y social en el desarrollo de esta tecnología podría profundizar la desigualdad y amplificar prejuicios. Türk instó a gobiernos y empresas a realizar evaluaciones de impacto en derechos humanos y a asegurar que el desarrollo de la IA sea inclusivo, evitando así daños reales en sociedades ya polarizadas.
El Alto Comisionado de la ONU para los Derechos Humanos ha lanzado una advertencia sobre el potencial peligro de que la inteligencia artificial se convierta en un «monstruo de Frankenstein» si los desarrolladores no comprenden a fondo los principios éticos y sociales que deben guiar su creación. Durante su intervención en la Cumbre sobre el Impacto de la IA en Nueva Delhi, Volker Türk enfatizó que una comprensión superficial puede llevar a resultados desastrosos.
«Cuando los desarrolladores carecen de conocimiento profundo, es como crear algo que ya no pueden controlar», afirmó Türk. «Si no eres consciente de los peligros y riesgos, puedes causar estragos», añadió, subrayando la necesidad urgente de establecer salvaguardas por parte de gobiernos y empresas.
Türk destacó la desigualdad como uno de los riesgos más graves asociados con el avance de la inteligencia artificial. Celebró que la cumbre se realizara en India, un país donde se busca asegurar que estas tecnologías sean accesibles y se desarrollen equitativamente en todo el mundo.
«Si los datos solo provienen de ciertas regiones o si solo hombres están detrás del desarrollo de la IA, inevitablemente se incorporarán sesgos inconscientes», advirtió. En este sentido, hizo hincapié en la importancia de incluir a grupos vulnerables y minorías, quienes a menudo quedan excluidos del proceso.
El Alto Comisionado también comparó el descontrol en el avance tecnológico con «dejar salir al genio de la botella». Puso como ejemplo la situación en Myanmar, donde las redes sociales han amplificado discursos de odio contra los rohinyás.
Türk alertó sobre cómo la desinformación puede fracturar el tejido social: «Esto crea sociedades polarizadas donde cada individuo vive encerrado en su propia burbuja». También mencionó el alarmante aumento de actitudes misóginas: «Muchas mujeres me han expresado su deseo de abandonar la política debido a lo que enfrentan en las redes sociales».
Al abordar la necesidad de regulación, Türk comparó esta situación con la industria farmacéutica: «Exigimos a las empresas realizar evaluaciones de impacto sobre derechos humanos al diseñar, lanzar y comercializar herramientas de IA».
Puntualizó que algunas compañías tecnológicas poseen presupuestos superiores a muchos países pequeños, lo cual les otorga un poder global significativo. Este poder puede ser utilizado para fines positivos —como salud y educación— o para propósitos negativos —como armas autónomas letales o difusión de desinformación y odio.
Ante la pregunta sobre cómo sería una IA responsable dentro de cinco años, Türk visualizó un futuro caracterizado por un «desarrollo inclusivo» donde el poder no esté concentrado únicamente en unas pocas empresas norteamericanas. Imaginó una IA construida sobre la diversidad y riqueza cultural global.
«Si no ofrecemos una visión hacia un mundo mejor», concluyó Türk, «podríamos acabar aún más polarizados y enfrentarnos a guerras que ya no estén bajo control humano. Eso representa un gran peligro».
El Alto Comisionado, Volker Türk, advierte que la inteligencia artificial puede convertirse en un "monstruo de Frankenstein" si quienes la desarrollan no comprenden profundamente los principios éticos y sociales fundamentales.
Türk insta a gobiernos y empresas a implementar salvaguardas urgentes para evitar que la tecnología profundice la desigualdad, amplifique prejuicios y cause daños en el mundo real.
Türk identifica la inequidad, los sesgos inconscientes y la discriminación como algunos de los peligros más acuciantes relacionados con el desarrollo y uso de la inteligencia artificial.
La desinformación crea sociedades divididas y polarizadas, donde las personas viven en burbujas informativas. También ha contribuido al aumento de la misoginia en las redes sociales.
Türk compara la necesidad de regulación de la IA con la industria farmacéutica, sugiriendo que se deben exigir evaluaciones de impacto sobre derechos humanos durante el diseño, lanzamiento y comercialización de herramientas de IA.
Türk visualiza un futuro donde el desarrollo inclusivo permita que el poder no esté concentrado en unas pocas empresas del Norte global, sino que refleje la riqueza y diversidad de todas las sociedades.