Actualidad

Alto Comisionado de la ONU advierte sobre los riesgos de una IA descontrolada

Redacción | Sábado 21 de febrero de 2026

El Alto Comisionado de la ONU para los Derechos Humanos, Volker Türk, advirtió sobre el riesgo de que la inteligencia artificial se convierta en un "monstruo de Frankenstein" si no se implementan salvaguardas adecuadas. Durante la Cumbre sobre el Impacto de la IA en Nueva Delhi, destacó que la falta de comprensión ética y social en el desarrollo de esta tecnología podría profundizar la desigualdad y amplificar prejuicios. Türk instó a gobiernos y empresas a realizar evaluaciones de impacto en derechos humanos y a asegurar que el desarrollo de la IA sea inclusivo, evitando así daños reales en sociedades ya polarizadas.



El Alto Comisionado de la ONU para los Derechos Humanos ha lanzado una advertencia sobre el potencial peligro de que la inteligencia artificial se convierta en un «monstruo de Frankenstein» si los desarrolladores no comprenden a fondo los principios éticos y sociales que deben guiar su creación. Durante su intervención en la Cumbre sobre el Impacto de la IA en Nueva Delhi, Volker Türk enfatizó que una comprensión superficial puede llevar a resultados desastrosos.

«Cuando los desarrolladores carecen de conocimiento profundo, es como crear algo que ya no pueden controlar», afirmó Türk. «Si no eres consciente de los peligros y riesgos, puedes causar estragos», añadió, subrayando la necesidad urgente de establecer salvaguardas por parte de gobiernos y empresas.

Desigualdad y sesgos en el desarrollo tecnológico

Türk destacó la desigualdad como uno de los riesgos más graves asociados con el avance de la inteligencia artificial. Celebró que la cumbre se realizara en India, un país donde se busca asegurar que estas tecnologías sean accesibles y se desarrollen equitativamente en todo el mundo.

«Si los datos solo provienen de ciertas regiones o si solo hombres están detrás del desarrollo de la IA, inevitablemente se incorporarán sesgos inconscientes», advirtió. En este sentido, hizo hincapié en la importancia de incluir a grupos vulnerables y minorías, quienes a menudo quedan excluidos del proceso.

El genio fuera de la botella

El Alto Comisionado también comparó el descontrol en el avance tecnológico con «dejar salir al genio de la botella». Puso como ejemplo la situación en Myanmar, donde las redes sociales han amplificado discursos de odio contra los rohinyás.

Türk alertó sobre cómo la desinformación puede fracturar el tejido social: «Esto crea sociedades polarizadas donde cada individuo vive encerrado en su propia burbuja». También mencionó el alarmante aumento de actitudes misóginas: «Muchas mujeres me han expresado su deseo de abandonar la política debido a lo que enfrentan en las redes sociales».

Demandas para una regulación efectiva

Al abordar la necesidad de regulación, Türk comparó esta situación con la industria farmacéutica: «Exigimos a las empresas realizar evaluaciones de impacto sobre derechos humanos al diseñar, lanzar y comercializar herramientas de IA».

Puntualizó que algunas compañías tecnológicas poseen presupuestos superiores a muchos países pequeños, lo cual les otorga un poder global significativo. Este poder puede ser utilizado para fines positivos —como salud y educación— o para propósitos negativos —como armas autónomas letales o difusión de desinformación y odio.

Un futuro inclusivo para la inteligencia artificial

Ante la pregunta sobre cómo sería una IA responsable dentro de cinco años, Türk visualizó un futuro caracterizado por un «desarrollo inclusivo» donde el poder no esté concentrado únicamente en unas pocas empresas norteamericanas. Imaginó una IA construida sobre la diversidad y riqueza cultural global.

«Si no ofrecemos una visión hacia un mundo mejor», concluyó Türk, «podríamos acabar aún más polarizados y enfrentarnos a guerras que ya no estén bajo control humano. Eso representa un gran peligro».

Preguntas sobre la noticia

¿Cuál es el riesgo de la inteligencia artificial según el Alto Comisionado de la ONU para los Derechos Humanos?

El Alto Comisionado, Volker Türk, advierte que la inteligencia artificial puede convertirse en un "monstruo de Frankenstein" si quienes la desarrollan no comprenden profundamente los principios éticos y sociales fundamentales.

¿Qué salvaguardas se deben establecer para el uso de la IA?

Türk insta a gobiernos y empresas a implementar salvaguardas urgentes para evitar que la tecnología profundice la desigualdad, amplifique prejuicios y cause daños en el mundo real.

¿Cuáles son algunos de los peligros identificados por Türk en relación con la IA?

Türk identifica la inequidad, los sesgos inconscientes y la discriminación como algunos de los peligros más acuciantes relacionados con el desarrollo y uso de la inteligencia artificial.

¿Cómo afecta la desinformación a las sociedades según Türk?

La desinformación crea sociedades divididas y polarizadas, donde las personas viven en burbujas informativas. También ha contribuido al aumento de la misoginia en las redes sociales.

¿Qué comparación hace Türk sobre la regulación de la IA y otras industrias?

Türk compara la necesidad de regulación de la IA con la industria farmacéutica, sugiriendo que se deben exigir evaluaciones de impacto sobre derechos humanos durante el diseño, lanzamiento y comercialización de herramientas de IA.

¿Cómo imagina Türk una IA responsable en cinco años?

Türk visualiza un futuro donde el desarrollo inclusivo permita que el poder no esté concentrado en unas pocas empresas del Norte global, sino que refleje la riqueza y diversidad de todas las sociedades.

TEMAS RELACIONADOS: