ONU pide ‘pausa’ a inteligencia artificial que amenaza los DDHH
Advierten que las tecnologías de inteligencia artificial también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos
La
ONU
pidió este miércoles imponer una
moratoria
a la venta y el uso de algunos
sistemas
de
inteligencia
artificial
(IA), como el reconocimiento facial, hasta que se activen garantías para proteger los
derechos humanos.
“La
inteligencia
artificial
puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los
derechos humanos”, declaró la Alta Comisionada de la
ONU
para los Derechos Humanos, Michelle Bachelet, en un comunicado.
Bachelet llamó a evaluar los riesgos que presentan para la vida privada o la libertad de expresión los diferentes
sistemas
que se apoyan en la
inteligencia
artificial.
“Dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”, pidió entretanto.
Bachelet citó como ejemplo las tecnologías que permiten tomar decisiones automáticas o aquellas que establecen perfiles.
“Perjudicar a las personas”
Los
sistemas
de IA se usan “para decidir quién recibe servicios públicos, quién tiene oportunidad de obtener un empleo y, por supuesto, afectan a la información que la gente ve y que puede compartir en Internet”, señaló la Alta Comisionada.
Este informe, que había sido pedido por el Consejo de
Derechos Humanos
-la instancia más alta de la
ONU
en ese área-, analizó las formas en las que esas tecnologías han sido a menudo aplicadas sin que se haya evaluado de manera correcta su funcionamiento o impacto.
La
inteligencia
artificial ha hecho que muchas personas hayan sido injustamente tratadas, “ya sea porque se les ha denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque han sido arrestadas como consecuencia de errores en los
sistemas
de reconocimiento facial”, dice el comunicado.
“El riesgo de discriminación inherente a las decisiones basadas en la IA -decisiones capaces de cambiar, definir o perjudicar a las personas- es muy real”, añadió Bachelet.
El informe describe detalladamente cómo los
sistemas
de IA se basan en grandes bases de datos con información personal “compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos”.
“Los datos que alimentan y orientan a los
sistemas
de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes. El almacenamiento de datos a largo plazo entraña también riesgos particulares”, advierte.
Uso frecuente
El informe destaca en particular el uso cada vez más frecuente de los
sistemas
basados en la IA por parte de las fuerzas del orden.
El reconocimiento facial se usa para identificar a determinadas personas a distancia y en tiempo real, lo que puede permitir un seguimiento ilimitado de los individuos, señala.
“No podemos seguir reaccionando tardíamente a los efectos de la IA, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos”, insistió Bachelet, reconociendo que “la capacidad de la IA para servir a la población es innegable”.
“Pero también lo es su capacidad de contribuir a violaciones de
derechos humanos
en gran escala, de manera casi indetectable. Es necesario adoptar urgentemente medidas para imponer límites basados en los
derechos humanos
a la utilización de la IA por el bien de todos”, concluyó.