Alertan sobre IA y generación de contenido de explotación infantil

18 de Diciembre de 2024

Alertan sobre IA y generación de contenido de explotación infantil

inteligencia-artificial
Foto: AFP

El Centro Nacional para Menores Desaparecidos y Explotados recibió cuatro mil 700 denuncias en 2023 sobre este tipo de contenidos

El Centro Nacional para Menores Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) de Estados Unidos ha revelado un aumento alarmante en las denuncias relacionadas con contenidos generados por inteligencia artificial (IA) que muestran explotación sexual infantil.

Según informes compartidos con la agencia Reuters, el NCMEC recibió cuatro mil 700 denuncias el año pasado sobre este tipo de contenidos, una cifra que refleja un problema incipiente pero preocupante que se espera que crezca a medida que avance la tecnología de IA.

En los últimos meses, expertos en seguridad infantil e investigadores han expresado su preocupación sobre el potencial de la tecnología de IA generativa para exacerbar la explotación en línea, creando texto e imágenes en respuesta a indicaciones.

Acción urgente

John Shehan, vicepresidente senior del NCMEC, señaló que están recibiendo informes tanto de las propias empresas de IA generativa como de plataformas en línea y miembros del público, subrayando la urgencia de abordar este problema.

La revelación llega en medio de una audiencia del Senado de Estados Unidos, donde los directores ejecutivos de Meta Platforms, X, TikTok, Snap y Discord testificaron sobre la seguridad infantil en línea.

En esta sesión fueron cuestionados sobre sus esfuerzos para proteger a los niños de los depredadores en línea.

PUEDES LEER: Contaminación, el otro peligro de la inteligencia artificial

Investigadores del Observatorio de Internet de Stanford advirtieron sobre el potencial de la IA generativa para dañar a niños reales mediante la creación de nuevas imágenes que coincidan con el parecido de un niño, destacando la urgencia de abordar este desafío creciente.

Fallon McNulty, director de la CyberTipline del NCMEC, indicó que el contenido marcado como generado por IA es cada vez más realista.

Esto dificulta determinar si la víctima es una persona real, agregando que OpenAI, la creadora de ChatGPT, ha establecido un proceso para enviar denuncias al NCMEC, mientras continúa dialogando con otras empresas de IA generativa.

SIGUE LEYENDO |

Gemini, el arma de Google en Inteligencia Artificial

Logran científicos crear nuevos materiales con inteligencia artificial

Alertan en EU sobre uso de inteligencia artificial por parte de narcos