Protección de datos personales ante la Inteligencia Artificial

28 de Noviembre de 2024

Protección de datos personales ante la Inteligencia Artificial

Protección de datos personales

EjeCentral

EjeCentral

La Ciudad de México propone una ley pionera para regular el uso de la inteligencia artificial, resguardando los datos personales 
en instituciones públicas

Al acudir a una cita médica, solicitar un crédito bancario o comprar un celular nuevo, el uso de nuestros datos personales se ha vuelto un requisito obligatorio. Pero ¿qué tan seguro es proporcionar nuestro nombre, dirección, huellas digitales o que incluso escaneen nuestra retina?

Si a esa pregunta se le suma el impacto y la evolución que las tecnologías de la información y comunicación por Inteligencia Artificial (IA) están teniendo cada vez más en nuestra vida cotidiana, la manera en que interactuamos, trabajamos e incluso la forma de gobernar, la pregunta toma especial relevancia.

TE PUEDE INTERESAR: ¿CURP biométrico o certificado?: esta es la diferencia y todo lo que tienes que saber

En ese sentido, al rendir protesta en el Congreso capitalino, la propia jefa de Gobierno de la Ciudad de México, Clara Brugada Molina, adelantó que el uso de la tecnología y la IA sería una herramienta esencial en su administración, particularmente en el plan de modernización de la red de semáforos y el desarrollo de un modelo de “territorialización” policial.

datos personales

Iniciativa pionera

Bajo esa premisa, la capital del país podría convertirse en la primera ciudad de Iberoamérica en adoptar una ley que busca garantizar la privacidad y la protección de los datos personales de los ciudadanos, ante el uso de la IA por parte de las instituciones y organismos gubernamentales.

Se trata de una iniciativa pionera en la materia, promovida por el Instituto de Transparencia, Acceso a la Información Pública, Protección de Datos Personales y Rendición de Cuentas de la Ciudad de México (InfoCDMX). Esta iniciativa establece directrices y parámetros para el uso de sistemas de inteligencia artificial, asegurando que cualquier tratamiento de datos personales se realice bajo los principios de ética, seguridad y transparencia.

El espíritu de la iniciativa es la protección de los datos personales de las y los habitantes de esta gran capital. Tiene que ver con la autodeterminación informativa, la protección a su privacidad y, con ello, a la dignidad misma, cuando en el sector público se utilice inteligencia artificial y se traten nuestros datos personales de manera masiva o particular”, señaló Julio César Bonilla Gutiérrez, comisionado ciudadano del InfoCDMX.

En entrevista con ejecentral, el promotor de la iniciativa aprobada en el Pleno del Instituto de Transparencia el pasado 3 de octubre, aseguró que, en caso de aprobarse por el Congreso capitalino, colocaría a la capital como referente no sólo a nivel nacional sino regional. “No encontramos en el mapa iberoamericano una iniciativa similar”, afirmó.

SIGUE LEYENDO: Analítica | Destinos con seguridad garantizada

El proyecto de ley, que ya fue enviado a la Mesa Directiva y las comisiones del Congreso, adopta principios de colaboración con organismos internacionales y expertos en la materia. Entre ellos destaca la participación de la Embajada Británica en México, que aportó su experiencia en políticas de inteligencia artificial centrada en datos, así como de White Box Project Institute, una autoridad en nuevas tecnologías de IA para el sector privado.

“Es una ley transformadora, innovadora, líder y que se puede convertir, de aprobarse, en una ley modelo para toda nuestra región, orgullosamente”, subrayó Bonilla Gutiérrez.

datos personales ante la IA

Cómo impacta

La legislación plantea una serie de principios, reglas y procedimientos para cualquier autoridad, entidad, órgano u organismo de gobierno, incluyendo partidos políticos, fideicomisos, fondos públicos y órganos autónomos que hagan uso de sistemas de IA.

Ante la pregunta de cuáles serían los beneficios tangibles de esta ley para los capitalinos, el comisionado Julio César Bonilla refirió que busca concretamente “fortalecer en la vía de las nuevas tecnologías la protección de los datos personales”, con base en los pilares de la ética, la seguridad y la transparencia, en armonía con el desarrollo tecnológico.

“Lo que buscamos con esta iniciativa es generar una fortaleza adicional a la que ya existe en el marco regulatorio nacional y local en materia de protección de los datos personales para, digamos, el mundo analógico. Ahora, en materia de tecnologías avanzadas como la inteligencia artificial, cuando se use por el sector público”, subrayó.

El comisionado del InfoCDMX precisó que el enfoque regulatorio de la iniciativa está basado en riesgos y la utilización de herramientas de soft law, lo que permitirá que el desarrollo tecnológico continúe, pero con mayor supervisión en la protección de derechos digitales.

Asimismo, resaltó la importancia de la cooperación entre el sector público, privado y académico para la elaboración de la ley, lo que asegura que se trata de un proyecto sólido y con los más altos estándares internacionales. Busca ser un referente nacional, pues, aunque existe una legislación federal de protección de datos personales, ésta carece de regulación en materia de inteligencia artificial.

Espada de dos filos

A menos de una década de su creación y unos dos años de volverse novedosa, la IA se rige por modelos lingüísticos con alrededor de 188 mil millones de parámetros. Actualmente hay 30 veces más parámetros o instrucciones para su uso que habitantes en la Tierra.

Para Emilio Carrillo Peñafiel, especialista en tecnología jurídica, criptografía e IA, aunque la iniciativa es un avance “positivo” en busca de una posible regulación, se trata de una tecnología en constante evolución que no hemos terminado de entender.

“Es una espada de dos filos. Se ha vuelto un instrumento muy útil para eficientar procesos industriales, económicos, ayudarnos a utilizar mejor nuestros recursos naturales, pero se entrena con una enorme cantidad de datos, y el problema es que muchos de ellos son discriminatorios”.

En ese aspecto, Carrillo Peñafiel explicó que la toma de decisiones de los sistemas de IA se basa en datos que, dependiendo de su origen, pueden hacer que la tecnología responda bajo modelos o parámetros que no necesariamente se apeguen a la realidad y necesidades de las personas, al momento de ser utilizados por las instancias de gobierno.

TE PUEDE INTERESAR: Analítica | Diversidad en la Confianza informativa

“Las máquinas reflejan los prejuicios. Tienen un criterio objetivo siempre y cuando los datos de los cuales se alimentan y con los cuales te van a evaluar carezcan de prejuicio. Por ejemplo, si uno es gordo y la máquina decide que todos los gordos estamos enfermos, pues nos van a negar un servicio de salud o nos van a mandar directo al médico sin requerirlo”, fueron sus palabras.

Considerando el riesgo que implica el cruce de datos sensibles entre las distintas instancias de gobierno que podrían interactuar con inteligencia artificial, Emilio Carrillo destacó que, si bien la ley prevé sanciones para las entidades públicas que hagan mal uso de los datos, así como la aplicación de auditorías y valoraciones periódicas, “hay muy pocas obligaciones en cuanto a la educación o capacitación de los funcionarios que van a ser los encargados de aplicar estos sistemas. Si la persona encargada de manejar el sistema no está debidamente capacitada, estamos en un problema”.

Dichas adecuaciones en materia de “técnica legal” podrían incluirse en el reglamento que contemple la ley, donde, en caso de aprobarse, detallaría cuidadosamente la forma en que se aplicará la nueva legislación, refirió el especialista.