En enero de 2014, el psicólogo Aleksander Kogan, quien apenas llevaba dos años como investigador en el famoso Centro de Psicometría de la Universidad de Cambridge, entró en contacto con una entidad llamada SCL Elections.
La investigación de Kogan se basaba en los datos, recopilados sin consentimiento, de decenas de millones de usuarios estadounidenses de Facebook a los que aplicaban un test de personalidad, desarrollado en 2013 por él mismo.
Al usar inteligencia artificial (IA) combinaron los resultados del test con otros datos hasta que llegaron a tener cerca de cinco mil datos puntuales de cada usuario, lo que les permitió averiguar sus rasgos de personalidad, emociones, preferencias políticas y propensiones conductuales y generar sus “perfiles psicográficos”.
SCL Electronics estaba relacionada con la empresa Cambridge Analytica, la cual usó el trabajo de Kogan para crear los perfiles psicográficos de unos 230 millones de estadounidenses y reutilizó Facebook para promover la candidatura de Trump y otros candidatos del Partido Republicano de Estados Unidos.
La información sirvió para dirigir hasta 50 mil variantes de anuncios cada día a audiencias específicas antes de las elecciones de 2016. Eventualmente, Alexander Nix, el CEO de Cambridge Analytica, se jactó de que “había puesto a Trump en la Casa Blanca”, se señala en el artículo “Artificial Intelligence: Risks to Privacy and Democracy” de Karl Manheim y Lyric Kaplan publicado en The Yale Journal of Law & Technology.
Para Manheim y Kaplan, Cambridge Analytica sigue siendo el principal ejemplo del mal uso de la inteligencia artificial (IA), aunque desde luego no es el único. En vista de lo que se ha publicado sobre el tema en revistas científicas en los últimos dos meses eso no fue sino una probadita de lo que puede hacer esta tecnología que algunos ya consideran la más revolucionaria y disruptora que se haya creado.
Se considera que la IA puede conllevar enormes riesgos para las sociedades de todo el mundo, los cuales se verían multiplicados si acaso se llega a crear lo que se llama inteligencia artificial general (IAG); es decir, una que no sea sólo más poderosa que la inteligencia humana en ciertas áreas bien delimitadas sino que es más inteligente “en general” y tiene autonomía, es decir, puede actuar sin dirección humana.
La mala noticia es que hay indicios de que la IAG ya casi está entre nosotros y no se detendrá por la pausa que propusieron el 29 de marzo Elon Musk, Steve Wozniak y otros líderes de la IA para generar acuerdos sobre las normas que deberán regir estas tecnologías en el terreno social.
La algocracia o autoritarismo digital
Manheim y Kaplan explican que la inteligencia artificial desafía de diversas formas los principios básicos de las democracias modernas, como los derechos civiles, el debido proceso, la igualdad, las libertades económicas, el estado de derecho y el discurso político.
“Lo primero y más importante es el uso de la ‘IA armada’ para interrumpir y corromper las elecciones democráticas”, explican. “Si el objetivo es socavar la participación democrática, la IA es una herramienta indispensable”, agregan.
Esto se puede hacer a través de medios físicos, como ataques cibernéticos, pero también por medios psicológicos como los de Kogan, refinando la mercadotécnica desarrollada por décadas para conducir a consumidores, y “envenenar la fe de las personas en el proceso electoral”.
Quienes llevan a cabo ciberataques fueron los primeros en adoptar la IA, que les permite utilizar el aprendizaje automático para analizar grandes cantidades de datos robados. De hecho, la consultora Price Waterhouse Coopers aseguró desde 2018 que este es “un trabajo en que la IA ya ha demostrado superioridad sobre los seres humanos”.
También se puede utilizar la IA para debilitar la libertad de prensa y las instituciones democráticas. Esto se debe a que estructuralmente la IA se resiste a tres de las características principales de la democracia: “transparencia, rendición de cuentas y equidad”.
Como los ataques cibernéticos y la psicología de masas se pueden implementar para promover objetivos políticos, ideológicos y otros objetivos estratégicos se ha descrito el panorama emergente de la IA como “autoritarismo digital” o “algocracia” (regida por algoritmos).
En contraste, las armas autónomas
Con más previsión, desde 2013, cuando la inteligencia artificial estaba despuntando, la ONU se empezó a ocupar del tema de los que se podrían llamar soldados con inteligencia artificial, o por su nombre oficial de Sistemas Letales de Armas Autónomas (LAWS, por el inglés), primero con reuniones informales de expertos cada año hasta que en 2016 se decidió pasar a la formalidad y establecer un Grupo de Expertos Gubernamentales sobre los LAWS, en el que participó México.
Para 2019, se adoptaron 11 principios rectores en el uso de estas tecnologías, que parten de la base de que, por muy acertadas y éticas que puedan ser las decisiones que adopte una IA, y aun si son mejores que las humanas, la máquina no puede hacerse responsable ni “rendir cuentas”.
Así, el primer principio que indica que “(el) derecho internacional humanitario sigue aplicándose plenamente a todos los sistemas de armas, incluido el posible desarrollo y uso de sistemas de armas autónomos letales”, y el segundo establece que “el ser humano debe mantener la responsabilidad por las decisiones que se adopten sobre el uso de los sistemas de armas”.
Según el libro Los equipos humano-IA: Tecnología de punta y necesidades de investigación, elaborado por las Academias de Ciencias, Ingeniería y Medicina de Estados Unidos y dedicado por completo a los LAWS, la inteligencia artificial es un evidente “multiplicador de poder para las fuerzas armadas”, por lo que deben los sistemas estar diseñados para ayudar a los combatientes en “la ejecución exitosa de la misión”.
En 30 años de investigación, señala el reporte, han demostrado que lo ideal es considerar al sistema de IA “como parte de un equipo, en lugar de simplemente una herramienta capaz de acciones limitadas”, lo que requiere también mucha capacitación de la parte humana de esos equipos.
Pero señalan Manheim y Kaplan, en el mundo civil se están relegando funciones a la inteligencia artificial de manera que “permite la toma de decisiones oculta, inmune al escrutinio y control público”, lo cual va en contra de los valores democráticos.
Los sesgos algorítmicos ya empiezan a aparecer en diversas áreas, dependiendo de qué tan avanzada esté la incorporación de la IA en cada país y empresa. Los más usuales están en las determinaciones de crédito, empleo y seguros, pero también existe en vigilancia predictiva e incluso sentencias en casos penales.
“A las máquinas ya se les está otorgando el poder de tomar decisiones cotidianas que alteran la vida de las personas. Y lo hacen sin transparencia ni rendición de cuentas”, dicen los autores.
Manipulación de los secretos
La privacidad de la información promueve valores democráticos como la posibilidad de experimentar, pensar y cometer errores sin que otros interfieran; también protege libertades como la de participación política, de conciencia, económica, académica de investigación y la no discriminación.
“Perder la privacidad de la información puede erosionar esas libertades”, comentan Manheim y Kaplan, pues “cuando otros tienen acceso a nuestra información privada pueden influir o controlar nuestras acciones”.
El problema es que acceder a nuestra información confidencial es “el alma de la IA”, o la fuente de ingresos de empresas como Meta (antes Facebook), Snap-chat o Google, que no sólo utilizan información personal para beneficio privado, sino que a menudo lo hacen de forma encubierta y que no está regulada.
Después del escándalo de Cambridge Analytica mucha gente está consciente de esas manipulaciones, pero en general lo dejan pasar. Según una encuesta hecha en Estados Unidos, 78 % de los consumidores considera “extremadamente importante” que las empresas de tecnología protejan sus datos, solo 20 % “confían completamente” en que esto suceda.
Otra encuesta encontró que el 90 % de los participantes estaba muy preocupado por la privacidad en Internet, pero 60 % admitió que descargaba aplicaciones sin leer los términos de uso.
“Más preocupantes, sin embargo, son los riesgos sui generis de la IA”, como la capacidad para generar los perfiles psicográficos y la de desanonimizar datos y exponer los más personales e íntimos a anunciantes, gobiernos y extraños, escriben Manheim y Kaplan.
Un estudio de la Universidad de Melbourne, por ejemplo, pudo identificar personalmente a pacientes australianos encuestados a través de sus registros de facturación médica supuestamente anónimos. Resultados similares se pueden obtener con metadatos de tarjetas de crédito e incluso se ha podido identificar a las celebridades que ingresan a los taxis, su “lugar de recogida, lugar de entrega, monto pagado e incluso monto de propina”.
Estas capacidades, pero también su secrecía, son parte del modelo de negocios de las redes sociales y otros servicios en línea “gratuitos” o muy baratos, pues las empresas venden y comparten los datos para fines como la orientación publicitaria y, claro, manipulación de elecciones en lo que se llama “capitalismo de vigilancia”.
Desde 2014, la “erosión del anonimato” hizo que el Consejo de Asesores sobre Ciencia y Tecnología del presidente estadounidense pidiera una reevaluación total de las protecciones de la privacidad, lo cual aún no ha sucedido.
OpenAI en realidad se está cerrando
Al frente del movimiento de la inteligencia artificial está una startup de 375 empleados que en su nombre hacía una declaración de intenciones: OpenAI (por inteligencia artificial abierta), la creadora de ChatGPT y de la generadora de imágenes Dall E 2.
Pero si bien OpenAI inició en 2015 como una organización de investigación sin fines de lucro con el objetivo de alcanzar la inteligencia artificial general (IAG) y democratizarla para todos, se ha ido convirtiendo en una organización cada vez más secreta y con fines comerciales.
OpenAI, que fue fundada por entre otros por Sam Altman, Jessica Livingston, Peter Thiel y Elon Musk (que se retiró de la mesa directiva para no generar conflicto de interés con Tesla, que también busca la IAG), es la responsable de la reciente iniciativa de hacer una pausa.
De acuerdo con el analista tecnológico Till Musshoff, en 2019 se dio el punto de inflexión de OpenAI con el lanzamiento de la inteligencia artificial de procesamiento de lenguaje Generative Pretrained Transformer 2A mejor conocida como GPT-2A (predecesora de GPT-3 y de ChatGPT) del cual, a diferencia de sus productos anteriores, no se publicó el código de entrenamiento y otros datos, pues, dijeron, podía ser peligroso hacerlo.
Para Musshoff se trató de un truco de relaciones públicas para generar entusiasmo en torno a GPT 2 y allanar el camino para OpenAI LP, una nueva empresa con fines de lucro que se lanzó un mes después que GPT-2A y que tenía muchas mejores perspectivas de obtener financiamiento.
Ciertamente, en el ecosistema de las tecnológicas, una organización sin fines de lucro centrada en la investigación es insostenible, OpenAI requiere alrededor de tres millones de dólares por mes.
A finales de 2020, Microsoft obtuvo la licencia exclusiva para operar GPT-3, y ahora está claro que el modelo de apertura dejó de existir, cuando la inteligencia artificial general está a punto de empezar a hacerlo.
Hace un par de semanas investigadores de la Northeastern University y del Instituto Tecnológico de Massachusetts (MIT) demostraron que los GPT-3 y 3.5 pueden generar “un agente autónomo con memoria dinámica y autorreflexión”. El modelo Reflexión consiste, en lenguaje llano, en que la IA se pregunte a sí misma ¿qué hice mal?
Este enfoque permite al sistema “aprender de los errores del pasado y redirigir las decisiones futuras en la planificación de secuencias que elimina al entrenador humano en un enfoque de intermediario humano”, señalan los autores.
También se desarrolló un programa, impulsado por GPT-4, que genera y administra negocios de manera autónoma para aumentar un patrimonio. Auto GPT es una aplicación experimental de código abierto que puede definir objetivos “y luego realizarlos sin intervención humana alguna”.
Epílogo del peligro desconocido
Para el analista Eliezer Yudkowsky existen “razones obvias” que hacen de la AGI sea un peligro de “mucho más serio que las armas nucleares”. Algunas de ellas son que las armas nucleares no son más inteligentes que la humanidad; no se autorreplican y no se mejoran a sí mismas.
Además, “los científicos entienden cómo funcionan las armas nucleares” y pueden calcular qué tan poderosa será cada una de ellas antes de activarla, lo que no necesariamente sucede con una IAG que se corrige a sí misma; suma que políticos, científicos y la humanidad entienden que las armas nucleares son peligrosas.
“La humanidad ha abierto una caja de Pandora”, comenta Musshoff.
“No estamos preparados para este asalto a la democracia”, aseguran Manheim y Kaplan en referencia a Estados Unidos, donde hay pocas leyes federales que regulen las redes sociales y la privacidad. En países como México, la dependencia tecnológica en internet y en inteligencia artificial hace que también tengamos dependencia regulatoria, por lo que, como ha sucedido en casos como la presencia del plomo en pinturas y gasolinas, sólo se podrá proteger la privacidad de la población una vez que esto se haga en Estados Unidos.
Para esta embestida, la mayoría de los países no están preparados, especialmente para vigilar y delimitar el uso de la Inteligencia Artificial en los procesos democráticos.
Desde la construcción de mensajes y campañas simples, hasta lo más sofisticado y que permita manipular a los electores a partir de mensajes casi personalizados. Pero aún más, la intervención de países extranjeros o grupos de poder, como se ha acusado a los rusos o chinos.
En México no sólo no está regulado, para impedir ventajas indebidas entre adversarios políticos, sino que será más complejo sancionar por gastos excesivos o ataques a candidatos. O simplemente manipular toda una elección.
SIGUE LEYENDO: