Desde que estalló el escándalo de Cambridge Analytica en marzo, Facebook ha intentado hacer una defensa moral de tu privacidad, distanciándose de las prácticas inescrupulosas de la consultoría política británica. Un documento confidencial de Facebook, revisado por The Intercept, muestra que las dos compañías son mucho más similares de lo que a la red social le gustaría hacer creer.
El documento describe un nuevo servicio publicitario que explica cómo la red social vende a las empresas el acceso a sus usuarios y sus vidas: ofrece la posibilidad de dirigirse a ellos en función de cómo se comportarán, qué comprarán y qué pensarán. Estas capacidades son el fruto de un motor de predicción impulsado por inteligencia artificial que se mejora a sí mismo, presentado por primera vez por Facebook en 2016 y denominado “FBLearner Flow”.
Facebook usa hechos de tu vida para predecir que en un futuro cercano te cansarás de tu coche y el nombre para este servicio es “predicción de lealtad”.
La publicidad alimentada por Inteligencia Artificial de Facebook tiene mucho en común con el polémico perfil “psicográfico” de votación de Cambridge Analytica, que usa datos demográficos mundanos del consumidor (lo que le interesa, dónde vive) para predecir la acción política.
El documento de Facebook hace un gesto similar hacia la protección del usuario, señalando que todos los datos son “agregados y anónimos (para proteger) la privacidad del usuario”, lo que significa que Facebook no vende listas de usuarios, sino que esencialmente alquila el acceso a ellos. Pero estas defensas marcan una distinción sin diferencia: independientemente de quién explote los datos sin procesar de Facebook, el resultado final, que la empresa monetiza con entusiasmo, son ideas publicitarias que están muy íntimamente relacionadas con sus usuarios, ahora empaquetadas y aumentadas por la iniciativa de machine learning de la empresa.
El documento no detalla qué información de los expedientes de usuarios de Facebook está incluida o excluida del motor de predicción, pero menciona la ubicación, información del dispositivo, detalles de la red wi fi, el uso del video, afinidades y los detalles de las amistades, incluso cuán similar es un usuario para sus amigos. Estos datos pueden incorporarse a FBLearner Flow, que usará una simulación por computadora de una faceta de la vida de un usuario y los resultados se venderán a un cliente corporativo.
La red social de Zuckerberg tiene una “obligación ética” de revelar cómo utiliza esta herramienta para monetizar sus datos, dijo Tim Hwang, director de la Iniciativa de Ética y Gobernabilidad de inteligencia artificial de Harvard-MIT, incluso si tiene un incentivo práctico para mantener la tecnología en secreto.
Facebook ha sido perseguido por controversias de datos y escándalos de privacidad de una u otra forma, en una medida casi cómica, en sus 14 años de historia.
Durante su testimonio ante el Congreso, Zuckerberg promocionó la inteligencia artificial como una herramienta para frenar el discurso de odio y el terrorismo.
La inteligencia artificial se ha convertido más o menos en una palabra de moda tecnológica como cualquier otra, pero ampliamente comprendida, incluye tecnologías como el “aprendizaje automático”, o machine learning, donde las computadoras esencialmente se enseñan a sí mismas para ser cada vez más efectivas en tareas tan diversas como reconocimiento facial y detección de fraude financiero. Presumiblemente, FBLearner Flow se enseña a sí mismo para ser más preciso todos los días.
Facebook está lejos de ser la única empresa que lucha por convertir la investigación de la inteligencia artificial en una fuente de ingresos, pero se encuentra en una posición única. Incluso Google, con su dominio de las búsquedas y el correo electrónico y presupuestos igualmente vastos, no tiene lo que Zuckerberg: una lista de dos mil millones de personas y lo que les gusta, lo que piensan y a quién conocen.
La división de inteligencia artificial de Facebook ha recurrido a varias técnicas diferentes de aprendizaje automático, entre ellas “árboles de decisión impulsados por gradiente”, o GBDT, que, según el documento, se utiliza con fines publicitarios. Un artículo de 2017 de Proceedings of Machine Learning Research describe al GBDT como “una poderosa técnica de aprendizaje automático que tiene una amplia gama de aplicaciones comerciales y académicas y produce resultados de vanguardia para muchos problemas desafiantes de minería de datos”. Esta técnica de aprendizaje automático es cada vez más popular en la industria de la minería de datos.
El gran interés de Facebook en ayudar a los clientes a extraer valor de los datos de los usuarios tal vez ayude a explicar por qué la compañía no condenó lo que Cambridge Analytica hizo con la información extraída de la red social; en cambio, la indignación de Facebook se enfocó en el engaño de Cambridge Analytica.
Con mucho crédito debido al equipo de comunicaciones de Facebook, el debate ha sido sobre el “acceso indebido” de Cambridge Analytica a los datos de Facebook, en lugar de por qué Cambridge Analytica quería que los datos de Facebook. Pero una vez que se elimina la cuestión del acceso y el origen, Cambridge Analytica comienza a parecerse al hermano menor de Facebook, uno menos ambicioso.
La capacidad de acertar en los objetivos demográficos ha provocado problemas a Facebook muchas veces en el pasado, en parte porque los sistemas de publicidad de la compañía estaban diseñados para ser asombrosamente automatizados. Los periodistas de ProPublica recientemente pudieron enviar anuncios a grupos identificados como “odiadores de judíos”. Ya sea que se trate de una campaña política que intenta asustar a un tipo muy determinado de votantes indecisos o de espías rusos que intentan hacer un desastre, la tecnología publicitaria de Facebook ha sido usada reiteradamente hasta extremos problemáticos, y sigue siendo una pregunta abierta si una entidad debería tener la capacidad de vender acceso a más de dos mil millones de pares de globos oculares en todo el mundo. Mientras tanto, Facebook parece estar acelerando, en lugar de moderar, su modelo de negocio. De una compañía que ha recibido una gran crítica por confiar en algoritmos sin rostro para impulsar su negocio, la opción de adoptar la inteligencia artificial autodidacta para ayudar en la minería de datos no suena muy reconfortante.
Que Facebook ofrezca su capacidad para predecir tus acciones, y tu lealtad, tiene una nueva gravedad a raíz de las elecciones de 2016, en las que el equipo digital de Trump usó las herramientas de Facebook para tener un efecto histórico. Facebook trabaja regularmente con campañas políticas en todo el mundo y se jacta de su capacidad para influir en la participación: una “historia de éxito” de Facebook sobre su trabajo con el Scottish National Party describe la colaboración como “desencadenante de una avalancha”.
Una sección del documento resalta el trabajo exitoso de Facebook que ayuda a un cliente a monetizar un grupo racial específico sin nombre, aunque no está claro si esto se logró con FBLearner Flow o con métodos más convencionales. Facebook eliminó la posibilidad de dirigirse a grupos étnicos a fines del año pasado después de un informe de ProPublica.
Frank Pasquale, profesor de derecho por la Universidad de Maryland, refirió a The Intercept que el trabajo de predicción del comportamiento de Facebook es “inquietante” y que le preocupa cómo la compañía podía convertir las predicciones algorítmicas en “profecías autocumplidas”, ya que “una vez que hicieron esta predicción, tienen un interés financiero por hacerlo realidad”. Es decir, una vez que Facebook le dice a un socio publicitario que hará una cosa u otra el próximo mes, la responsabilidad recae en Facebook para que ese evento se cumpla, o para demostrar que fue capaz de ayudar a prevenirlo de manera efectiva (no está claro cómo Facebook puede verificar a un profesional de marketing que efectivamente pudo cambiar el futuro).
Los incentivos creados por inteligencia artificial son lo suficientemente problemáticos cuando la tecnología se usa para una compra, pero lo son más si se usan para una votación. Rumman Chowdhury, quien lidera la iniciativa AI Responsable de Accenture, subrayó el hecho de que al igual que las sugerencias de Netflix o Amazon, las predicciones algorítmicas más ambiciosas podrían no sólo adivinar el comportamiento de un usuario de Facebook, sino también reforzarlo: “Los motores de recomendación están incentivados para mostrarte enlaces a los que darás clic, no necesariamente información valiosa”.
Una vez que Facebook le dice a un socio publicitario que hará una cosa u otra el próximo mes, la responsabilidad recae en la red social para que ese evento se cumpla.” Frank Pasquale, profesor de derecho en la Universidad de Maryland.
Facebook no respondió a preguntas reiteradas sobre exactamente qué tipo de datos de los usuario son usados para predecir el comportamiento, o si esta tecnología podría usarse en contextos más sensibles como campañas políticas o la atención médica.
En cambio, el equipo de relaciones públicas de Facebook declaró que la empresa usa “FBLearner Flow para gestionar muchos tipos diferentes de flujos de trabajo” y que “el aprendizaje automático es un tipo de flujo de trabajo que puede administrar”. Facebook negó que FBLearner Flow sea usado para aplicaciones de marketing (una “descripción errada”) y dijo que “ha dejado en claro públicamente que usamos el aprendizaje automático para la publicidad”, señalando el artículo de Wired de 2017.
También es problemática la renuencia de Facebook a revelar completamente cómo monetiza la inteligencia artificial. Albright describió esta reticencia como un síntoma del “conflicto inherente” entre Facebook y la “responsabilidad”, ya que “simplemente no pueden divulgar la mayoría de los detalles sobre estas cosas al público porque ese es literalmente su modelo de negocio”.
Pero Facebook nunca se ha mostrado ansioso por revelar nada más allá de lo exigido por SEC y la crisis de relaciones públicas. La compañía ha demostrado en repetidas ocasiones que es capaz de burlar los hechos y luego, cuando la realidad la alcanza, salir del problema con declaraciones de prensa blandas y mensajes poco entusiastas de Zuckerberg.
Y sin embargo, la cantidad de personas en todo el mundo que usan Facebook (y el efectivo de la compañía) continúa expandiéndose. Uno no esperaría el mismo tipo de inmunidad de imagen que Facebook ha disfrutado, al menos hasta el escándalo de Cambridge Analytica, de, por ejemplo, una corporación de comida rápida plagada de acusaciones de peligrosa indiferencia hacia los clientes.
Es posible que a las personas no les importe lo suficiente su propia privacidad para mantenerse enojados el tiempo suficiente como para hacer que Facebook cambie de manera significativa.
Tal vez los usuarios de Facebook simplemente dan por hecho que han hecho un pacto con el diablo del Big Data y esperan que sus vidas personales pasen por un proceso de publicidad de aprendizaje automático. Hwang señaló que “no podemos olvidarnos de la historia detrás de todo esto, que es que la publicidad como industria, desde hace décadas, se trata de la predicción del comportamiento de individuos y grupos. Este es, de alguna manera, el objetivo de la publicidad”.
Pero tampoco podemos esperar que los usuarios de Facebook o cualquier otra tecnología puedan decidir por sí mismos qué vale la pena protestar y a qué vale la pena temer cuando se les mantiene deliberadamente en estado de ignorancia casi total. Por ley, está obligado a revelar exactamente qué sirve a sus clientes y en qué cantidades. Tampoco tiene el mandato de explicar qué hace exactamente con sus datos más allá de los caprichos de las políticas de privacidad que establecen sólo lo que Facebook se reserva el derecho de hacer. Sabemos que Facebook se ha involucrado en el mismo tipo de impulso político amoral que Cambridge Analytica porque solían jactarse de ello en su sitio electrónico. Aunque los detalles de lo que se hace con los datos es una cuestión de secreto comercial para Facebook, esto podría someterse a consideración: Mark Zuckerberg afirma que su empresa tiene “la responsabilidad de proteger tus datos, y si no podemos, no merecemos servirte”.
También dirige una compañía que usa datos para entrenar modelos de predicción de inteligencia artificial que se usarán para dirigir mensajes y sacar dinero sobre lo que los usuarios harán en el futuro.
Si parece difícil cuadrar esos dos hechos, es tal vez porque es imposible.