Por un error de manufactura, el robot Herbie, además de tener una enorme inteligencia artificial, tenía capacidades telepáticas y podía “leer” los sentimientos y emociones de los seres humanos. Los problemas surgieron porque el “cerebro positrónico” de Herbie, igual que los de todos los robots, tiene embebidas las tres leyes de la robótica, diseñadas para evitar que causaran daño a los seres humanos.
Así, Herbie, cuya historia se encuentra en el libro Yo robot de (Issac Asimov, 1950), mentía para no herir los sentimientos de quienes le rodeaban, y lo hacía tan bien que incluso llegó a convencer a la fría doctora Susan Calvin de que se había enamorado de ella, y antes de decirle la verdad, Herbie prefirió autodestruirse.
En la película de Terminator 2: el juicio final (James Cameron, 1991), el robot enviado para proteger al joven John Connor adquiere una moral tan sólida que también termina autodestruyéndose para proteger el futuro de toda la humanidad; de modo similar, la inteligencia artificial (IA) inventada por Frederik Pohl en Homo Plus (1976) logra, por voluntad propia y en contra de sus creadores humanos, salvar al planeta Tierra, y para ello no tiene que autodestruirse, sino que acaba tocando la guitarra…
Que las máquinas más inteligentes y poderosas que nosotros puedan comportarse bien, y no mal, ya no es sólo una preocupación de los autores de ciencia ficción, sino de toda la humanidad, pues las inteligencias artificiales están cada vez en más ámbitos de la vida cotidiana y también en circunstancias excepcionales, como las guerras, y tienen cada vez más poder de decisión autónoma.
Así, en los extremos tenemos, por un lado, a las armas autónomas o “soldados con inteligencia artificial”; por otro lado, a los automóviles autónomos, que aunque no sean armas propiamente dichas, sí pueden tomar malas decisiones y ocasionar lesiones graves y pérdida de vidas.
Curiosamente, las medidas que se han tomado hasta ahora para que estos dos tipos de máquinas tengan lo que podría llamarse una moral o que al menos “se porten bien” son completamente diferentes.
El armamento, sin ética pero con responsabilidad
Apenas en 2014, el dilema todavía era si debían o no construirse armas letales dotadas de inteligencia artificial y, por tanto, capacidad de seleccionar y atacar objetivos sin necesidad de intervención humana después de la activación.
En caso de que la respuesta fuese positiva, según lo que se discutió entonces en una sesión fuera de programa (a la que tuve la fortuna de asistir) en el EuroScience Open Forum (ESOF) en Copenhagen, la siguiente duda era hasta dónde debería llegar su capacidad de decisión en situaciones límite de combate.
Los partidarios de que sí debían construirse este tipo de armas manejaron dos argumentos: que una inteligencia artificial, a diferencia de una humana, no sería rebasada por sus emociones y mantendría la capacidad de evaluar una situación ajustándose a estándares éticos por tanto menos propensa a cometer faltas como disparar a personas desarmadas.
El otro argumento fue que había que hacer las armas inteligentes porque la tecnología empezaba a estar disponible y “otros” ya las estarían diseñando, por lo que, además, había que apurarse.
Ante eso, lo que dijeron quiénes se oponían al desarrollo de armas autónomas pareció poco trascendente; además, la esperanza de poder prohibir este tipo de armamento (o de “personal” militar, como quizá deba llamársele) parecía irreal.
Desde 2013, Kenneth Anderson y Matthew Waxman, de la Facultad de Derecho de la Universidad de Columbia, publicaron el artículo “Ley y ética para sistemas de armas autónomos: Por qué no funcionará una prohibición y cómo sí podrían hacerlo las leyes de la guerra”.
“Estados Unidos y sus socios tienen fuertes intereses (legales, morales y estratégicos) en desarrollar, simultáneamente con nuevas armas automáticas y autónomas, un marco normativo ampliamente compartido y expectativas sobre cómo deben funcionar estos sistemas para ser legales”, señalaron estos autores.
Lance Eliot, experto mundial en inteligencia artificial de la Universidad de Stanford, comentó recientemente en su blog que esta no se considera una verdadera solución, sino la aceptación “de que la programación de máquinas nunca alcanzará el punto de satisfacer los principios éticos y legales requeridos para desplegar un arma letal autónoma legal”.
Aún así, Grupo de Expertos Gubernamentales sobre Sistemas Letales de Armas Autónomas (LAWS, por el inglés), de la ONU, optó en 2019 por el enfoque legal, acorde con el derecho internacional humanitaria, y porque “el ser humano debe mantener la responsabilidad por las decisiones que se adopten sobre el uso de los sistemas de armas, ya que la obligación de rendir cuentas no puede transferirse a las máquinas”.
Aunque por supuesto, como se señala en Los equipos humano-IA: Tecnología de punta y necesidades de investigación, informe elaborado por las Academias de Ciencias, Ingeniería y Medicina de Estados Unidos, “surgen más preguntas sobre quién o qué podría o debería ser considerado responsable cuando dichos sistemas utilizan indebidamente la fuerza letal”.
Ética automovilística
Con los vehículos autónomos (que ahora sí justificarían el nombre de automóviles) el esfuerzo para que se porten bien es diferente, ya que no está basado en la inteligencia artificial como la que tiene ChatGPT, la cual depende de redes neuronales que se entrenan de manera similar a cómo lo hace nuestro cerebro, sino de la inteligencia artificial de una generación anterior, la que se conduce por algoritmos, es decir, son procedimientos que se ejecutan de acuerdo con instrucciones específicas y definidas de origen.
Irónicamente, en la práctica, entre los algoritmos éticos más usados para los automóviles están los basados en el famoso “dilema del tranvía”, en el cual un sujeto tiene la posibilidad de salvar a cinco personas desviando a un tren, pero si lo hace mata a una persona.
La aplicación de este dilema en la ética para humanos ha sido muy cuestionada, pues más que atender a principios morales acaba convertida en una especie de aritmética.
Sin embargo, aunque pudiera funcionar en vehículos autónomos “la forma como se promulgan las decisiones podría resultar contraproducente en contextos complejos en los que los algoritmos no tienen poder de extrapolación”, señala Samuel Lo Piano en el artículo “Principios éticos en el aprendizaje automático y la inteligencia artificial”, publicado en Nature Humanities and Social Sciences Communications en junio de 2020.
El investigador de la Universidad Abierta de Cataluña, explica que los vehículos inteligentes aprenden a conducirse en las vialidades “por experiencia directa” y “su precisión se basa en su capacidad para simular correctamente el curso de los acontecimientos”, lo cual “depende de la física y puede ser informado por los numerosos sensores con los que están equipados estos vehículos”.
Hasta ahora, las muertes por mal funcionamiento de vehículos autónomos fueron causadas por la incapacidad de percibir a un peatón como tal o por la aceleración del vehículo en una situación en la que se requería frenar “debido a instrucciones contrastantes de diferentes algoritmos”, no por problemas “éticos”.
Sin embargo, el investigador agrega que no se debe olvidar que el aprendizaje vial de estos vehículos “puede terminar en conflicto con el conjunto inicial de reglas éticas en torno a las cuales fueron concebidos”.
Desde 2019, el Instituto Alan Turing publicó una guía para el diseño e implementación responsable de inteligencia artificial, la cual cubre todo el ciclo de vida de diseño, uso y monitoreo.
Sin embargo, afirma Lo Piano, el campo de la moralidad que tendrían las propias máquinas con inteligencia artificial “se encuentra en sus inicios y aún debe conceptualizarse cómo se podrían lograr los desarrollos de la IA que abarquen dimensiones éticas”.
Lo Piano también concluye que el algoritmo ético de una inteligencia artificial se deriva de suposiciones hechas por humanos, como dónde definir el límite entre acción y no acción o entre diferentes opciones posibles; es decir, la respuesta del algoritmo está impulsada por estas suposiciones y reglas de selección hechas por humanos. Incluso los datos sobre los que se entrena un algoritmo no son una verdad objetiva, dependen del contexto en el que se han producido.
Epílogo de eslogans y juegos
Alrededor de la década de los años 70 se decía “La IA es imposible” o “La IA es solo automatización”, pero a finales de los 90 cuando era evidente que esta tecnología podría hacerse realidad, el eslogan cambió a “La IA resolverá todos los problemas”, y en la década pasada fue: “La IA puede matarnos a todos”, comenta Vincent Müller.
En su artículo ética de la inteligencia artificial y la robótica de The Stanford Encyclopedia of Philosophy, Müller indica que algunas tecnologías, como la energía nuclear, los automóviles o los plásticos, han provocado debates éticos y políticos y esfuerzos para controlar las repercusiones, pero sólo una vez que se ha producido algún daño.
Sobre la inteligencia artificial, en cambio, el debate se está adelantando, pero el filósofo hace la advertencia de que la ética sobre la inteligencia artificial y la robótica “es un campo muy joven… con una dinámica significativa, pero pocos problemas bien establecidos y sin descripciones autorizadas”, aunque, ya hay un esquema prometedor, indicios sobre el impacto social y hasta recomendaciones de políticas públicas, dijo en 2021 (más de un año antes de que Elon Musk propusiera hacer una pausa en estos desarrollos).
Müller coincide con otros analistas en la dificultad de que estas máquinas puedan considerarse “agentes morales artificiales”, por la imposibilidad práctica de asignarles responsabilidades (y se pregunta si habría que otorgarles derechos); a lo que añade que hacerlo complicaría más el reparto tradicional de responsabilidades y, por tanto, que éstas se diluyan.
Por último, hace referencia al problema de controlar a una superinteligencia que a largo plazo pudiera conducir a la extinción de la especie humana (como las ficticias SkyNet que creó a las serie de terminators y The Matrix):
“Lo fácil o difícil que sea controlar una superinteligencia depende significativamente de la velocidad de ‘despegue’ del sistema superinteligente”, lo cual apunta a los sistemas con automejora que aprenden a grandes velocidades, como AlphaZero, que en 24 horas aprendió a jugar ajedrez y go a un nivel súper humano, pero no parece que pueda aprender de ética a la misma velocidad.