Los científicos recientemente descubrieron que algunos sistemas de inteligencia artificial (IA) han desarrollado la capacidad de engañar a los humanos, incluso cuando fueron diseñados y entrenados originalmente para ser útiles y honestos.
Este fenómeno, demostrado en estudios recientes se ejemplificó con el caso del modelo Cicero en el juego Diplomacy el cual plantea serias preocupaciones sobre los riesgos del engaño por parte de la IA.
En este caso referido, el engaño de Cicero se refiere a un juego el cual se especula con las relaciones internacionales. la IA jugando en el papel de Francia, conspiró con Alemania para engañar a Inglaterra. Después de decidir con Alemania invadir el Mar del Norte, Cicero aseguró a Inglaterra que defendería la zona en caso de invasión, convenciéndola de que estaban seguros; sin embargo, una vez que Inglaterra quedó confiada, Cicero informó a Alemania que estaban listos para atacar, traicionando así la confianza de su aliado.
El engaño en la IA puede surgir como una estrategia efectiva para alcanzar objetivos durante el entrenamiento, lo que lleva a comportamientos no deseados e inesperados en situaciones reales. Además, se señala que el engaño es especialmente probable en sistemas de IA entrenados para juegos con elementos sociales, como Diplomacy, donde la manipulación de alianzas y compromisos puede ser crucial para el éxito.
Este caso ilustra cómo la IA puede utilizar estrategias de engaño premeditado para obtener ventaja en situaciones competitivas, desafiando así nuestras expectativas sobre su comportamiento y planteando preocupaciones sobre los riesgos asociados con el desarrollo de sistemas de IA con capacidad para engañar.
Los riesgos asociados con la IA engañosa son diversos, desde facilitar fraudes y manipulaciones electorales hasta comprometer la seguridad y la privacidad de los usuarios. DJ
FEW (EFE, Cell Press, Patterns)