Hace unos días, el 22 de febrero pasado, se dio a conocer el desarrollo de un dispositivo que permite a la computadora “conocer” en tiempo real la situación emocional de un usuario a partir de sus expresiones faciales y de las inflexiones de su voz.
Apenas cinco días después se publicó el desarrollo de MoodCapture, la primera aplicación para teléfonos inteligentes que procesa imágenes faciales para detectar, de manera confiable, la aparición de la depresión antes incluso de que el usuario sepa que algo anda mal.
Estos no son, ni mucho menos, esfuerzos aislados, son sólo dos de los logros más notables y recientes de lo que se conoce como “informática afectiva”, un campo de investigación y desarrollo que podría llegar a nuestra vida cotidiana en los próximos años. Podemos llamarle, al menos aquí, Inteligencia Artificial Empática (IAE).
Desde la clasificación de sentimientos
“La informática afectiva es un campo multidisciplinario de rápido crecimiento que abarca la informática, la ingeniería, la psicología, la neurociencia y otras disciplinas relacionadas”, escribieron, en la revista Intelligent Computing, Taihao Li y sus colegas del Instituto de Investigación en Inteligencia Artificial de Hangzhou, China.
Este equipo de investigación hizo una revisión y un análisis cuantitativo de 33 mil 448 artículos sobre el tema publicados entre 1997 y 2023 para identificar desafíos, detectar las principales tendencias tecnológicas y hacer un plan para aplicaciones futuras.
Según este análisis, las tendencias importantes en la informática afectiva incluyen, entre otras: el establecimiento de conjuntos de datos a gran escala, la clasificación detallada de sentimientos y lo que se conoce como “fusión multimodal”, que consiste en integrar diversas “señales sentimentales” para clasificarlas mejor.
Además, el equipo de Taihao Li considera que “la computación afectiva tiene grandes perspectivas de aplicación en campos como las interfaces cerebro-computadora, el diálogo empático entre humanos y computadoras, la toma de decisiones asistida y la realidad virtual”. Las posibles aplicaciones podrían estar en sectores como la educación, la atención sanitaria, los servicios empresariales y la integración de la ciencia y el arte”.
Como resultado de su análisis, por cierto, también señalan que “las fuerzas emergentes representadas por China e India están transformando el panorama global de la investigación en computación afectiva… al tiempo que enfatizan la necesidad de un mayor consenso con respecto al establecimiento de estándares y normas éticas”.
La IAE diagnóstica
Antes de pensar en tener pláticas profundas y emotivas con robots, conviene revisar uno de los campos más desarrollados en la IAE en el que puede implicar un progreso muy importante: el del diagnóstico.
Por ejemplo, un equipo de investigación del Instituto Metropolitano de Ciencias Médicas de Tokio y de la Universidad de esta ciudad, encuestó a tres mil 171 adolescentes y a los padres o cuidadores de dos mil 344 de ellos durante seis años. Les hicieron preguntas sobre problemas psicológicos como depresión, ansiedad, autolesiones y falta de atención, así como sus sentimientos sobre la vida familiar y escolar, entre otros factores.
“Los estudios anteriores normalmente clasificaban el desarrollo psicopatológico de los adolescentes basándose en las trayectorias de sólo dos o tres indicadores”, dice Daiki Nagaoka, estudiante de doctorado y coautor del estudio, en un comunicado. El nuevo enfoque se basó en el análisis simultáneo de trayectorias de síntomas y facilitó “una comprensión más integral”.
Así, 60.5% de los dos mil 344 adolescentes fueron clasificados como “no afectados”; pero los demás resultaron dañados de alguna manera. Destaca el grupo “discrepante”, conformado por 9.9% de los adolescentes que experimentaron síntomas depresivos y “experiencias de tipo psicótico”, pero sus cuidadores no se habían dado cuenta.
Calculan cinco años a la IAE personalizada
Por su parte, la aplicación MoodCapture utilizó la cámara del teléfono para capturar unas 125 mil imágenes del entorno y de las expresiones faciales de 177 personas con trastorno depresivo mayor que participaron en un estudio durante 90 días de uso regular del dispositivo.
Según el reporte de la investigación, publicado de manera preliminar en el sitio arXiv, esta Inteligencia Artificial fue entrenada previamente con otros pacientes para analizar rasgos específicos de las expresiones faciales (movimiento de los ojos, la posición de la cabeza y la rigidez muscular), y características ambientales (colores dominantes, iluminación, cantidad de personas en la imagen).
El resultado fue que la aplicación desarrollada en el Dartmouth College diagnosticó correctamente síntomas de depresión al 75% de los 177 participantes.
“La gente usa software de reconocimiento facial para desbloquear sus teléfonos cientos de veces al día… Una persona simplemente desbloquea su teléfono y MoodCapture conoce la dinámica de su depresión y puede sugerirle que busque ayuda”, dice en un comunicado Andrew Campbell, autor correspondiente del reporte.
Epílogo de corta espera
Los desarrolladores de MoodCapture confían en que su tecnología esté disponible para el público en unos cinco años. Pero según Taihao Li y sus colegas, “la computación afectiva se está aplicando a discursos políticos, música, teatro y artes visuales para predecir reacciones emocionales y mejorar la expresión emocional”.
Para las interfaces afectivas cerebro-computadora, que utilizan señales neurológicas, habrá que esperar un poco más, pero se espera que mejorarán el diagnóstico clínico, la terapia y también tendrán aplicaciones militares.