ChatGPT sabe de medicina, pero es malo para recetar

18 de Diciembre de 2024

ChatGPT sabe de medicina, pero es malo para recetar

2-Promo-Medicos-chatGPT

Un estudio encuentra que 
chatbot es notablemente precisa 
en la toma de decisiones médicas; otro encuentra que puede dar 
recomendaciones peligrosas

Hace apenas dos días, una investigación reveló que el modelo de lenguaje con inteligencia artificial ChatGPT tenía una alta precisión en la toma de decisiones clínicas; sin embargo, hoy, otra investigación, hecha en el mismo complejo sanitario, encontró que tiene muchas limitaciones para hacer recomendaciones a los pacientes y que puede resultar peligroso.

El primer estudio de los realizados en el sistema de atención médica Mass General Brigham, en la ciudad de Boston, encontró que ChatGPT tenía aproximadamente un 72% de precisión en la toma de decisiones clínicas, desde la elaboración de posibles diagnósticos hasta las decisiones de gestión de la atención y también en la atención primaria y la de emergencia en las distintas especialidades médicas.

Según Marc Succi, uno de los autores principales del estudio que se publicó en el Journal of Medical Internet Research, este desempeño está más o menos al mismo nivel “de alguien que acaba de graduarse de la facultad de medicina, como un interno o un residente”.

Por su parte, el segundo estudio, hecho por un equipo de investigación del Brigham and Women’s Hospital (institución fundadora del Mass General Brigham), analizó la consistencia con la que ChatGPT 3.5 proporciona recomendaciones para el tratamiento del cáncer y su alineación con las pautas de la Red Nacional Integral del Cáncer.

PUEDES LEER: Malas noticias para ChatGPT

Los hallazgos de este segundo equipo, publicados en el Journal of de American Medical Association, muestran que en aproximadamente un tercio de los casos, la IA proporcionó una recomendación inapropiada o “no concordante”. Esta mezcla de respuestas correctas e incorrectas hace que los errores sean más difíciles de detectar.

Danielle Bitterman, coautora de la investigación, dice en un comunicado que en las decisiones clínicas existen muchas sutilezas para la situación única de cada paciente. “Una respuesta correcta puede tener muchos matices y no necesariamente es algo que ChatGPT u otro modelo de lenguaje grande pueda proporcionar”, agrega.

Para las personas que buscan recomendaciones médicas en línea, la conclusión de ambos estudios es que las IA pueden ser una ayuda y una guía, pero de ninguna manera sustituyen al personal médico.

SIGUE LEYENDO |

Google anuncia lanzamiento de Bard, competidor de ChatGPT