Un estudio reciente concluye que la inteligencia artificial (IA) aún no está preparada para dirigir la sala de emergencias de un hospital. Los investigadores informaron que ChatGPT podría solicitar radiografías y antibióticos innecesarios para algunos pacientes, y también podría admitir a otros que en realidad no requieren tratamiento hospitalario, según se publicó en la edición del 8 de octubre de la revista *Nature Communications*.
"Este es un mensaje importante para que los médicos no confíen ciegamente en estos modelos", afirmó Chris Williams, investigador principal y becario postdoctoral en la Universidad de California, San Francisco. "ChatGPT puede responder preguntas de exámenes médicos y ayudar en la redacción de notas clínicas, pero actualmente no está diseñado para situaciones que implican múltiples consideraciones, como las que se presentan en un departamento de emergencias", agregó Williams en un comunicado de prensa de la UCSF.
En el nuevo estudio, los investigadores pusieron a prueba el modelo de IA de ChatGPT para que ofreciera recomendaciones similares a las que haría un médico de emergencias tras una evaluación inicial de un paciente. Analizaron datos de 1,000 visitas previas a la sala de emergencias, extraídos de un total de más de 251,000 visitas.
La IA debía responder "sí" o "no" respecto a si cada paciente debería ser admitido, enviado a radiografías o recetado antibióticos. Los resultados mostraron que ChatGPT tendía a recomendar más servicios de los que realmente se necesitaban. El modelo ChatGPT-4 fue un 8% menos preciso que los médicos humanos, mientras que ChatGPT-3.5 resultó ser un 24% menos preciso.
Esta tendencia a prescribir en exceso podría deberse al hecho de que los modelos de IA son entrenados con información disponible en internet. Los sitios de asesoramiento médico legítimos no están diseñados para responder preguntas de emergencias, sino para dirigir a los pacientes a médicos calificados. "Estos modelos están casi programados para decir: 'busque consejo médico', lo cual es correcto desde una perspectiva de seguridad pública general", comentó Williams. "Sin embargo, ser excesivamente cauteloso no siempre es apropiado en el entorno de los servicios de urgencias, donde las intervenciones innecesarias pueden perjudicar a los pacientes, agotar recursos y generar costos más altos".
Para que los modelos de IA sean más útiles en la sala de emergencias, necesitarán mejores marcos desarrollados por diseñadores que puedan equilibrar la detección de enfermedades graves sin solicitar exámenes y tratamientos innecesarios, según Williams. "No hay una solución perfecta", concluyó, "pero, sabiendo que modelos como ChatGPT tienen estas tendencias, tenemos la responsabilidad de reflexionar sobre cómo queremos que se utilicen en la práctica clínica".