ChatGPT funciona bien como 'socio' en el diagnóstico de pacientes
AGENCIAS / EL TIEMPOLos cerebros de los médicos son excelentes para tomar decisiones, pero incluso los médicos más inteligentes podrían beneficiarse de un poco de ayuda diagnóstica de ChatGPT, sugiere un estudio reciente.
El principal beneficio proviene de un proceso de pensamiento conocido como "razonamiento probabilístico": conocer las probabilidades de que algo suceda (o no).
"Los humanos tienen dificultades con el razonamiento probabilístico, la práctica de tomar decisiones basadas en el cálculo de probabilidades", explicó el autor principal del estudio, el Dr. Adam Rodman, del Centro Médico Beth Israel Deaconess, en Boston.
"El razonamiento probabilístico es uno de varios componentes de hacer un diagnóstico, que es un proceso increíblemente complejo que usa una variedad de estrategias cognitivas distintas", explicó en un comunicado de prensa de Beth Israel. "Elegimos evaluar el razonamiento probabilístico de forma aislada, porque es un área bien conocida en la que los humanos podrían usar apoyo".
El equipo de Beth Israel utilizó datos de una encuesta publicada anteriormente de 550 profesionales de la salud. A todos se les había pedido que realizaran un razonamiento probabilístico para diagnosticar cinco casos médicos distintos.
Sin embargo, en el nuevo estudio, el equipo de Rodman dio los mismos cinco casos al algoritmo de IA de ChatGPT, el Gran Modelo de Lenguaje (LLM, por sus siglas en inglés), ChatGPT-4.
Los casos incluían información de pruebas médicas comunes, como una gammagrafía de tórax para neumonía, una mamografía para el cáncer de mama, una prueba de esfuerzo para la enfermedad de las arterias coronarias y un cultivo de orina para la infección del tracto urinario.
Con base en esa información, el chatbot utilizó su propio razonamiento probabilístico para reevaluar la probabilidad de varios diagnósticos de pacientes.
De los cinco casos, el chatbot fue más preciso que el médico humano en dos; igualmente preciso para otros dos; y menos preciso para uno. Los investigadores consideraron esto un "empate" al comparar a los humanos con el chatbot para diagnósticos médicos.
Pero el chatbot ChatGPT-4 sobresalió cuando las pruebas de un paciente dieron negativo (en lugar de positivo), volviéndose más preciso en el diagnóstico que los médicos en los cinco casos.
"Los humanos a veces sienten que el riesgo es más alto de lo que es después de un resultado negativo de la prueba, lo que puede conducir a un tratamiento excesivo, más pruebas y demasiados medicamentos", apuntó Rodman. Es médico de medicina interna e investigador en el departamento de medicina de Beth Israel.
El estudio aparece en la edición del 11 de diciembre de la revista JAMA Network Open.
Es posible entonces que algún día los médicos trabajen en conjunto con la IA para ser aún más precisos en el diagnóstico de los pacientes, dijeron los investigadores.
Rodman calificó esa perspectiva de "emocionante".
"Incluso si son imperfectos, la facilidad de uso [de los chatbots] y su capacidad para integrarse en los flujos de trabajo clínicos podrían, en teoría, hacer que los humanos tomen mejores decisiones", dijo. "La investigación futura sobre la inteligencia humana y artificial colectiva es muy necesaria".
Únete al canal de difusión de WhatsApp de El Tiempo MX y recibe las noticias más importantes de Monclova, Coahuila y México directamente en tu celular. ¡Haz clic y súmate ahora!
Noticias del tema