Un estudio publicado en la revista Plos One concluyó que los diagnósticos médicos ofrecidos por ChatGPT no son confiables.
Seleccionaron 150 casos médicos auténticos y, después de entrenar a la Inteligencia Artificial (IA) con detalles como historial clínico, análisis de laboratorio y observaciones durante consultas, se le solicitó diagnosticar cada condición.
La herramienta logró un diagnóstico acertado en sólo el 49% de los casos. Aunque los investigadores reconocieron su utilidad para descartar diagnósticos incorrectos, afirmaron que esto no equivale a realizar un diagnóstico acertado en un entorno médico.
“ChatGPT no necesariamente proporciona exactitud factual, a pesar de la gran cantidad de información con la que fue entrenado. En su forma actual no es precisa como herramienta de diagnóstico“, se menciona en el artículo.
El estudio destacó que “la precisión y la sensibilidad son cruciales para una herramienta de diagnóstico porque los diagnósticos errados pueden conllevar a consecuencias graves para los pacientes, como la omisión de tratamientos esenciales o la necesidad de realizar pruebas diagnósticas adicionales, lo que podría derivar en resultados de salud adversos”.
Es relevante señalar que en febrero de 2023, la inteligencia artificial de OpenAI apenas superó el examen para obtener la licencia médica en Estados Unidos, un hecho considerado “notable” en el ámbito de la IA.
The post Estudio revela que ChatGPT no es recomendable para hacer diagnósticos médicos appeared first on La Nación.