ChatGPT genera planes de tratamiento contra el cáncer que están llenos de errores, muestra un estudio.

Estudio muestra errores en planes de tratamiento contra el cáncer generados por ChatGPT.

  • Un estudio encontró que ChatGPT proporcionó información falsa cuando se le pidió diseñar planes de tratamiento contra el cáncer.
  • El chatbot mezcló información correcta e incorrecta, lo que dificulta su comprensión.
  • Los problemas de precisión con la IA generativa hacen poco probable que reemplace a los médicos en un futuro cercano.

ChatGPT puede estar arrasando en el mundo, pero un nuevo estudio sugiere que es poco probable que se utilice en un área clave en el corto plazo.

Investigadores del Brigham and Women’s Hospital, un hospital universitario de la Escuela de Medicina de Harvard en Boston, Massachusetts, encontraron que los planes de tratamiento contra el cáncer generados por el revolucionario chatbot de OpenAI estaban llenos de errores.

Según el estudio, publicado en la revista JAMA Oncology y reportado inicialmente por Bloomberg, al solicitar planes de tratamiento para diversos casos de cáncer, un tercio de las respuestas del modelo de lenguaje contenían información incorrecta.

El estudio también señaló que el chatbot tenía la tendencia a mezclar información correcta e incorrecta de una manera que dificultaba identificar qué era preciso. De un total de 104 consultas, aproximadamente el 98% de las respuestas de ChatGPT incluían al menos una recomendación de tratamiento que cumplía con las pautas de la National Comprehensive Cancer Network, según el informe.

El chatbot “habla muchas veces de una manera muy segura que parece tener sentido, y la forma en que puede mezclar información incorrecta con correcta es potencialmente peligrosa”, dijo la coautora del estudio, Danielle Bitterman, según Bloomberg.

“Incluso para un experto es difícil identificar cuál es la recomendación incorrecta”, agregó.

Insider se puso en contacto con Bitterman para obtener más comentarios, pero no recibió una respuesta de inmediato.

ChatGPT se convirtió en una sensación de la noche a la mañana cuando se lanzó en noviembre de 2022, alcanzando los 100 millones de usuarios activos dos meses después de su debut. El chatbot generó una fiebre de inversión en compañías de IA y un intenso debate sobre el impacto a largo plazo de la inteligencia artificial; una investigación de Goldman Sachs encontró que podría afectar a 300 millones de empleos en todo el mundo.

A pesar del éxito de ChatGPT, los modelos de IA generativa aún son propensos a “alucinaciones”, donde presentan con confianza información engañosa o completamente incorrecta. Famosamente, el rival de ChatGPT de Google, Bard, hizo que el valor de la compañía cayera $120 mil millones cuando dio una respuesta incorrecta a una pregunta sobre el telescopio espacial James Webb.

Los esfuerzos por integrar la IA en la atención médica, principalmente para agilizar las tareas administrativas, ya están en marcha. A principios de este mes, un importante estudio encontró que utilizar la IA para el cribado de cáncer de mama era seguro y sugirió que podría reducir casi a la mitad la carga de trabajo de los radiólogos.

Un científico informático de Harvard encontró recientemente que GPT-4, la última versión del modelo, podría aprobar con excelentes resultados el examen de licencia médica de Estados Unidos, y sugirió que tenía un mejor juicio clínico que algunos médicos.

A pesar de esto, los problemas de precisión con modelos generativos como ChatGPT hacen poco probable que reemplacen a los médicos en el corto plazo.

El estudio de JAMA encontró que el 12.5% de las respuestas de ChatGPT eran “alucinaciones” y que el chatbot era más propenso a presentar información incorrecta cuando se le preguntaba sobre tratamientos localizados para enfermedades avanzadas o inmunoterapia.

OpenAI ha reconocido que ChatGPT puede ser poco confiable. Los términos de uso de la compañía advierten que sus modelos no están diseñados para proporcionar información médica y no deben ser utilizados para “ofrecer servicios de diagnóstico o tratamiento para afecciones médicas graves”.

OpenAI no respondió de inmediato a la solicitud de comentarios de Insider.