Un nuevo estudio publicado en la revista Medicina de la naturaleza plantea preocupaciones sobre la seguridad del servicio de salud ChatGPT Health de Open AI, que en muchos casos no recomienda atención de emergencia cuando ‘ realmente es necesaria, según el guardián.
Los investigadores probaron ChatGPT Health con 60 escenarios realistas de pacientes, que iban desde molestias leves hasta afecciones médicas agudas. Tres médicos evaluaron de antemano el nivel de atención requerido y luego los resultados se compararon con las recomendaciones de la herramienta de inteligencia artificial. En más de la mitad de los casos en los que un paciente debería haber sido enviado al hospital inmediatamente, el sistema les recomendó quedarse en casa o concertar una cita médica regular.
Según el estudio, el servicio funcionó mejor en situaciones de emergencia claras, como accidentes cerebrovasculares o reacciones alérgicas graves, pero tuvo problemas para manejar síntomas más complejos o ambiguos. Los investigadores también señalan deficiencias en la forma en que el sistema manejaba el riesgo de suicidio, donde las funciones de advertencia a veces desaparecían dependiendo de qué información adicional se agregaba al escenario.


