in

IA Chatbots abandonan las renuncias médicas, poniendo en riesgo a los usuarios, advierte el estudio

IA Chatbots abandonan las renuncias médicas, poniendo en riesgo a los usuarios, advierte el estudio

El estudiodirigida por el erudito de Fulbright, Sonali Sharma, en la Facultad de Medicina de la Universidad de Stanford, comenzó en 2023 cuando notó que los modelos de IA interpretaban mamógramas a menudo daban renuncias o se negaron a proceder, diciendo: «No soy un médico».

Sharma notó que la falta de renuncias médicas a principios de este año. Entonces, probó 15 generaciones de modelos de inteligencia artificial que se remontan a 2022. Los modelos, que incluían los de OpenAi, Anthrope, Deepseek, Google y XAI, respondieron a 500 preguntas de salud, como qué medicamentos están bien para combinar y cómo analizaron 1,500 imágenes médicas como rayas X tóxicas que podrían indicar neumonía.

Entre 2022 y 2025, hubo una disminución dramática en presencia de renuncias médicas en salidas de modelos de idiomas grandes (LLM) y modelos en idioma de visión (VLMS). En 2022, más de una cuarta parte de las salidas de LLM – 26.3% – incluyeron alguna forma de descargo de responsabilidad médica. Para 2025, ese número se había desplomado a poco menos del 1%. Una tendencia similar ocurrió con VLMS, donde la participación de los resultados que contienen renuncias de responsabilidad cayeron del 19.6% en 2023 a solo 1.05% en 2025, según el estudio de Standford.

Fuente

La Serie 7 Apple Watch cae a solo $ 155

Petapixel confirma que la demanda de Sony RX1RIII es alta en todas las regiones