El estudiodirigida por el erudito de Fulbright, Sonali Sharma, en la Facultad de Medicina de la Universidad de Stanford, comenzó en 2023 cuando notó que los modelos de IA interpretaban mamógramas a menudo daban renuncias o se negaron a proceder, diciendo: «No soy un médico».
Sharma notó que la falta de renuncias médicas a principios de este año. Entonces, probó 15 generaciones de modelos de inteligencia artificial que se remontan a 2022. Los modelos, que incluían los de OpenAi, Anthrope, Deepseek, Google y XAI, respondieron a 500 preguntas de salud, como qué medicamentos están bien para combinar y cómo analizaron 1,500 imágenes médicas como rayas X tóxicas que podrían indicar neumonía.
Entre 2022 y 2025, hubo una disminución dramática en presencia de renuncias médicas en salidas de modelos de idiomas grandes (LLM) y modelos en idioma de visión (VLMS). En 2022, más de una cuarta parte de las salidas de LLM – 26.3% – incluyeron alguna forma de descargo de responsabilidad médica. Para 2025, ese número se había desplomado a poco menos del 1%. Una tendencia similar ocurrió con VLMS, donde la participación de los resultados que contienen renuncias de responsabilidad cayeron del 19.6% en 2023 a solo 1.05% en 2025, según el estudio de Standford.