in

El gobierno del Reino Unido debe demostrar que se puede confiar en su plan de IA para enfrentar riesgos graves cuando se trata de datos de salud

ai

ai

Crédito: Dominio público de Pixabay/CC0

El gobierno del Reino Unido nuevo plan Fomentar la innovación a través de la inteligencia artificial (IA) es ambicioso. Sus objetivos se basan en el mejor uso de datos públicos, incluidos los esfuerzos renovados para maximizar el valor de los datos de salud en poder del NHS. Sin embargo, esto podría implicar el uso de datos reales de pacientes que usan el NHS. Esto ha sido muy controvertido en el pasado y los intentos anteriores de usar estos datos de salud han sido a veces cercanos a desastrosos.

Los datos del paciente serían anonimizados, pero quedan preocupaciones sobre posibles amenazas para este anonimato. Por ejemplo, el uso de datos de salud ha estado acompañado de preocupaciones sobre el acceso a los datos para obtener ganancias comerciales. El Programa CARE.DATAque colapsó en 2014, tenía una idea subyacente similar: compartir datos de salud en todo el país tanto para los organismos de investigación financiados públicamente.

La mala comunicación sobre los elementos más controvertidos de este proyecto y la falla de escuchar las preocupaciones llevaron al programa que se archivó. Más recientemente, la participación de la empresa de tecnología estadounidense Palantir en la nueva plataforma de datos del NHS preguntas planteadas sobre quién puede y debe acceder a los datos.

El nuevo esfuerzo para usar datos de salud para capacitar (o mejorar) los modelos de IA depende de manera similar del apoyo público para el éxito. Sin embargo, tal vez, como era de esperar, a las pocas horas de este anuncio, los medios de comunicación y los usuarios de redes sociales atacaron el plan como una forma de monetizar los datos de salud.

«Los ministros refrescan que las empresas privadas obtienen ganancias de los datos del NHS en AI Push», uno Lecturas de titulares publicados.

Estas respuestas, y las que se preocupan. Data y Palantir, reflejan cuán importante es la confianza pública en el diseño de la política. Esto es cierto, no importa cuán complicada se vuelva la tecnología, y de manera crucial, la confianza se vuelve más importante a medida que las sociedades aumentan en la escala y somos menos capaces de ver o comprender cada parte del sistema. Puede ser difícil, si no imposible, hacer un juicio sobre dónde debemos confiar y cómo hacerlo bien. Esto es cierto si estamos hablando de gobiernos, empresas o incluso conocidos, confiar (o no) es una decisión que cada uno de nosotros debe tomar todos los días.

El desafío de la confianza motiva lo que llamamos el «Problema de reconocimiento de confianza»lo que destaca que determinar quién es digno de nuestra confianza es algo que se deriva de los orígenes del comportamiento social humano. El problema proviene de un problema simple: cualquiera puede afirmar que es confiable y podemos carecer de formas seguras de saber si realmente lo son.

Si alguien se muda a un nuevo hogar y ve anuncios para diferentes proveedores de Internet en línea, no hay una forma segura de saber cuál será más barato o más confiable. La presentación no necesita, y puede que ni siquiera a menudo, refleje nada sobre las cualidades subyacentes de una persona o grupo. Llevar un bolso de diseñador o usar un reloj costoso no garantiza que el usuario sea rico.

Afortunadamente, el trabajo en antropología, psicología y economía muestra cómo las personas, y por consecuencia, instituciones como los cuerpos políticos, pueden superar este problema. Este trabajo se conoce como teoría de la señalizacióny explica cómo y por qué la comunicación, o cómo podemos llamar la aprobación de información de un señalador a un receptor, evoluciona incluso cuando las personas que se comunican están en conflicto.

Por ejemplo, las personas que se mueven entre grupos pueden tener razones para mentir sobre sus identidades. Es posible que quieran ocultar algo desagradable sobre su propio pasado. O podrían afirmar ser un pariente de alguien rico o poderoso en una comunidad. El reciente libro de Zadie Smith, «The Fraud», es una versión ficticia de este tema popular que explora la vida aristocrática durante la Inglaterra victoriana.

Sin embargo, no es posible fingir algunas cualidades. Un fraude puede afirmar que es un aristócrata, un médico o un experto en IA. Sin embargo, las señales que estos fraudes emiten involuntariamente los regalarán con el tiempo. Un aristócrata falso probablemente no fingirá su comportamiento o acento de manera suficiente (los acentos, entre otras señales, son Difícil de fingir para aquellos familiarizados con ellos).

La estructura de la sociedad es obviamente diferente a la de hace dos siglos, pero el problema, en esencia, es el mismo, como, creemos, es la solución. Al igual que hay formas de que una persona verdaderamente rica demuestre la riqueza, una persona o grupo confiable debe ser capaz de demostrar que vale la pena confiar. La forma o las formas en que esto es posible, sin duda, variará de un contexto a otro, pero creemos que los organismos políticos como los gobiernos deben demostrar la voluntad de escuchar y responder al público sobre sus preocupaciones.

El proyecto Care.data fue criticado porque se publicitó a través de folletos cayó en las puertas de la gente Eso no contenía una opción de exclusión. Esto no indicó al público un deseo real de aliviar las preocupaciones de las personas de que la información sobre ellos se usaría mal o se vendería con fines de lucro.

El plan actual sobre el uso de datos para desarrollar algoritmos de IA debe ser diferente. Nuestras instituciones políticas y científicas tienen el deber de señalar su compromiso con el público escuchándolos y, a través de hacerlo, desarrollar políticas cohesivas que minimicen los riesgos para las personas mientras maximizan los beneficios potenciales para todos.

La clave es imponer fondos y esfuerzos suficientes para señalar, para demostrar, la motivación honesta de comprometerse con el público sobre sus preocupaciones. El gobierno y los organismos científicos tienen el deber de escuchar al público y más para explicar cómo lo protegerán. Decir «Confía en mí» nunca es suficiente. Tienes que demostrar que vale la pena.

Proporcionado por la conversación


Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.La conversación

Citación: El gobierno del Reino Unido debe demostrar que se puede confiar en su plan de IA para enfrentar riesgos graves cuando se trata de datos de salud (2025, 3 de febrero) recuperado el 3 de febrero de 2025 de https://techxplore.com/news/2025-02-uk- ai-health.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Apple comienza el Super Bowl LIX con 6 meses de música por solo $ 3

Deepseek - Últimas noticias e ideas

Deepseek – Últimas noticias e ideas