Las herramientas de inteligencia artificial se utilizan cada vez más para rastrearnos y monitorearnos tanto en línea como en persona, pero su efectividad conlleva grandes riesgos. Los científicos informáticos del Oxford Internet Institute, el Imperial College London y la UCLouvain han desarrollado un nuevo modelo matemático que podría ayudar a las personas a comprender mejor los riesgos que plantea la IA y ayudar a los reguladores a proteger la privacidad de las personas.
Los hallazgos fueron publicado 9 de enero en Comunicaciones de la naturaleza.
Por primera vez, el método proporciona un marco científico sólido para evaluar técnicas de identificación, especialmente cuando se trata de datos a gran escala. Esto podría incluir, por ejemplo, monitorear qué tan precisos son el código publicitario y los rastreadores invisibles para identificar a los usuarios en línea a partir de pequeños fragmentos de información como la zona horaria o la configuración del navegador (una técnica llamada «huella digital del navegador»).
El autor principal, el Dr. Luc Rocher, investigador principal del Oxford Internet Institute, parte de la Universidad de Oxford, dijo: «Consideramos nuestro método como un nuevo enfoque para ayudar a evaluar el riesgo de reidentificación en la divulgación de datos, pero también para evaluar Técnicas modernas de identificación en entornos críticos y de alto riesgo.
«En lugares como hospitales, entrega de ayuda humanitaria o control fronterizo, hay mucho en juego y la necesidad de una identificación precisa y confiable es primordial».
El método se basa en el campo de la estadística bayesiana para aprender qué tan identificables son los individuos a pequeña escala y extrapola la precisión de la identificación a poblaciones más grandes hasta 10 veces mejor que las heurísticas y reglas generales anteriores. Esto le da al método un poder único para evaluar cómo funcionarán las diferentes técnicas de identificación de datos a escala, en diferentes aplicaciones y entornos de comportamiento.
Esto podría ayudar a explicar por qué algunas técnicas de identificación de IA funcionan con gran precisión cuando se prueban en estudios de casos pequeños, pero luego identifican erróneamente a las personas en condiciones del mundo real.
Los hallazgos son muy oportunos, dados los desafíos que plantea al anonimato y la privacidad causados por el rápido aumento de las técnicas de identificación basadas en IA. Por ejemplo, se están probando herramientas de inteligencia artificial para identificar automáticamente a los humanos a partir de su voz en la banca en línea, sus ojos en la entrega de ayuda humanitaria o su rostro en las fuerzas del orden.
Según los investigadores, el nuevo método podría ayudar a las organizaciones a lograr un mejor equilibrio entre los beneficios de las tecnologías de inteligencia artificial y la necesidad de proteger la información personal de las personas, haciendo que las interacciones diarias con la tecnología sean más seguras.
Su método de prueba permite la identificación de posibles debilidades y áreas de mejora antes de la implementación a gran escala, lo cual es esencial para mantener la seguridad y la precisión.
El profesor asociado coautor Yves-Alexandre de Montjoye (Instituto de Ciencia de Datos, Imperial College, Londres) dijo: «Nuestra nueva ley de escala proporciona, por primera vez, un modelo matemático de principios para evaluar cómo funcionarán las técnicas de identificación a escala.
«Comprender la escalabilidad de la identificación es esencial para evaluar los riesgos que plantean estas técnicas de reidentificación, incluso para garantizar el cumplimiento de las legislaciones modernas de protección de datos en todo el mundo».
El Dr. Luc Rocher concluyó: «Creemos que este trabajo constituye un paso crucial hacia el desarrollo de métodos basados en principios para evaluar los riesgos que plantean técnicas de IA cada vez más avanzadas y la naturaleza de la identificabilidad de los rastros humanos en línea.
«Esperamos que este trabajo sea de gran ayuda para investigadores, responsables de protección de datos, comités de ética y otros profesionales que buscan encontrar un equilibrio entre compartir datos para la investigación y proteger la privacidad de pacientes, participantes y ciudadanos».
Más información:
Una ley de escala para modelar la efectividad de las técnicas de identificación. Comunicaciones de la naturaleza (2025). DOI: 10.1038/s41467-024-55296-6. www.nature.com/articles/s41467-024-55296-6
Citación: Un nuevo modelo matemático podría ayudar a proteger la privacidad y garantizar un uso más seguro de la IA (2025, 9 de enero) recuperado el 9 de enero de 2025 de https://techxplore.com/news/2025-01-mathematical-privacy-safer-ai.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings