Desde que OpenAI presentó ChatGPT, los defensores de la privacidad han advertido a los consumidores sobre la amenaza potencial a la privacidad que representan las aplicaciones de IA generativa. La llegada de una aplicación ChatGPT a la tienda de aplicaciones de Apple ha provocado una nueva ronda de precaución.
“[B]ntes de saltar de cabeza a la aplicación, tenga cuidado de no ser demasiado personal con el bot y poner en riesgo su privacidad”, advirtió Muskaan Saxena en Radar tecnológico.
La aplicación iOS viene con una compensación explícita que los usuarios deben tener en cuenta, explicó, incluida esta advertencia: «Nuestro entrenador de IA puede revisar los chats anónimos para mejorar nuestros sistemas».
Sin embargo, la anonimización no es un boleto para la privacidad. Los chats anónimos están desprovistos de información que pueda vincularlos a usuarios particulares. “Sin embargo, la anonimización puede no ser una medida adecuada para proteger la privacidad del consumidor porque los datos anonimizados aún pueden volver a identificarse combinándolos con otras fuentes de información”, Joey Stanford, vicepresidente de privacidad y seguridad de Plataforma.shfabricante de una plataforma de servicios basada en la nube para desarrolladores con sede en París, dijo a TechNewsWorld.
«Se ha descubierto que es relativamente fácil eliminar el anonimato de la información, especialmente si se usa información de ubicación», explicó Jen Caltrider, investigadora principal de Mozilla’s Privacidad no incluida proyecto.
“Públicamente, OpenAI dice que no está recopilando datos de ubicación, pero su política de privacidad para ChatGPT dice que podrían recopilar esos datos”, dijo a TechNewsWorld.
Sin embargo, OpenAI advierte a los usuarios de la aplicación ChatGPT que su información se utilizará para entrenar su modelo de lenguaje grande. “Son honestos al respecto. No están ocultando nada”, dijo Caltrider.
Tomando la privacidad en serio
Caleb Withers, asistente de investigación del Center for New American Security, un grupo de expertos en seguridad y defensa nacional en Washington, DC, explicó que si un usuario escribe su nombre, lugar de trabajo y otra información personal en una consulta de ChatGPT, esos datos no será anonimizado.
“Tienes que preguntarte, ‘¿Es esto algo que le diría a un empleado de OpenAI?’”, dijo a TechNewsWorld.
OpenAI ha declarado que se toma en serio la privacidad e implementa medidas para salvaguardar los datos de los usuarios, señaló Mark N. Vena, presidente y analista principal de Investigación de tecnología inteligente en San José, California
“Sin embargo, siempre es una buena idea revisar las políticas y prácticas de privacidad específicas de cualquier servicio que utilice para comprender cómo se manejan sus datos y qué protecciones existen”, dijo a TechNewsWorld.
Por más dedicada que esté una organización a la seguridad de los datos, pueden existir vulnerabilidades que podrían ser explotadas por actores maliciosos, agregó James McQuiggan, defensor de la conciencia de seguridad en SaberBe4un proveedor de capacitación en concientización sobre seguridad en Clearwater, Fla.
“Siempre es importante ser cauteloso y considerar la necesidad de compartir información confidencial para garantizar que sus datos estén lo más seguros posible”, dijo a TechNewsWorld.
“Proteger su privacidad es una responsabilidad compartida entre los usuarios y las empresas que recopilan y usan sus datos, lo cual está documentado en esos Acuerdos de licencia de usuario final largos y, a menudo, no leídos”, agregó.
Protecciones Incorporadas
McQuiggan señaló que se sabe que los usuarios de aplicaciones de IA generativa insertan información confidencial, como cumpleaños, números de teléfono y direcciones postales y de correo electrónico en sus consultas. “Si el sistema de inteligencia artificial no está adecuadamente protegido, terceros pueden acceder a él y utilizarlo con fines maliciosos, como el robo de identidad o la publicidad dirigida”, dijo.
Agregó que las aplicaciones de IA generativa también podrían revelar inadvertidamente información confidencial sobre los usuarios a través de su contenido generado. “Por lo tanto”, continuó, “los usuarios deben conocer los posibles riesgos de privacidad del uso de aplicaciones de IA generativa y tomar las medidas necesarias para proteger su información personal”.
A diferencia de las computadoras de escritorio y portátiles, los teléfonos móviles tienen algunas funciones de seguridad integradas que pueden frenar las incursiones en la privacidad de las aplicaciones que se ejecutan en ellos.
Sin embargo, como señala McQuiggan, “si bien algunas medidas, como los permisos de las aplicaciones y la configuración de privacidad, pueden brindar cierto nivel de protección, es posible que no protejan completamente su información personal de todo tipo de amenazas a la privacidad como ocurre con cualquier aplicación cargada en el teléfono inteligente. ”
Vena estuvo de acuerdo en que las medidas integradas, como los permisos de las aplicaciones, la configuración de privacidad y las regulaciones de la tienda de aplicaciones, ofrecen cierto nivel de protección. “Pero pueden no ser suficientes para mitigar todas las amenazas a la privacidad”, dijo. “Los desarrolladores de aplicaciones y los fabricantes de teléfonos inteligentes tienen diferentes enfoques de la privacidad, y no todas las aplicaciones se adhieren a las mejores prácticas”.
Incluso las prácticas de OpenAI varían de una computadora de escritorio a un teléfono móvil. “Si está utilizando ChatGPT en el sitio web, tiene la posibilidad de acceder a los controles de datos y optar por que su chat no se utilice para mejorar ChatGPT. Esa configuración no existe en la aplicación de iOS”, señaló Caltrider.
Cuidado con la información de privacidad de la tienda de aplicaciones
Caltrider también encontró los permisos utilizados por la aplicación iOS de OpenAI un poco confusos, y señaló que “en Google Play Store, puede verificar y ver qué permisos se están utilizando. No puedes hacer eso a través de la App Store de Apple”.
Advirtió a los usuarios sobre la dependencia de la información de privacidad que se encuentra en las tiendas de aplicaciones. “La investigación que hemos realizado sobre la información de seguridad de Google Play Store muestra que es realmente poco confiable”, observó.
“La investigación realizada por otros en la App Store de Apple muestra que tampoco es confiable”, continuó. “Los usuarios no deben confiar en la información de seguridad de datos que encuentran en las páginas de la aplicación. Deberían hacer su propia investigación, que es difícil y engañosa”.
“Las empresas deben ser mejores para ser honestas sobre lo que recopilan y comparten”, agregó. «OpenAI es honesto acerca de cómo van a utilizar los datos que recopilan para entrenar a ChatGPT, pero luego dicen que una vez que anonimizan los datos, pueden usarlos de muchas maneras que van más allá de los estándares de la política de privacidad».
Stanford señaló que Apple tiene algunas políticas que pueden abordar algunas de las amenazas a la privacidad que plantean las aplicaciones de IA generativa. Incluyen:
- Requerir el consentimiento del usuario para la recopilación y el intercambio de datos por parte de aplicaciones que utilizan tecnologías de IA generativa;
- Proporcionar transparencia y control sobre cómo se utilizan los datos y quién lo hace a través de la función Transparencia de seguimiento de aplicaciones que permite a los usuarios optar por no participar en el seguimiento entre aplicaciones;
- Hacer cumplir los estándares y regulaciones de privacidad para los desarrolladores de aplicaciones a través del proceso de revisión de la App Store y rechazar las aplicaciones que los violan.
Sin embargo, reconoció que «estas medidas pueden no ser suficientes para evitar que las aplicaciones generativas de IA creen contenido inapropiado, dañino o engañoso que podría afectar la privacidad y la seguridad de los usuarios».
Llamado a la Ley Federal de Privacidad de AI
“OpenAI es solo una empresa. Hay varios que están creando grandes modelos lingüísticos, y es probable que surjan muchos más en un futuro cercano”, agregó Hodan Omaar, analista sénior de políticas de IA en la Centro de Innovación de Datosun grupo de expertos que estudia la intersección de los datos, la tecnología y las políticas públicas, en Washington, DC
“Necesitamos tener una ley federal de privacidad de datos para garantizar que todas las empresas se adhieran a un conjunto de estándares claros”, dijo a TechNewsWorld.
“Con el rápido crecimiento y la expansión de la inteligencia artificial”, agregó Caltrider, “definitivamente es necesario que haya organismos de control y regulaciones sólidos y fuertes para vigilar al resto de nosotros a medida que esto crece y se vuelve más frecuente”.