in

La aplicación ChatGPT de OpenAI para iPad y iPhone alcanza las 500.000 descargas

Apple, iOS, iPhone, iPad, OpenAI, ChatGPT, security

OpenAI envió su aplicación ChatGPT para iPad y iPhone hace apenas una semana, pero ya se ha convertido en una de las aplicaciones más populares en los últimos dos años, con más de medio millon descargas en los primeros seis días. Eso es un logro real, pero también un desafío: eso es medio millón de vulnerabilidades de datos potenciales.

Para no dormirse en los laureles, el asistente inteligente favorito de este año (hasta ahora) es ahora también disponible en 41 países adicionales. No hay duda de que esta ha sido una de las introducciones de software/servicio más exitosas de todos los tiempos, pero eso no cambia el riesgo inherente de estas tecnologías.

Mantenga la bandera roja ondeando

La popularidad de la aplicación debería ser una señal de alerta para los líderes de TI, quienes deben redoblar los esfuerzos para advertir al personal que no ingrese datos personales o corporativos valiosos en el servicio. El peligro de hacerlo es que los datos recopilados por OpenAI ya han sido atacados una vez, y es solo cuestión de tiempo hasta que alguien obtenga esa información.

Después de todo, la seguridad digital actual no se trata de si ocurre un incidente, pero cuando.

Para acuñar una frase del libro de jugadas de Apple, la mejor manera de proteger los datos en línea es no colocar la información allí en primer lugar. Es por eso que los iPhones y otros productos de Cupertino (a través de China, India y Vietnam) funcionan según el principio de minimización de datosreduciendo la cantidad de información recopilada y esforzándose por reducir la necesidad de enviarla a los servidores para su procesamiento.

Ese es un gran enfoque, no solo porque reduce la cantidad de información que puede escaparse, sino porque también reduce la oportunidad de que los humanos cometan errores en primer lugar.

Los humanos están llegando

No tenemos esa protección con las aplicaciones de ChatGPT. Más allá de una prohibición total de usar el servicio y la aplicación en dispositivos administrados, los administradores de TI dependen casi por completo de la confianza cuando se trata de garantizar que su personal no comparta datos confidenciales con el bot.

Aún así, los humanos son humanos, por lo que es inevitable que, sin importar cuán severas sean las exhortaciones contra dicho uso, podemos estar seguros de que algunas personas compartirán accidentalmente datos confidenciales a través de la aplicación. Es posible que ni siquiera se den cuenta de que lo están haciendo, simplemente viéndolo como el equivalente a buscar en la web.

Es una amenaza similar a la de la TI en la sombra, en la que los humanos comparten accidentalmente información confidencial a cambio de lo que parece ser conveniencia.

Bailarina privada

TI debe tener en cuenta la etiqueta de privacidad de la aplicación que OpenAI adjuntó a su producto en la tienda de aplicaciones. Esa etiqueta deja claro que al usar la aplicación, los siguientes datos están vinculados al usuario:

  • Información de contacto: correo electrónico, nombre, número de teléfono.
  • Contenido de usuario — «otro» contenido de usuario.
  • Identificadores: ID de usuario.
  • Datos de uso — Interacción del producto.
  • Diagnósticos: bloqueo, rendimiento, otros datos de diagnóstico.

Disponible en línea, propio de OpenAI política de privacidad también debe explorarse, aunque la compañía no ha revelado los datos de capacitación que utiliza para sus últimos bots.

El desafío aquí es que TI debe considerar las limitaciones de este último junto con la inevitabilidad de la naturaleza humana. Los reguladores ya están preocupados por las implicaciones de privacidad. En Canadá, los reguladores de la privacidad están investigar las prácticas de privacidad de la empresa, con una actividad similar en Europa. (OpenAI parece bastante preocupado por estas investigaciones y ha advertido que puede o no cerrar la tienda en Europa si la ley es demasiado rigurosa).

neblina púrpura

La avalancha de actividad en torno a la IA generativa en general, y ChatGPT en particular, no debería enmascarar las repercusiones radicales de estas tecnologías, que ofrecen grandes beneficios de productividad, pero amenazan la seguridad laboral a gran escala.

Al menos a corto plazo, los administradores de TI deben hacer todo lo posible para garantizar que estos productos simples para el consumidor no amenacen los datos comerciales confidenciales. Y para que eso suceda, se debe advertir a los usuarios que no compartan datos con estos servicios hasta que se ratifique bajo la política de seguridad y privacidad de la empresa.

Por favor sígueme en Mastodonteo únete a mí en el Bar y parrilla de AppleHolic y Manzana Discusiones grupos en MeWe.

Derechos de autor © 2023 IDG Communications, Inc.



Fuente

Written by TecTop

Ofertas: Amazon descuenta Apple Pencil 2 al mejor precio de $ 85 ($ 45 de descuento)

Ofertas: Amazon descuenta Apple Pencil 2 al mejor precio de $ 85 ($ 45 de descuento)