in

¿Has revelado secretos en ChatGPT? Tenga cuidado con revelar detalles de propiedad, advierte un profesor

Crédito: Pixabay/CC0 Dominio público

Ya sea por simple curiosidad o por el imperativo comercial de comenzar a usar inteligencia artificial (IA), como parte de una propuesta de venta única, muchas personas ahora usan ChatGPT, ya sea en el trabajo o en casa.

Cuando se lanzó, el modelo de lenguaje grande de IA fácil de usar pasó de cero a 100 millones de usuarios en solo 60 días. Desde entonces, Microsoft ha invertido 10.000 millones de dólares estadounidenses en la puesta en marcha de Open AI y ha integrado GPT4 en Bing. Las aplicaciones dedicadas de Bing con GPT4 ahora están disponibles en App Store y Play Store.

Parte de la experiencia del usuario de ChatGPT de OpenAI es que las herramientas de IA pueden generar texto realmente útil a partir de un aviso específico, lo que brinda posibles oportunidades para ahorrar tiempo en el día a día en el trabajo con el aprendizaje automático, por ejemplo, al escribir correos electrónicos.

Incluso puede usar la descripción del trabajo proporcionada en un anuncio para que ChatGPT escriba la carta de presentación «perfecta». O bien, un miembro del personal de recursos humanos puede generar el anuncio de trabajo «perfecto» para LinkedIn a partir del breve resumen proporcionado por la unidad de negocios.

Pero, ¿cuáles son los riesgos de probar formas de usar ChatGPT en el trabajo?

Como punto de partida, veamos el ejemplo del anuncio de trabajo.

Si el rol es uno que se anuncia comúnmente, entonces se pierde poco al compartir la forma de la descripción del trabajo con un par de cientos de millones de otros usos de ChatGPT.

Pero si la descripción del trabajo incluye información que podría ser utilizada por un competidor para identificar su negocio, entonces los riesgos son significativamente mayores (especialmente si el reclutamiento es una parte importante de la estrategia comercial interna en su lugar de trabajo).

Dado que empresas como Samsung han sido atacadas recientemente por miembros del personal que regalaron material a través de ChatGPT sin darse cuenta, es importante considerar los riesgos cuidadosamente antes de usarlo en el trabajo.

Y así, el código desapareció.

Este problema es particularmente desafiante si los miembros del personal han comenzado a usar ChatGPT como parte del proceso de desarrollo del código.

Es realmente atractivo hacerlo. Uno de los grandes aspectos de ChatGPT es su caso de uso de automatización para reducir el tiempo de codificación en proyectos de desarrollo de software para programadores. Esto se puede hacer a nivel de diseño («¿Cómo clasifico las cartas de solicitud de empleo usando el procesamiento de lenguaje natural en Python?») o a nivel de código («¿Cómo uso Gaussian Naive Bayes en scikit-learn?»).

Una característica realmente útil es la capacidad de pegar código como aviso para pedirle a ChatGPT que lo mejore. Esto es tan simple como «¿Qué está mal con el siguiente código?» ChatGPT puede incluso reconocer el lenguaje de codificación que está utilizando.

El problema es que ChatGPT puede incluir el material que ha utilizado como aviso para mejorar sus respuestas en el futuro, entrenando los algoritmos. Esto es precisamente lo que les sucedió a los desarrolladores de Samsung que usaron ChatGPT para mejorar el código y mantener las notas de las reuniones.

El material que Samsung habría considerado uno de los más sensibles estaba disponible para los desarrolladores fuera de Samsung, simplemente porque los ingenieros de Samsung usaron ChatGPT para reducir su tiempo de desarrollo.

¿GPT4 hará que usar ChatGPT en el trabajo sea más riesgoso?

Lo último en la serie GPT después de GPT3, GPT4 tiene una función de voz a texto increíblemente precisa. Pero el riesgo de que el texto se convierta en parte del conjunto de entrenamiento para mejorar la IA generativa es alto.

Es una forma sencilla tanto de transcribir reuniones de trabajo como, mejor aún, de generar las actas antes de que finalice la reunión. Sin embargo, la transcripción también formará parte del ecosistema GPT4 antes de que finalice esa reunión. Ha habido titulares de noticias sobre la decisión de Italia de «prohibir» ChatGPT por motivos de privacidad.

Esencialmente, el argumento de las autoridades italianas es que los datos recopilados por ChatGPT infringieron el Reglamento General Europeo de Protección de Datos. Sin embargo, en consonancia con otros países europeos, parece probable que Italia abandone este enfoque a finales de abril. El único cambio requerido será tener una verificación de edad (mayores de 18) en los usuarios.

La IA generativa utiliza miles de millones de puntos de datos para poder crear texto de forma predictiva. Mejora en respuesta a los comentarios de los usuarios. El desafío al que se enfrentan las empresas que emplean a personas curiosas es que estos comentarios pueden incluir material confidencial de la empresa.

La solución es simple en teoría pero mucho más difícil en la práctica. Si el material no se divulgaría normalmente fuera de la empresa, no se debe utilizar como aviso para ChatGPT o para Bing.

La dificultad práctica con esta regla es que los motores de búsqueda, incluido Google con su IA generativa llamada Bard, son una herramienta comercial esencial. El problema puede ser decidir si los motores de búsqueda están ahí para brindar información o para brindar respuestas.

Entonces, ¿debería evitar usar ChatGPT en el trabajo?

¿No está seguro de lo que debe (y no debe) compartir con nuestro amigo, ChatGPT? Prueba esta sencilla prueba:

¿El resultado de la sesión de ChatGPT es un documento que su empresa normalmente consideraría confidencial? Entonces no debería compartirse en ChatGPT.

Si escribió su carta de presentación o currículum usando ChatGPT, el sistema de inteligencia artificial utilizado para filtrar a los solicitantes también podría ejecutar su carta de presentación a través de GPTZero. Esta herramienta en línea de Open AI puede detectar si el texto fue escrito por una IA generativa al examinar la «perplejidad» de ese texto (una medida de la aleatoriedad del texto) y la «ráfaga» (una medida de la variación de la perplejidad).

Pero, por supuesto, la mejora en la salida de texto de ChatGPT es un desafío para estas herramientas. Entonces, ¿quién puede decir cómo cambiará esto en el futuro con el desarrollo de tecnología de IA?

Proporcionado por la Universidad de Nueva Gales del Sur


Citación: ¿Has revelado secretos en ChatGPT? Tenga cuidado con revelar detalles de propiedad, advierte un profesor (2023, 18 de abril) consultado el 18 de abril de 2023 de https://techxplore.com/news/2023-04-secrets-chatgpt-proprietary-cautions-professor.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Written by TecTop

Google planea lanzar un teléfono inteligente plegable de $ 1,700 en junio

¿Dead Island 2 tiene cooperativo multijugador? Contestada