Una nueva herramienta de inteligencia artificial que se ha utilizado en aulas, foros en línea y publicaciones en redes sociales ahora se está utilizando para robar su información privada y dinero.
ChatGPT ha ganado mucha atención por su capacidad para generar respuestas humanas realistas a entradas basadas en texto, particularmente en el mundo académico.
Hasta ahora, se ha utilizado para múltiples propósitos legítimos. Algunas empresas importantes han recurrido a la herramienta para realizar negocios.
Pero el Better Business Bureau explicó recientemente que los ciberdelincuentes también se han aprovechado de las capacidades de la IA del programa para propósitos maliciosos, como phishing, suplantación de identidad e incluso estafas románticas.
«Históricamente, los estafadores han estado a la vanguardia de la tecnología y no veo que esto sea diferente», dijo Tom Bartholomy, director ejecutivo de Better Business Bureau del sur de Piedmont y el oeste de Carolina del Norte. «A medida que vean ese trabajo, a medida que vean que las personas interactúan con él, simplemente continuarán perfeccionándolo y continuarán encontrando otras estafas en las que puedan alimentar esa misma tecnología».
Qué buscar
Bartholomy dijo que la mayoría de las estafas de ChatGPT hasta ahora han involucrado phishing y suplantación de identidad. Por ejemplo, los estafadores que se hacen pasar por Amazon envían correos electrónicos que notifican a los clientes que las cuentas han sido desactivadas y luego solicitan información personal.
«Una de las cosas que siempre hemos advertido a las personas sobre cuando recibe un correo electrónico o un mensaje de texto es que si hay errores ortográficos o si la gramática es deficiente o si la estructura de la oración no es correcta… eso puede ser una muy buena señal de que estás tratando con un estafador. ChatGPT elimina todo eso», dijo Bartholomy. «Será más fácil para los estafadores y más difícil para nosotros como consumidores poder discernir qué es legítimo y qué es falso».
Los chatbots han existido durante años, especialmente para la asistencia de servicio al cliente comercial. Bartholomy explicó que el modelo conversacional avanzado de ChatGPT ha dificultado que los consumidores detecten las señales de alerta.
«Ese tipo de tecnología ha existido por más tiempo que ChatGPT… donde crees que estás interactuando con alguien en un chat en vivo. En realidad, son solo un montón de respuestas enlatadas hasta que les haces una pregunta que puede responder. Ahora, con ChatGPT, eso la conversación puede continuar según las preguntas que tenga y la base de datos de la que extraen información», dijo Bartholomy.
Cómo protegerse
Better Business Bureau recomienda que los consumidores en línea estén atentos a cualquier actividad sospechosa.
- Tenga cuidado con los mensajes no solicitados
- Verifique la identidad de la persona con la que está chateando solicitando información de contacto
- Examine el texto en busca de señales de alerta.
- Utilice la autenticación de dos factores para sus cuentas en línea
- Use un administrador de contraseñas para generar y almacenar contraseñas seguras
- Tenga cuidado al descargar archivos o hacer clic en los enlaces.
2023 El observador de Charlotte
Distribuido por Tribune Content Agency, LLC.
Citación: ChatGPT puede escribir trabajos finales y hablar como personas: así es como lo usan los ciberdelincuentes (15 de marzo de 2023) recuperado el 15 de marzo de 2023 de https://techxplore.com/news/2023-03-chatgpt-term-papers-people- cyber.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.