Casi la mitad del tráfico en Internet es generado por entidades automatizadas llamadas bots, y una gran parte de ellos representan amenazas para los consumidores y las empresas en la web.
«[B]OTS puede ayudar a crear estafas de phishing al ganar confianza del usuario y explotarla para estafadores. Estas estafas pueden tener serias implicaciones para la víctima, algunas de las cuales incluyen pérdida financiera, robo de identidad y la propagación de malware «, Christoph C. Cemper, fundador de Aiprmuna compañía de ingeniería y gestión rápida de IA, en Wilmington, Del., Dijo en un comunicado proporcionado a Technowsworld.
«Desafortunadamente, esta no es la única amenaza de seguridad que representa los bots», continuó. “También pueden dañar la reputación de la marca, especialmente para marcas y empresas con perfiles de redes sociales populares y altas tasas de participación. Al asociar una marca con prácticas fraudulentas y poco éticas, los bots pueden empañar la reputación de una marca y reducir la lealtad del consumidor «.
Según el Informe de Bad Bot de Imperva 2024, los niveles de tráfico de BOT BOT han aumentado durante el quinto año consecutivo, lo que indica una tendencia alarmante. Señaló que el aumento está en parte impulsado por la creciente popularidad de la inteligencia artificial (IA) y los grandes modelos de aprendizaje (LLM).
En 2023, los bots malos representaron el 32% de todo el tráfico de Internet, un aumento del 1.8% desde 2022, explicó el informe. La parte del buen tráfico BOT también aumentó, aunque un poco menos significativamente, del 17.3% de todo el tráfico de Internet en 2022 a 17.6% en 2023. Combinado, el 49.6% de todo el tráfico de Internet en 2023 no fue humano, ya que los niveles de tráfico humano disminuyeron a 50.4% de todo el tráfico.
«Los buenos bots ayudan a indexar la web para los motores de búsqueda, automatizar el monitoreo de la seguridad cibernética y ayudar al servicio al cliente a través de chatbots», explicó James McQuiggan, un defensor de concientización sobre seguridad KnowBe4un proveedor de capacitación en seguridad en Clearwater, Fla.
«Ayudan a detectar vulnerabilidades, mejorar los flujos de trabajo de TI y racionalizar los procedimientos en línea», dijo a Technewsworld. «El truco es saber qué es la valiosa automatización y cuál es la actividad nefasta».
Boleto Scalping a escala
La automatización y el éxito están impulsando las tendencias de crecimiento para el tráfico de botnet, explicó Thomas Richards, Director de Práctica Red Network y Red Team en Software de pato negrouna compañía de seguridad de aplicaciones en Burlington, Mass.
«Poder escalar permite a los actores maliciosos alcanzar sus objetivos», dijo a Technewsworld. “La IA está teniendo un impacto al permitir que estos actores maliciosos actúen más humanos y automatizaran la codificación y otras tareas. Google, por ejemplo, ha revelado que Gemini se ha utilizado para crear cosas maliciosas «.
«Vemos esto en otras experiencias cotidianas también», continuó, «como la lucha en los últimos años para obtener entradas para conciertos para eventos populares. Los revestimientos encuentran formas de crear usuarios o usar cuentas comprometidas para comprar boletos más rápido de lo que un humano podría. Ganan dinero revendiendo los boletos a un precio mucho más alto «.
Es fácil y rentable implementar ataques automatizados, agregó Stephen Kowski, CTO de campo en Slashnextuna compañía de seguridad de computadora y red en Pleasanton, California.
«Los delincuentes están utilizando herramientas sofisticadas para evitar las medidas de seguridad tradicionales», dijo a Technewsworld. «Los sistemas con AI hacen que los bots sean más convincentes y más difíciles de detectar, lo que les permite imitar mejor el comportamiento humano y adaptarse a las medidas defensivas».
«La combinación de herramientas de IA fácilmente disponibles y el valor creciente de los datos robados crean condiciones perfectas para ataques de bot aún más avanzados en el futuro», dijo.
Por qué los bots malos son una amenaza seria
David Brauchler, director técnico y jefe de AI y ML Security en el Grupo de NCCuna consultoría global de ciberseguridad, espera que el tráfico de Internet no humano continúe creciendo.
«A medida que más dispositivos se conectan a Internet, las plataformas SaaS agregan una funcionalidad interconectada, y los nuevos dispositivos vulnerables ingresan a la escena, el tráfico relacionado con Bot ha tenido la oportunidad de continuar aumentando su parte del ancho de banda de la red», dijo a Technewsworld.
Brauchler agregó que los bots malos son capaces de causar un gran daño. «Los bots se han utilizado para desencadenar interrupciones de masa mediante recursos de red abrumadores para negar el acceso a los sistemas y servicios», dijo.
«Con el advenimiento de la IA generativa, los bots también se pueden usar para hacerse pasar por la actividad realista del usuario en las plataformas en línea, aumentando el riesgo y el fraude de spam», explicó. «También pueden escanear y explotar vulnerabilidades de seguridad en los sistemas informáticos».
Sostuvo que el mayor riesgo de IA es la proliferación de spam. «No hay una solución técnica sólida para identificar y bloquear este tipo de contenido en línea», explicó. «Los usuarios han llamado a este fenómeno AI Slop, y corre el riesgo de ahogar la señal de interacciones legítimas en línea en el ruido del contenido artificial».
Sin embargo, advirtió que la industria debe tener mucho cuidado cuando considera la mejor solución a este problema. «Muchos remedios potenciales pueden crear más daño, especialmente aquellos que corren el riesgo de atacar la privacidad en línea», dijo.
Cómo identificar bots maliciosos
Brauchler reconoció que puede ser difícil para los humanos detectar un bot malicioso. «La abrumadora mayoría de los bots no operan de ninguna manera que los humanos puedan detectar», dijo. «Se comunican directamente con los sistemas expuestos a Internet, consultando datos o interactuando con los servicios».
«La categoría de bot que a la mayoría de los humanos se preocupan son los agentes de IA autónomos que pueden disfrazarse de humanos en un intento de defraudar a las personas en línea», continuó. «Muchos chatbots de IA usan patrones de habla predecibles que los usuarios pueden aprender a reconocer interactuando con generadores de texto de IA en línea».
«Del mismo modo, las imágenes generadas por IA tienen una serie de ‘Telgs’ que los usuarios pueden aprender a buscar, incluidos los patrones rotos, como las manos y los relojes desalineados, los bordes de los objetos que se funden en otros objetos y fondos confundidos», dijo.
«Las voces de IA también tienen inflexiones inusuales y expresiones de tono que los usuarios pueden aprender a recoger», agregó.
Los bots maliciosos a menudo se usan en plataformas de redes sociales para obtener acceso de confianza a individuos o grupos. «Esté atento a los signos reveladores como patrones inusuales en solicitudes de amistad, imágenes de perfil genéricas o robadas, y cuentas que publican a velocidades o frecuencias inhumanas», advirtió Kowski.
También aconsejó tener cuidado con los perfiles con información personal limitada, patrones de participación sospechosos o empujar agendas específicas a través de respuestas automatizadas.
En la empresa, continuó, el análisis de comportamiento en tiempo real puede detectar acciones automatizadas que no coinciden con patrones humanos naturales, como clics imposiblemente rápidos o rellenos de forma.
Amenaza para las empresas
Los bots maliciosos pueden ser una amenaza significativa para las empresas, señaló Ken Dunham, director de la Unidad de Investigación de Amenazas en Estanteríaun proveedor de soluciones de TI, seguridad y cumplimiento basadas en la nube en Foster City, California.
«Una vez acumulado por un actor de amenaza, pueden ser armados», dijo a Technewsworld. «Los bots tienen recursos y capacidades increíbles para realizar ataques anónimos, distribuidos y asíncronos contra objetivos de elección, como ataques de credenciales de fuerza bruta, ataques distribuidos de denegación de servicios, escaneos de vulnerabilidad, intento de explotación y más».
Los bots maliciosos también pueden dirigirse a los portales de inicio de sesión, los puntos finales de las API y los sistemas de orientación pública, lo que crea riesgos para las organizaciones a medida que los malos actores sondean para que las debilidades encuentren una manera de obtener acceso a la infraestructura y datos internos, agregó McQuiggan.
«Sin estrategias de mitigación de bot, las empresas pueden ser vulnerables a las amenazas automatizadas», dijo.
Para mitigar las amenazas de los bots malos, recomendó desplegar autenticación multifactor, soluciones de detección de bot tecnológicas y monitorear el tráfico para anomalías.
También recomendó bloquear los viejos agentes de los usuarios, utilizar Captchas y limitar las interacciones, cuando sea posible, para reducir las tasas de éxito.
«A través de la educación sobre el conocimiento de la seguridad y la gestión de riesgos humanos, el conocimiento de un empleado sobre los intentos de phishing y fraude impulsados por BOT puede garantizar una cultura de seguridad saludable y reducir el riesgo de un ataque de BOT exitoso», aconsejó.
GIPHY App Key not set. Please check settings