in

Para combatir las amenazas generativas de correo electrónico de IA, combata el fuego con fuego

Regístrese para interacciones Conferencia de clientes 2023 del 5 al 7 de junio, ciudad de Nueva York

El poder del cerebro humano no es rival para los piratas informáticos envalentonados con ataques digitales de aplastar y agarrar impulsados ​​por inteligencia artificial que utilizan engaños de correo electrónico. En consecuencia, las defensas de ciberseguridad deben estar guiadas por soluciones de IA que conozcan las estrategias de los piratas informáticos mejor que ellos.

Este enfoque de combatir la IA con una mejor IA surgió como una estrategia ideal en una investigación realizada en marzo por la firma cibernética trazo oscuro para olfatear información sobre el comportamiento humano en torno al correo electrónico. La encuesta confirmó la necesidad de nuevas herramientas cibernéticas para contrarrestar las amenazas de piratas informáticos impulsadas por IA dirigidas a las empresas.

El estudio buscó una mejor comprensión de cómo los empleados reaccionan a nivel mundial ante posibles amenazas a la seguridad. También trazó su creciente conocimiento de la necesidad de una mejor seguridad del correo electrónico.

La encuesta global de Darktrace a 6711 empleados en los EE. UU., el Reino Unido, Francia, Alemania, Australia y los Países Bajos encontró que los encuestados experimentaron un aumento del 135 % en «nuevos ataques de ingeniería social» en miles de clientes activos de correo electrónico de Darktrace de enero a febrero de 2023. los resultados se correspondieron con la adopción generalizada de ChatGPT.

Estos nuevos ataques de ingeniería social utilizan técnicas lingüísticas sofisticadas, que incluyen un mayor volumen de texto, puntuación y longitud de oraciones sin enlaces ni archivos adjuntos. La tendencia sugiere que la IA generativa, como ChatGPT, está proporcionando una vía para que los actores de amenazas elaboren ataques sofisticados y dirigidos a gran velocidad y escala, según los investigadores.

Una de las tres conclusiones más importantes de la investigación es que la mayoría de los empleados están preocupados por la amenaza de los correos electrónicos generados por IA, según Max Heinemeyer, director de productos de Darktrace.

«Esto no es sorprendente, ya que estos correos electrónicos a menudo son indistinguibles de las comunicaciones legítimas y algunas de las señales que los empleados suelen buscar para detectar un ‘falso’ incluyen señales como mala ortografía y gramática, que los chatbots están demostrando ser muy eficientes en eludir», dijo. le dijo a TechNewsWorld.

Aspectos destacados de investigación

Darktrace preguntó a las empresas minoristas, de catering y de ocio qué tan preocupadas están, en todo caso, de que los piratas informáticos puedan usar la IA generativa para crear correos electrónicos fraudulentos que no se pueden distinguir de una comunicación genuina. Ochenta y dos por ciento dijeron que están preocupados.

Más de la mitad de todos los encuestados indicaron su conocimiento de lo que hace que los empleados piensen que un correo electrónico es un ataque de phishing. Los tres primeros son invitaciones para hacer clic en un enlace o abrir un archivo adjunto (68 %), remitente desconocido o contenido inesperado (61 %) y mal uso de la ortografía y la gramática (61 %).


Eso es significativo y preocupante, ya que el 45% de los estadounidenses encuestados señalaron que habían sido víctimas de un correo electrónico fraudulento, según Heinemeyer.

“No sorprende que los empleados estén preocupados por su capacidad para verificar la legitimidad de las comunicaciones por correo electrónico en un mundo donde los chatbots de IA son cada vez más capaces de imitar conversaciones del mundo real y generar correos electrónicos que carecen de todos los signos comunes de un ataque de phishing, como enlaces o archivos adjuntos maliciosos”, dijo.

Otros resultados clave de la encuesta incluyen lo siguiente:

  • El 70% de los empleados globales han notado un aumento en la frecuencia de correos electrónicos y mensajes de texto fraudulentos en los últimos seis meses.
  • El 87% de los empleados globales están preocupados por la cantidad de información personal disponible sobre ellos en línea que podría usarse en phishing y otras estafas por correo electrónico.
  • El 35 % de los encuestados ha probado ChatGPT u otros chatbots de IA de generación.

Barandillas de error humano

La accesibilidad generalizada a las herramientas de IA generativa como ChatGPT y la creciente sofisticación de los actores de los estados-nación significa que las estafas por correo electrónico son más convincentes que nunca, señaló Heinemeyer.

El error humano inocente y las amenazas internas siguen siendo un problema. Desviar un correo electrónico es un riesgo para todos los empleados y todas las organizaciones. Casi dos de cada cinco personas han enviado un correo electrónico importante al destinatario equivocado con un alias de aspecto similar por error o debido a la función de autocompletar. Este error se eleva a más de la mitad (51%) en la industria de servicios financieros y al 41% en el sector legal.

Independientemente de la culpa, tales errores humanos agregan otra capa de riesgo de seguridad que no es maliciosa. Un sistema de autoaprendizaje puede detectar este error antes de que la información confidencial se comparta incorrectamente.

En respuesta, Darktrace presentó una importante actualización de su solución de correo electrónico implementada globalmente. Ayuda a reforzar las herramientas de seguridad del correo electrónico a medida que las organizaciones continúan confiando en el correo electrónico como su principal herramienta de colaboración y comunicación.

“Las herramientas de seguridad del correo electrónico que se basan en el conocimiento de amenazas pasadas no están logrando que las organizaciones y su gente estén preparadas para el futuro contra las amenazas de correo electrónico en evolución”, dijo.

La última capacidad de correo electrónico de Darktrace incluye detecciones de comportamiento para correos electrónicos mal dirigidos que evitan que la propiedad intelectual o la información confidencial se envíen al destinatario equivocado, según Heinemeyer.

Iniciativa de ciberseguridad de IA

Al comprender lo que es normal, las defensas de la IA pueden determinar lo que no pertenece a la bandeja de entrada de un individuo en particular. Los sistemas de seguridad de correo electrónico se equivocan con demasiada frecuencia, y el 79 % de los encuestados afirma que los filtros de seguridad/spam de su empresa impiden incorrectamente que los correos electrónicos importantes y legítimos lleguen a su bandeja de entrada.

Con un conocimiento profundo de la organización y de cómo las personas dentro de ella interactúan con su bandeja de entrada, AI puede determinar para cada correo electrónico si es sospechoso y debe tomarse una medida o si es legítimo y debe permanecer intacto.

“Las herramientas que funcionan a partir del conocimiento de ataques históricos no serán rival para los ataques generados por IA”, ofreció Heinemeyer.


El análisis de ataques muestra una desviación lingüística notable, semántica y sintácticamente, en comparación con otros correos electrónicos de phishing. Eso deja pocas dudas de que las herramientas de seguridad de correo electrónico tradicionales, que funcionan a partir de un conocimiento de las amenazas históricas, no podrán detectar los indicadores sutiles de estos ataques, explicó.

Reforzando esto, la investigación de Darktrace reveló que las soluciones de seguridad de correo electrónico, incluidas las herramientas nativas, en la nube y estáticas de IA, tardan un promedio de 13 días desde el lanzamiento de un ataque a una víctima hasta que se detecta la infracción.

“Eso deja a los defensores vulnerables durante casi dos semanas si confían únicamente en estas herramientas. Las defensas de IA que entienden el negocio serán cruciales para detectar estos ataques”, dijo.

Se necesitan alianzas entre IA y humanos

Heinemeyer cree que el futuro de la seguridad del correo electrónico radica en una asociación entre la IA y los humanos. En este arreglo, los algoritmos son responsables de determinar si la comunicación es maliciosa o benigna, quitando así la carga de responsabilidad al ser humano.

“La capacitación sobre buenas prácticas de seguridad del correo electrónico es importante, pero no será suficiente para detener las amenazas generadas por la IA que se ven exactamente como comunicaciones benignas”, advirtió.

Una de las revoluciones vitales que permite la IA en el espacio del correo electrónico es una comprensión profunda de «usted». En lugar de tratar de predecir los ataques, se debe determinar la comprensión de los comportamientos de sus empleados en función de su bandeja de entrada de correo electrónico, sus relaciones, tono, sentimientos y cientos de otros puntos de datos, razonó.

“Al aprovechar la IA para combatir las amenazas a la seguridad del correo electrónico, no solo reducimos el riesgo, sino que revitalizamos la confianza organizacional y contribuimos a los resultados comerciales. En este escenario, los humanos se liberan para trabajar en un nivel superior, en prácticas más estratégicas”, dijo.

No es un problema de ciberseguridad completamente irresoluble

La amenaza de la IA ofensiva se ha investigado en el lado defensivo durante una década. Los atacantes inevitablemente utilizarán la IA para mejorar sus operaciones y maximizar el ROI, señaló Heinemeyer.

“Pero esto no es algo que consideraríamos irresoluble desde una perspectiva defensiva. Irónicamente, la IA generativa puede estar empeorando el desafío de la ingeniería social, pero la IA que te conoce podría ser la parada”, predijo.

Darktrace ha probado prototipos ofensivos de IA contra la tecnología de la compañía para probar continuamente la eficacia de sus defensas antes de esta inevitable evolución en el panorama de los atacantes. La empresa confía en que la IA armada con un conocimiento profundo del negocio será la forma más poderosa de defenderse contra estas amenazas a medida que continúan evolucionando.

Fuente

Written by TecTop

Tras las últimas filtraciones, tenemos mucha necesidad de ver el iPhone 15 Pro en persona

Tras las últimas filtraciones, tenemos mucha necesidad de ver el iPhone 15 Pro en persona

Hxllow hace un gran cosplay de Ada Wong basado en el Resident Evil 4 original