in

La IA domina las predicciones de ciberseguridad para 2025

Automatice su servicio al cliente a escala

Cuando se trata de ciberseguridad en 2025, la inteligencia artificial es una prioridad para muchos analistas y profesionales.

Tanto los adversarios como los defensores utilizarán la inteligencia artificial, pero los atacantes se beneficiarán más de ella, afirmó Willy Leichter, CMO de aplicaciónSOCun proveedor de gestión de vulnerabilidades y seguridad de aplicaciones en San José, California.

«Sabemos que la IA se utilizará cada vez más en ambos lados de la guerra cibernética», dijo a TechNewsWorld. “Sin embargo, los atacantes seguirán estando menos restringidos porque se preocupan menos por la precisión, la ética o las consecuencias no deseadas de la IA. Técnicas como el phishing altamente personalizado y la búsqueda de redes en busca de debilidades heredadas se beneficiarán de la IA”.

«Si bien la IA tiene un enorme potencial defensivo, existen más limitaciones, tanto legales como prácticas, que retrasarán su adopción», afirmó.

Chris Hauk, defensor de la privacidad del consumidor en Privacidad de píxelesun editor de guías de privacidad y seguridad para el consumidor en línea, predijo que 2025 será un año de IA versus IA, ya que los buenos usan la IA para defenderse de los ciberataques impulsados ​​por IA.

«Probablemente será un año de batallas de ida y vuelta, ya que ambas partes utilizarán la información que han recopilado de ataques anteriores para establecer nuevos ataques y nuevas defensas», dijo a TechNewsWorld.

Mitigar los riesgos de seguridad de la IA

Leichter también predijo que los ciberadversarios empezarán a apuntar a los sistemas de inteligencia artificial con más frecuencia. «La tecnología de inteligencia artificial amplía enormemente el área de superficie de ataque con amenazas que emergen rápidamente a modelos, conjuntos de datos y sistemas de operaciones en lenguaje de máquina», explicó. «Además, cuando las aplicaciones de IA se trasladan apresuradamente del laboratorio a la producción, no se comprenderá el impacto total en la seguridad hasta que se produzcan las inevitables violaciones».

Karl Holmqvist, fundador y director ejecutivo de último murouna empresa de seguridad de identidad con sede en Honolulu, estuvo de acuerdo. «El despliegue masivo y sin control de herramientas de inteligencia artificial, que a menudo se implementan sin bases de seguridad sólidas, tendrá graves consecuencias en 2025», dijo a TechNewsWorld.

«Al carecer de medidas de privacidad y marcos de seguridad adecuados, estos sistemas se convertirán en objetivos principales de violaciones y manipulación», afirmó. «Este enfoque del Salvaje Oeste para la implementación de la IA dejará los datos y los sistemas de toma de decisiones peligrosamente expuestos, lo que empujará a las organizaciones a priorizar urgentemente los controles de seguridad fundamentales, los marcos de IA transparentes y el monitoreo continuo para mitigar estos riesgos crecientes».

Leichter también sostuvo que los equipos de seguridad tendrán que asumir una mayor responsabilidad para proteger los sistemas de IA en 2025.

«Esto suena obvio, pero en muchas organizaciones, los proyectos iniciales de IA han sido impulsados ​​por científicos de datos y especialistas en negocios, que a menudo pasan por alto los procesos de seguridad de aplicaciones convencionales», afirmó. «Los equipos de seguridad librarán una batalla perdida si intentan bloquear o ralentizar las iniciativas de IA, pero tendrán que incluir los proyectos de IA no autorizados bajo el paraguas de seguridad y cumplimiento».

Leichter también señaló que la IA ampliará la superficie de ataque para los adversarios que apuntan a las cadenas de suministro de software en 2025. “Ya hemos visto que las cadenas de suministro se convierten en un importante vector de ataque, ya que las complejas pilas de software dependen en gran medida de código abierto y de terceros. ”, dijo. «La explosión de la adopción de la IA hace que este objetivo sea más grande con nuevos vectores complejos de ataque a conjuntos de datos y modelos».

«Comprender el linaje de los modelos y mantener la integridad de los conjuntos de datos cambiantes es un problema complejo y, actualmente, no existe una forma viable para que un modelo de IA desaprenda datos tóxicos», añadió.

Amenazas de envenenamiento de datos a los modelos de IA

Michael Lieberman, director de tecnología y cofundador de Kusari, una empresa de seguridad de la cadena de suministro de software en Ridgefield, Connecticut, también considera que el envenenamiento de grandes modelos lingüísticos será un avance significativo en 2025. “Los ataques de envenenamiento de datos destinados a manipular los LLM serán más frecuentes, aunque Es probable que este método requiera más recursos en comparación con tácticas más simples, como la distribución de LLM abiertos maliciosos”, dijo a TechNewsWorld.

«La mayoría de las organizaciones no están entrenando sus propios modelos», explicó. “En cambio, confían en modelos previamente entrenados, a menudo disponibles de forma gratuita. La falta de transparencia con respecto a los orígenes de estos modelos facilita que los actores maliciosos introduzcan modelos dañinos, como lo demuestra el incidente del malware Hugging Face”. Ese incidente ocurrió a principios de 2024 cuando se descubrió que se habían subido a la plataforma Hugging Face unos 100 LLM que contenían puertas traseras ocultas que podían ejecutar código arbitrario en las máquinas de los usuarios.

«Es probable que los futuros esfuerzos de envenenamiento de datos apunten a actores importantes como OpenAI, Meta y Google, que entrenan sus modelos en vastos conjuntos de datos, lo que hace que dichos ataques sean más difíciles de detectar», predijo Lieberman.

«En 2025, es probable que los atacantes superen a los defensores», añadió. “Los atacantes tienen motivaciones financieras, mientras que los defensores a menudo tienen dificultades para conseguir presupuestos adecuados, ya que la seguridad no suele considerarse una fuente de ingresos. Puede ser necesaria una violación significativa de la cadena de suministro de IA, similar al incidente de SolarWinds Sunburst, para que la industria se tome la amenaza en serio”.

Gracias a la IA, también habrá más actores de amenazas que lanzarán ataques más sofisticados en 2025. “A medida que la IA se vuelva más capaz y accesible, la barrera de entrada para los atacantes menos capacitados se reducirá y al mismo tiempo se acelerará la velocidad a la que se pueden llevar a cabo los ataques. ”, explicó Justin Blackburn, ingeniero senior de detección de amenazas en la nube en AppOmniuna empresa de software de gestión de seguridad SaaS, en San Mateo, California.

«Además, la aparición de bots impulsados ​​por IA permitirá a los actores de amenazas ejecutar ataques a gran escala con un mínimo esfuerzo», dijo a TechNewsWorld. «Armados con estas herramientas impulsadas por IA, incluso los adversarios menos capaces pueden obtener acceso no autorizado a datos confidenciales e interrumpir servicios en una escala que antes solo habían visto atacantes más sofisticados y bien financiados».

Guión Los bebés crecen

En 2025, el auge de la IA agente (IA capaz de tomar decisiones independientes, adaptarse a su entorno y tomar medidas sin intervención humana directa) también exacerbará los problemas para los defensores. «Se espera que los avances en inteligencia artificial permitan a los actores no estatales desarrollar armas cibernéticas autónomas», dijo Jason Pittmanprofesor asociado colegiado en la escuela de ciberseguridad y tecnología de la información del Campus Global de la Universidad de Maryland en Adelphi, Maryland.

«La IA agente funciona de forma autónoma con comportamientos dirigidos a objetivos», dijo a TechNewsWorld. “Dichos sistemas pueden utilizar algoritmos de vanguardia para identificar vulnerabilidades, infiltrarse en los sistemas y desarrollar sus tácticas en tiempo real sin dirección humana. “

«Estas características lo distinguen de otros sistemas de inteligencia artificial que se basan en instrucciones predefinidas y requieren intervención humana», explicó.

“Al igual que el gusano Morris en décadas pasadas, la liberación de armas cibernéticas con agentes podría comenzar como un accidente, lo cual es más problemático. Esto se debe a que la accesibilidad a herramientas avanzadas de inteligencia artificial y la proliferación de marcos de aprendizaje automático de código abierto reducen la barrera para desarrollar armas cibernéticas sofisticadas. Una vez creada, la poderosa característica de autonomía puede fácilmente hacer que la IA agente escape de sus medidas de seguridad”.

Por más dañina que pueda ser la IA en manos de actores de amenazas, también puede ayudar a proteger mejor los datos, como la información de identificación personal (PII). «Después de analizar más de seis millones de archivos de Google Drive, descubrimos que el 40% de los archivos contenían PII que ponía a las empresas en riesgo de sufrir una violación de datos», dijo Rich Vibert, cofundador y director ejecutivo de metómicouna plataforma de privacidad de datos en Londres.

«A medida que entremos en 2025, veremos más empresas priorizar los métodos automatizados de clasificación de datos para reducir la cantidad de información vulnerable guardada inadvertidamente en archivos de acceso público y espacios de trabajo colaborativos en entornos SaaS y de nube», continuó.

«Las empresas implementarán cada vez más herramientas impulsadas por inteligencia artificial que puedan identificar, etiquetar y proteger automáticamente información confidencial», dijo. «Este cambio permitirá a las empresas mantenerse al día con las grandes cantidades de datos que se generan diariamente, garantizando que los datos confidenciales se protejan continuamente y que se minimice la exposición innecesaria de los datos».

Sin embargo, 2025 también podría marcar el comienzo de una ola de decepción entre los profesionales de la seguridad cuando el revuelo sobre la IA se descontrole. «Los CISO despriorizarán el uso de IA generacional en un 10% debido a la falta de valor cuantificable», Cody Scott, analista senior de Investigación Forresteruna empresa de investigación de mercado con sede en Cambridge, Massachusetts, escribió en un blog de la empresa.

«Según los datos de Forrester de 2024, el 35% de los CISO y CIO globales consideran que explorar e implementar casos de uso de IA genérica para mejorar la productividad de los empleados es una máxima prioridad», señaló. «El mercado de productos de seguridad se ha apresurado a exagerar los beneficios de productividad esperados de la IA, pero la falta de resultados prácticos está fomentando la desilusión».

«La idea de un centro de operaciones de seguridad autónomo que utilice IA de generación generó mucho revuelo, pero no podría estar más lejos de la realidad», continuó. «En 2025, la tendencia continuará y los profesionales de la seguridad se hundirán aún más en el desencanto a medida que desafíos como los presupuestos inadecuados y los beneficios no obtenidos de la IA reduzcan el número de implementaciones de IA gen. centradas en la seguridad».

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Televisor con ventosa, robot limpiador de calcetines y más productos nuevos y extravagantes de CES 2025

Kombu está cambiando la forma en que hacemos nuestro ‘booch’ con su moderna cafetera de kombucha