in

IA en 2025: Tecnología generativa, robots y riesgos emergentes

El año pasado vio a la inteligencia artificial (IA) superar los límites de lo que es posible, con las industrias que corren para integrar sus capacidades para impulsar la productividad y automatizar tareas complejas.

En 2024, los avances de IA aceleraron a un ritmo que superó las innovaciones anteriores de alta tecnología, preparando el escenario para una interrupción aún mayor por delante. Pero con este rápido progreso viene un riesgo: sin la supervisión humana, los pasos en falso de la IA podrían ser tan monumentales como sus avances.

La IA generativa y agente ya está mejorando la capacidad de los usuarios para obtener contenido sofisticado en varios medios de comunicación, mientras que las herramientas de atención médica con IA están remodelando los diagnósticos, superando a los médicos humanos en ciertas tareas. Estos desarrollos indican una transformación inminente en la prestación de atención médica, con IA preparada para desempeñar un papel aún más importante en las operaciones comerciales e industriales.

El poder de la IA también nacirá a los agentes humanoides, señaló Anders Indset, autor e inversor de tecnología profunda en tecnologías exponenciales como IA, tecnología cuántica, tecnología de salud y ciberseguridad. A medida que avanzamos en 2025, el panorama tecnológico está evolucionando rápidamente, con un foco en los agentes humanoides.

«Este año comenzó con la emoción en torno a los modelos de idiomas grandes (LLM), pero está listo para terminar con avances innovadores en robots humanoides autónomos», dijo Indset a Technewsworld.

En 2024, surgió el desarrollo de robots, con innovaciones que una vez parecían muy lejos que ahora aparecía. Observó que la liberación esperada de humanoides totalmente autónomos, previamente confinados a los entornos industriales, observó.

La llegada de 2025 trae anticipación para la adopción generalizada de IA en robótica, interacciones humanos mejoradas y modelos de robótica como servicio (RAAS). Esto hará que las soluciones robóticas avanzadas sean accesibles para más industrias, explicó Indset, describiendo el período transformador resultante para la industria de la robótica.

«Los agentes humanoides remodelarán nuestras interacciones con la tecnología y ampliarán las posibilidades de aplicaciones de IA en diferentes dominios», predijo.

El papel en expansión de la IA en la ciberseguridad y la bioseguridad

La IA desempeñará un papel cada vez más crítico en CyberFare, advirtió Alejandro Rivas-Vasquez, Jefe Global de Forense Digital y Respuesta a Incidentes en Grupo de NCC. La IA y el aprendizaje automático (ML) harán que la ciberfaridad sea más mortal, con daños colaterales fuera de las zonas de conflicto debido a la hiperconectividad, ofreció.

Las defensas de ciberseguridad, ya una herramienta exitosa para los guerreros digitales, se extenderán más allá de proteger los sistemas digitales para salvaguardar a las personas directamente a través de la tecnología implantable. Las interfaces neuronales, la bio-augación, los chips de autenticación e implantes médicos avanzados revolucionarán la interacción humana con la tecnología.

Según Bobbie Walker, consultor gerente en NCC Group, estas innovaciones también introducirán riesgos significativos.

“Los piratas informáticos podrían explotar las interfaces neuronales para controlar las acciones o manipular las percepciones, lo que lleva a la manipulación cognitiva y las violaciones de la autonomía personal. El monitoreo continuo de los datos de salud y comportamiento a través de implantes plantea problemas de privacidad sustanciales, con riesgos de mal uso por parte de actores maliciosos o vigilancia del gobierno invasivo «, dijo Walker a Technewsworld.

Para mitigar estos riesgos, los nuevos marcos de puente de la tecnología, la atención médica y las regulaciones de privacidad serán esenciales. Walker advirtió que los estándares para la «bioética digital» y los estándares ISO para la bio-cybersidad ayudarán a definir prácticas seguras para integrar la tecnología en el cuerpo humano al tiempo que aborda los dilemas éticos.

«El campo emergente de la bioscuridad cibernética nos empujará a repensar los límites de seguridad cibernética, asegurando que la tecnología integrada en nuestros cuerpos sea segura, ética y protectora de las personas que la usan», agregó.

Según Walker, los primeros estudios sobre interfaces de computadoras cerebrales (BCIS) muestran que las entradas adversas pueden engañar a estos dispositivos, destacando el potencial de abuso. A medida que evolucionan los implantes, crecen los riesgos de la guerra cibernética patrocinada por el estado y las violaciones de la privacidad, enfatizando la necesidad de medidas de seguridad sólidas y consideraciones éticas.

La copia de seguridad de datos basada en IA plantea preocupaciones de seguridad

Sebastian Straub, arquitecto principal de soluciones en N2WSdeclaró que los avances de IA equipan mejor a las organizaciones para reanudar las operaciones después de desastres naturales, cortes de energía y ataques cibernéticos. AI Automation mejorará la eficiencia operativa al abordar las deficiencias humanas.

La automatización de copia de seguridad con AI reducirá la necesidad de intervención administrativa a casi cero, explicó. AI aprenderá los intrincados patrones de uso de datos, requisitos de cumplimiento y necesidades de organización. Además, la IA se convertirá en un experto en gestión de datos proactivo, determinando de forma autónoma lo que debe ser respaldado y cuándo, incluida la adherencia a los estándares de cumplimiento como GDPR, HIPAA o PCI DSS.

Pero Straub advirtió que a medida que este nivel de dominio de IA transforma drásticamente los procesos de recuperación de desastres, los errores ocurrirán a través del proceso de aprendizaje. En 2025, veremos que la IA no es una bala de plata. Confiar en las máquinas para automatizar la recuperación de desastres conducirá a errores.

«Habrá violaciones desafortunadas de confianza y violaciones de cumplimiento a medida que las empresas aprendan de la manera difícil de que los humanos necesitan ser parte del proceso de toma de decisiones de la DR», dijo Straub a Technewsworld.

El impacto de la IA en la creatividad y la educación

Para muchos usuarios de IA, las herramientas para ayudar a mejorar las habilidades de comunicación ya están en uso constante. ChatGPT y otras herramientas de escritura de IA enfatizarán el valor de la escritura humana en lugar de una solución para tareas de lenguaje personal.

Los estudiantes y los comunicadores se ajustarán al pedirles a las herramientas de escritura de IA que produzcan trabajo en su nombre para poseer el proceso de creación de contenido de principio a fin. Aprovecharán la tecnología para editar, mejorar o expandir el pensamiento original, sugerido Eric Wang, vicepresidente de IA en la firma de detección de plagio Gira.

Mirando hacia el futuro, Wang le dijo a Technewsworld que la escritura sería reconocida como una habilidad crítica, no solo en las áreas de estudio centradas en la escritura, sino también en los entornos de aprendizaje, trabajo y vida. Este cambio se manifestará a medida que la humanización de los campos, roles y empresas habilitados para la tecnología.

Él ve el papel del cambio generativo de IA, con un uso de etapas tempranas que ayuda a organizar y expandir ideas, mientras que las etapas posteriores refinan y mejoran la escritura. Para los educadores, la IA puede identificar las brechas de conocimiento desde el principio y luego proporcionar transparencia para facilitar la participación de los estudiantes.

Riesgos ocultos de modelos con IA

Según Michael Lieberman, CTO y cofundador de la plataforma de seguridad de desarrollo de software KusariLa IA se volverá más extendida y difícil de detectar. Su preocupación radica en modelos gratuitos alojados en plataformas.

“Ya hemos visto casos en los que se descubrió que algunos modelos en estas plataformas eran malware. Espero que tales ataques aumenten, aunque probablemente sean más encubiertos. Estos modelos maliciosos pueden incluir puertas traseras ocultas o ser entrenados intencionalmente para comportarse perjudicialmente en escenarios específicos ”, dijo Lieberman a Technewsworld.

Él ve una prevalencia creciente de los ataques de envenenamiento de datos destinados a manipular LLM y advierte que la mayoría de las organizaciones no capacitan sus propios modelos.

“En cambio, confían en modelos previamente capacitados, a menudo disponibles de forma gratuita. La falta de transparencia con respecto a los orígenes de estos modelos facilita a los actores maliciosos introducir otros dañinos ”, continuó, citando el incidente de malware de la cara abrazada como ejemplo.

Es probable que los esfuerzos futuros de envenenamiento de datos se dirigen a los principales actores como OpenAi, Meta y Google, cuyos vastas conjuntos de datos hacen que tales ataques sean más difíciles de detectar.

“En 2025, es probable que los atacantes superen a los defensores. Los atacantes tienen motivación financiera, mientras que los defensores a menudo luchan por asegurar presupuestos adecuados, ya que la seguridad no suele ser vista como un conductor de ingresos. Puede tomar una violación significativa de la cadena de suministro de IA, similar al incidente de Solarwinds Sunburst, para impulsar la industria a tomar la amenaza en serio «, concluyó Wang de Turnitin.

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

65525

PSA: Las últimas actualizaciones de Apple encienden la inteligencia de Apple, incluso si lo apagó

Un UI 7 ha mejorado los controles parentales para bloquear el contenido explícito