La primera startup de ciberseguridad de Josh Lospinoso fue adquirida en 2017 por Raytheon/Forcepoint. La segunda, Shift5, trabaja con el ejército de EE. UU., operadores ferroviarios y aerolíneas, incluida JetBlue. Graduado de West Point en 2009 y becario de Rhodes, el excapitán del ejército de 36 años de edad pasó más de una década creación de herramientas de piratería para la Agencia de Seguridad Nacional y el Comando Cibernético de EE. UU.
Lospinoso le dijo recientemente a un subcomité de Servicios Armados del Senado cómo la inteligencia artificial puede ayudar a proteger las operaciones militares. El CEO/programador discutió el tema con The Associated Press y también cómo las vulnerabilidades de software en los sistemas de armas son una gran amenaza para el ejército de EE. UU. La entrevista ha sido editada para mayor claridad y duración.
P: En su testimonio, describió dos amenazas principales para las tecnologías habilitadas para IA: una es el robo. Eso se explica por sí mismo. El otro es el envenenamiento de datos. ¿Puedes explicar eso?
R: Una forma de pensar en el envenenamiento de datos es como desinformación digital. Si los adversarios pueden crear los datos que ven las tecnologías habilitadas para IA, pueden afectar profundamente la forma en que opera esa tecnología.
P: ¿Está ocurriendo el envenenamiento de datos?
R: No lo estamos viendo ampliamente. Pero ha ocurrido Uno de los casos más conocidos ocurrió en 2016. Microsoft lanzó un chatbot de Twitter llamado Tay que aprendió de las conversaciones que tenía en línea. Los usuarios maliciosos conspiraron para twittear un lenguaje abusivo y ofensivo. Tay comenzó a generar contenido incendiario. Microsoft lo desconectó.
P: La IA no son solo chatbots. Durante mucho tiempo ha sido parte integral de la ciberseguridad, ¿verdad?
R: La IA se usa en los filtros de correo electrónico para tratar de marcar y segregar el correo basura y los señuelos de phishing. Otro ejemplo son los puntos finales, como el programa antivirus en su computadora portátil o el software de detección de malware que se ejecuta en las redes. Por supuesto, los piratas informáticos ofensivos también usan IA para intentar vencer esos sistemas de clasificación. Eso se llama IA contradictoria.
P: Hablemos de los sistemas de software militar. Un 2018 alarmante Informe de la Oficina de Responsabilidad Gubernamental dijo que casi todos los sistemas de armas desarrollados recientemente tenían vulnerabilidades de misión crítica. ¿Y el Pentágono está pensando en poner IA en tales sistemas? R: Hay dos problemas aquí. Primero, necesitamos asegurar adecuadamente los sistemas de armas existentes. Esta es una deuda técnica que tenemos que va a llevar mucho tiempo pagar. Luego, existe una nueva frontera para asegurar los algoritmos de IA: cosas novedosas que instalaríamos. El informe de la GAO en realidad no hablaba de IA. Así que olvídate de la IA por un segundo. Si estos sistemas se mantuvieran como están, aún serían profundamente vulnerables.
Estamos hablando de ir más allá y agregar capacidades habilitadas para IA para cosas como mantenimiento mejorado e inteligencia operativa. Todo bien. Pero estamos construyendo sobre un castillo de naipes. Muchos sistemas tienen décadas de antigüedad y se han adaptado con tecnologías digitales. Aeronaves, vehículos terrestres, activos espaciales, submarinos. Ahora están interconectados. Estamos intercambiando datos dentro y fuera. Los sistemas son porosos, difíciles de actualizar y podrían ser atacados. Una vez que un atacante obtiene acceso, se acabó el juego.
A veces es más fácil construir una nueva plataforma que rediseñar los componentes digitales de los sistemas existentes. Pero hay un papel para la IA en la protección de estos sistemas. La IA se puede usar para defenderse si alguien intenta comprometerlos.
P: Usted testificó que detener la investigación de la IA, como algunos han instado, sería una mala idea porque favorecería a China y a otros competidores. Pero también le preocupa la carrera precipitada hacia los productos de IA. ¿Por qué? R: Odio sonar fatalista, pero el llamado caso de «uso quemado» parece aplicarse. Un producto lanzado al mercado a menudo se incendia (es pirateado, falla, causa daños no deseados). Y decimos: ‘Vaya, deberíamos haber incorporado seguridad’. Espero que el ritmo del desarrollo de la IA se acelere y es posible que no nos detengamos lo suficiente para hacerlo de manera segura y responsable. Al menos la Casa Blanca y el Congreso están discutiendo estos temas.
P: Parece que un montón de empresas, incluso en el sector de la defensa, se apresuran a anunciar productos de IA a medias. R: Todas las empresas tecnológicas y muchas empresas no tecnológicas han hecho un giro casi discordante hacia la IA. Se avecinan dislocaciones económicas. Los modelos de negocio van a cambiar fundamentalmente. Las dislocaciones ya están ocurriendo o están en el horizonte, y los líderes empresariales están tratando de no ser atrapados con los pies planos.
P: ¿Qué pasa con el uso de la IA en la toma de decisiones militares, como la selección de objetivos? R: No, categóricamente, no creo que los algoritmos de inteligencia artificial, los datos que recopilamos, estén listos para el horario de máxima audiencia para que un sistema de armas letales tome decisiones. Estamos tan lejos de eso.
© 2023 Prensa Asociada. Reservados todos los derechos. Este material no puede ser publicado, transmitido, reescrito o redistribuido sin permiso.
Citación: Preguntas y respuestas internas: Inteligencia artificial y ciberseguridad en tecnología militar (29 de mayo de 2023) consultado el 29 de mayo de 2023 en https://techxplore.com/news/2023-05-insider-qa-artificial-intelligence-cybersecurity.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.