La inteligencia artificial (IA), que ahora forma parte integral de nuestra vida cotidiana, se está volviendo cada vez más accesible y omnipresente. En consecuencia, existe una tendencia creciente a que los avances de la IA se aprovechen para actividades delictivas.
Una preocupación importante es la capacidad que proporciona la IA a los delincuentes para: producir imágenes y vídeos que muestran material real o falso de explotación sexual infantil.
Esto es particularmente importante aquí en Australia. El Centro de Investigación Cooperativa de Seguridad Cibernética ha identificado al país como el El tercer mercado más grande para material de abuso sexual en línea.
Entonces, ¿cómo se está utilizando la IA para crear material de explotación sexual infantil? ¿Se está volviendo más común? Y, lo que es más importante, ¿cómo combatimos este delito para proteger mejor a los niños?
Se extiende más rápido y más ampliamente
En los Estados Unidos, la Departamento de Seguridad Nacional se refiere al material de abuso sexual infantil creado por IA como «la producción, a través de medios digitales, de material de abuso sexual infantil y otras imágenes sexualizadas de niños total o parcialmente artificiales o creadas digitalmente».
La agencia ha reconocido una variedad de formas en que se utiliza la IA para crear este material. Esto incluye imágenes o videos generados que contienen niños reales o el uso de tecnologías deepfake, como rejuvenecimiento o el uso indebido de imágenes inocentes (o audio o vídeo) de una persona para generar contenido ofensivo.
Falsificaciones profundas Se refieren a contenidos multimedia hiperrealistas generados mediante técnicas y algoritmos de inteligencia artificial. Esto significa que cualquier material podría ser parcial o totalmente falso.
El Departamento de Seguridad Nacional también ha encontrado guías sobre cómo utilizar IA para generar material de explotación sexual infantil en la web oscura.
La empresa de tecnología de seguridad infantil Espina También ha identificado una variedad de formas en que se utiliza la IA para crear este material. Señaló en un informe que la IA puede impedir la identificación de las víctimas y también puede crear nuevas formas de victimizar y revictimizar a los niños.
Es preocupante que la facilidad con la que se puede utilizar la tecnología contribuya a generar una mayor demanda. Los delincuentes pueden compartir información sobre cómo fabricar este material (como descubrió el Departamento de Seguridad Nacional), lo que hace que el abuso siga proliferando.
¿Qué tan común es?
En 2023, una investigación de la Internet Watch Foundation reveló Estadísticas alarmantesEn un mes, un foro de la dark web albergó 20.254 imágenes generadas por IA. Los analistas evaluaron que 11.108 de estas imágenes probablemente eran delictivas. Utilizando las leyes del Reino Unido, identificaron 2.562 que cumplían los requisitos legales para el material de explotación sexual infantil. Otras 416 eran imágenes prohibidas por la ley.
De manera similar, el Centro Australiano para Contrarrestar la Explotación Infantil, creado en 2018, recibió Más de 49.500 informes de material de explotación sexual infantil en el ejercicio económico 2023-2024, un aumento de aproximadamente 9.300 respecto al año anterior.
Acerca de 90% de materiales deepfake Se cree que los mensajes en línea son explícitos. Si bien no sabemos exactamente cuántos incluyen niños, las estadísticas anteriores indican que muchos lo harían.
Estos datos ponen de relieve la rápida proliferación de la IA en la producción de material de explotación sexual infantil realista y dañino que es difícil de distinguir de las imágenes auténticas.
Esto se ha convertido en una preocupación nacional importante. El problema se puso de relieve especialmente durante la pandemia de COVID, cuando se produjo un marcado aumento de la producción y distribución de material de explotación.
Esta tendencia ha motivado una investigación y una posterior envío El Centro de Investigación Cooperativa sobre Seguridad Cibernética ha presentado una denuncia ante el Comité Parlamentario Conjunto sobre Aplicación de la Ley. A medida que las tecnologías de inteligencia artificial se vuelvan cada vez más avanzadas y accesibles, el problema solo empeorará.
El superintendente detective Frank Rayner del centro de investigación ha dicho«Las herramientas a las que las personas pueden acceder en línea para crear y modificar mediante IA se están expandiendo y también se están volviendo más sofisticadas. Puedes ingresar a un navegador web e ingresar tus indicaciones y convertir texto a imagen o texto a video y obtener un resultado en minutos».
Hacer más difícil la labor policial
Los métodos tradicionales de identificación de material de explotación sexual infantil, que se basan en el reconocimiento de imágenes conocidas y el seguimiento de su circulación, son inadecuados frente a la capacidad de la IA para generar rápidamente contenido nuevo y único.
Además, el realismo creciente del material de explotación generado por IA aumenta la carga de trabajo de la unidad de identificación de víctimas de la Policía Federal Australiana. La comandante de la Policía Federal, Helen Schneider, ha dicho«A veces resulta difícil distinguir entre la realidad y la ficción, por lo que podemos desperdiciar recursos si analizamos imágenes que no contienen víctimas infantiles reales. Esto significa que hay víctimas que permanecen en situaciones dañinas durante más tiempo».
Sin embargo, estrategias emergentes Se están desarrollando estrategias para abordar estos desafíos.
Un enfoque prometedor implica Aprovechar la propia tecnología de IA para combatir el contenido generado por IA. Los algoritmos de aprendizaje automático pueden entrenarse para detectar anomalías sutiles y patrones específicos de las imágenes generadas por IA, como inconsistencias en la iluminación, la textura o los rasgos faciales que el ojo humano podría pasar por alto.
La tecnología de IA también se puede utilizar para detectar material de explotación, incluido contenido que antes estaba oculta. Esto se hace reuniendo grandes conjuntos de datos de Internet, que luego son evaluados por expertos.
La colaboración es clave
De acuerdo a EspinaCualquier respuesta al uso de la IA en material de explotación sexual infantil debería involucrar a los desarrolladores y proveedores de IA, las plataformas de alojamiento de datos, las plataformas sociales y los motores de búsqueda. Trabajar juntos ayudaría a minimizar la posibilidad de que la IA generativa se siga utilizando de forma indebida.
En 2024, las principales empresas de redes sociales como Google, Meta y Amazon se unieron para formar una alianza para luchar contra el uso de IA para ese material abusivo. directores ejecutivos de las principales empresas de redes sociales También se enfrentó a un comité del Senado de Estados Unidos sobre cómo están previniendo la explotación sexual infantil en línea y el uso de inteligencia artificial para crear estas imágenes.
La colaboración entre las empresas tecnológicas y las fuerzas del orden es esencial para luchar contra la proliferación de este material. Si aprovechan sus capacidades tecnológicas y trabajan juntas de forma proactiva, pueden abordar este grave problema nacional con mayor eficacia que si lo hicieran por separado.
Este artículo se vuelve a publicar desde La conversación bajo una licencia Creative Commons. Lea el artículo original.
Citación: Deepfake, ¿inteligencia artificial o realidad? Cada vez es más difícil para la policía proteger a los niños de la explotación sexual en línea (25 de junio de 2024) recuperado el 11 de julio de 2024 de https://techxplore.com/news/2024-06-deepfake-ai-real-harder-police.html
Este documento está sujeto a derechos de autor. Salvo que se haga un uso legítimo con fines de estudio o investigación privados, no se podrá reproducir ninguna parte del mismo sin autorización por escrito. El contenido se ofrece únicamente con fines informativos.
GIPHY App Key not set. Please check settings