La inteligencia artificial puede ayudar a los trabajadores humanitarios a obtener información crucial para supervisar y anticipar mejor los riesgos, como el estallido o la escalada de un conflicto. Pero la implementación de sistemas en este contexto no está exenta de riesgos para los afectados, advierte un nuevo estudio.
Las organizaciones humanitarias han utilizado cada vez más tecnologías digitales y la pandemia de COVID-19 ha acelerado esta tendencia.
En Mozambique se utilizó un mapeo de desastres con apoyo de IA para acelerar la respuesta de emergencia, y el Banco Mundial utilizó sistemas de IA para predecir crisis alimentarias y los implementó en veintiún países.
Pero el estudio advierte que algunos usos de la IA pueden exponer a las personas a daños adicionales y presentar riesgos significativos para la protección de sus derechos.
El estudio, publicado en el «Manual de investigación sobre guerra e inteligencia artificial», es de la profesora Ana Beduschi, de la Facultad de Derecho de la Universidad de Exeter.
El profesor Beduschi afirmó que «las tecnologías de inteligencia artificial tienen el potencial de ampliar aún más el conjunto de herramientas de las misiones humanitarias en su preparación, respuesta y recuperación, pero deben establecerse salvaguardias para garantizar que los sistemas de inteligencia artificial utilizados para apoyar la labor de los trabajadores humanitarios no se transformen en herramientas de exclusión de las poblaciones que necesitan asistencia. También deben establecerse salvaguardias relativas al respeto y la protección de la privacidad de los datos».
«El imperativo humanitario de ‘no hacer daño’ debería ser primordial para todo despliegue de sistemas de IA en situaciones de conflicto y crisis».
El estudio señala que las organizaciones humanitarias que diseñan sistemas de IA deben garantizar la protección de datos desde el diseño y por defecto, para minimizar los riesgos de daño, ya sea que estén legalmente obligadas a hacerlo o no. También deben utilizar evaluaciones de impacto de la protección de datos (EIPD) para comprender los posibles impactos negativos de estas tecnologías.
También deberían establecerse mecanismos de reclamación para que las personas puedan impugnar decisiones automatizadas o tomadas por humanos con el apoyo de sistemas de IA si estas les afectaron negativamente.
El profesor Beduschi añadió: «Los sistemas de IA pueden analizar grandes cantidades de datos multidimensionales a velocidades cada vez más rápidas, identificar patrones en los datos y predecir el comportamiento futuro. Eso puede ayudar a las organizaciones a obtener información crucial para supervisar y anticipar mejor los riesgos, como el estallido o la escalada de un conflicto.
«Sin embargo, la implementación de sistemas de IA en el contexto humanitario no está exenta de riesgos para las poblaciones afectadas. Entre los problemas se incluyen la mala calidad de los datos utilizados para entrenar algoritmos de IA, la existencia de sesgos algorítmicos, la falta de transparencia en la toma de decisiones en materia de IA y las preocupaciones generalizadas sobre el respeto y la protección de la privacidad de los datos.
«Es fundamental que los trabajadores humanitarios respeten el imperativo humanitario de ‘no causar daño’ al decidir si desplegarán inteligencia artificial para apoyar su acción. En muchos casos, la solución sensata sería no depender de las tecnologías de inteligencia artificial, ya que pueden causar daños adicionales a las poblaciones civiles».
Más información:
Manual de investigación sobre guerra e inteligencia artificial
Citación:La IA puede ayudar a las organizaciones humanitarias en situaciones de conflicto armado o crisis, pero deben comprender los riesgos potenciales (9 de julio de 2024) recuperado el 11 de julio de 2024 de https://techxplore.com/news/2024-07-ai-humanitarian-armed-conflict-crisis.html
Este documento está sujeto a derechos de autor. Salvo que se haga un uso legítimo con fines de estudio o investigación privados, no se podrá reproducir ninguna parte del mismo sin autorización por escrito. El contenido se ofrece únicamente con fines informativos.
GIPHY App Key not set. Please check settings