in

La ONU insta a una moratoria sobre el uso de inteligencia artificial que pone en peligro los derechos humanos

La ONU insta a una moratoria sobre el uso de inteligencia artificial que pone en peligro los derechos humanos

La ONU insta a una moratoria sobre el uso de inteligencia artificial que pone en peligro los derechos humanos

En esta foto de archivo del miércoles 9 de diciembre de 2020, Michelle Bachelet, Alta Comisionada de las Naciones Unidas para los Derechos Humanos, habla durante una conferencia de prensa en la sede europea de las Naciones Unidas en Ginebra, Suiza. El jefe de derechos humanos de la ONU está pidiendo una moratoria sobre el uso de tecnología de inteligencia artificial que representa un grave riesgo para los derechos humanos, incluidos los sistemas de escaneo facial que rastrean a las personas en espacios públicos. Michelle Bachelet también dice que los países deberían prohibir expresamente las aplicaciones de IA que no cumplan con las leyes internacionales de derechos humanos. Las aplicaciones que deberían prohibirse incluyen los sistemas gubernamentales de «puntuación social» que juzgan a las personas en función de su comportamiento y ciertas herramientas basadas en inteligencia artificial que clasifican a las personas por origen étnico o género.Crédito: Martial Trezzini / Keystone a través de AP, archivo

El jefe de derechos humanos de la ONU está pidiendo una moratoria sobre el uso de tecnología de inteligencia artificial que representa un grave riesgo para los derechos humanos, incluidos los sistemas de escaneo facial que rastrean a las personas en espacios públicos.

Michelle Bachelet, Alta Comisionada de la ONU para los Derechos Humanos, también dijo el miércoles que los países deberían prohibir expresamente las aplicaciones de IA que no cumplan con las leyes internacionales de derechos humanos.

Las aplicaciones que deberían prohibirse incluyen los sistemas gubernamentales de «puntuación social» que juzgan a las personas en función de su comportamiento y ciertas herramientas basadas en inteligencia artificial que clasifican a las personas en grupos, por ejemplo, por origen étnico o género.

Las tecnologías basadas en inteligencia artificial pueden ser una fuerza para el bien, pero también pueden «tener efectos negativos, incluso catastróficos, si se utilizan sin tener en cuenta cómo afectan los derechos humanos de las personas», dijo Bachelet en un comunicado.

Sus comentarios llegaron junto con un nuevo informe de la ONU que examina cómo los países y las empresas se han apresurado a aplicar sistemas de inteligencia artificial que afectan la vida y los medios de subsistencia de las personas sin establecer las salvaguardias adecuadas para prevenir la discriminación y otros daños.

«No se trata de no tener IA», dijo a los periodistas Peggy Hicks, directora de compromiso temático de la oficina de derechos humanos, mientras presentaba el informe en Ginebra. «Se trata de reconocer que si la inteligencia artificial se va a utilizar en estas áreas de funciones muy críticas de derechos humanos, debe hacerse de la manera correcta. Y simplemente aún no hemos establecido un marco que garantice que eso suceda. «

Bachelet no pidió una prohibición absoluta de la tecnología de reconocimiento facial, pero dijo que los gobiernos deberían detener el escaneo de las características de las personas en tiempo real hasta que puedan demostrar que la tecnología es precisa, no discrimina y cumple con ciertos estándares de privacidad y protección de datos.

Si bien los países no fueron mencionados por su nombre en el informe, China ha estado entre los países que han implementado tecnología de reconocimiento facial, particularmente para la vigilancia en la región occidental de Xinjiang, donde viven muchos de los uyghers minoritarios. Los autores clave del informe dijeron que nombrar países específicos no formaba parte de su mandato y que hacerlo incluso podría ser contraproducente.

«En el contexto chino, como en otros contextos, nos preocupa la transparencia y las aplicaciones discriminatorias que se dirigen a comunidades particulares», dijo Hicks.

Citó varios casos judiciales en los Estados Unidos y Australia en los que se había aplicado incorrectamente la inteligencia artificial.

El informe también expresa cautela sobre las herramientas que intentan deducir los estados emocionales y mentales de las personas mediante el análisis de sus expresiones faciales o movimientos corporales, y dice que dicha tecnología es susceptible de prejuicios, malas interpretaciones y carece de base científica.

«El uso de sistemas de reconocimiento de emociones por parte de las autoridades públicas, por ejemplo, para señalar a las personas para las detenciones o detenciones policiales o para evaluar la veracidad de las declaraciones durante los interrogatorios, corre el riesgo de socavar los derechos humanos, como los derechos a la privacidad, a la libertad y a una justicia juicio «, dice el informe.

Las recomendaciones del informe se hacen eco del pensamiento de muchos líderes políticos de las democracias occidentales, que esperan aprovechar el potencial económico y social de la IA al mismo tiempo que abordan las preocupaciones crecientes sobre la confiabilidad de las herramientas que pueden rastrear y perfilar a las personas y hacer recomendaciones sobre quién tiene acceso a trabajos y préstamos. y oportunidades educativas.

Los reguladores europeos ya han tomado medidas para controlar las aplicaciones de IA más riesgosas. Las regulaciones propuestas descritas por los funcionarios de la Unión Europea este año prohibirían algunos usos de la inteligencia artificial, como el escaneo en tiempo real de los rasgos faciales, y controlarían estrictamente otros que podrían amenazar la seguridad o los derechos de las personas.

La administración del presidente estadounidense Joe Biden ha expresado preocupaciones similares, aunque aún no ha descrito un enfoque detallado para reducirlas. Un grupo recién formado llamado Trade and Technology Council, liderado conjuntamente por funcionarios estadounidenses y europeos, ha tratado de colaborar en el desarrollo de reglas compartidas para la IA y otras políticas tecnológicas.

Los esfuerzos para limitar los usos más riesgosos de la IA han sido respaldados por Microsoft y otros gigantes tecnológicos de EE. UU. Que esperan guiar las reglas que afectan a la tecnología. Microsoft ha trabajado y ha proporcionado fondos a la oficina de derechos de la ONU para ayudar a mejorar el uso de la tecnología, pero la financiación del informe provino del presupuesto regular de la oficina de derechos, dijo Hicks.

Los países occidentales han estado a la vanguardia en expresar su preocupación por el uso discriminatorio de la IA.

«Si piensas en las formas en que la inteligencia artificial podría usarse de manera discriminatoria, o para fortalecer aún más las tendencias discriminatorias, da bastante miedo», dijo la secretaria de Comercio de Estados Unidos, Gina Raimondo, durante una conferencia virtual en junio. «Tenemos que asegurarnos de no dejar que eso suceda».

Ella estaba hablando con Margrethe Vestager, la vicepresidenta ejecutiva de la Comisión Europea para la era digital, quien sugirió que algunos usos de la IA deberían estar completamente prohibidos en «democracias como la nuestra». Citó la puntuación social, que puede cerrar los privilegios de alguien en la sociedad, y el «uso amplio y generalizado de la identificación biométrica remota en el espacio público».


Los organismos de control de datos de la UE quieren que se prohíba el reconocimiento facial de IA


© 2021 The Associated Press. Reservados todos los derechos. Este material no puede ser publicado, difundido, reescrito o redistribuido sin permiso.

Citación: ONU insta a una moratoria sobre el uso de IA que pone en peligro los derechos humanos (2021, 15 de septiembre) recuperado el 15 de septiembre de 2021 de https://techxplore.com/news/2021-09-urges-moratorium-ai-imperils-human.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

El futuro sin contraseña está aquí para su cuenta de Microsoft |  Blog de seguridad de Microsoft

Satya Nadella en LinkedIn: el futuro sin contraseña está aquí para su cuenta de Microsoft | Microsoft

Skatebird Review Misión de conversación de Beulah

Revisión de Skatebird – Ni búhos ni aves – PC Invasion