in

Cómo Europa está liderando el mundo en el impulso para regular la IA

Cómo Europa está liderando el mundo en el impulso para regular la IA

La aplicación ChatGPT se ve en un iPhone en Nueva York, el jueves 18 de mayo de 2023. Las autoridades de todo el mundo están compitiendo para controlar la inteligencia artificial, incluso en la Unión Europea, donde la legislación innovadora superará un obstáculo clave. Los legisladores del Parlamento Europeo votarán el miércoles 14 de junio sobre la propuesta, junto con las controvertidas enmiendas de reconocimiento facial. Crédito: AP Photo/Richard Drew, archivo

Las autoridades de todo el mundo están compitiendo para controlar la inteligencia artificial, incluso en la Unión Europea, donde la legislación innovadora superará un obstáculo clave el miércoles.

Los legisladores del Parlamento Europeo deben votar sobre la propuesta, incluidas las controvertidas enmiendas sobre el reconocimiento facial, a medida que avanza hacia la aprobación.

Un esfuerzo de un año por parte de Bruselas para elaborar barandillas para la IA se ha vuelto más urgente a medida que los rápidos avances en chatbots como ChatGPT muestran los beneficios que la tecnología emergente puede traer y los nuevos peligros que plantea.

Aquí hay un vistazo a la Ley de Inteligencia Artificial de la UE:

¿CÓMO FUNCIONAN LAS REGLAS?

La medida, propuesta por primera vez en 2021, regirá cualquier producto o servicio que utilice un sistema de inteligencia artificial. La ley clasificará los sistemas de IA según cuatro niveles de riesgo, desde mínimo hasta inaceptable.

Las aplicaciones más riesgosas, como la contratación o la tecnología dirigida a los niños, enfrentarán requisitos más estrictos, que incluyen ser más transparentes y utilizar datos precisos.

Las infracciones generarán multas de hasta 30 millones de euros (33 millones de dólares) o el 6% de los ingresos globales anuales de una empresa, que en el caso de empresas tecnológicas como Google y Microsoft podrían ascender a miles de millones.

Dependerá de los 27 estados miembros de la UE hacer cumplir las reglas.

¿CUÁLES SON LOS RIESGOS?

Uno de los principales objetivos de la UE es protegerse contra cualquier amenaza de IA para la salud y la seguridad y proteger los derechos y valores fundamentales.

Eso significa que algunos usos de la IA están absolutamente prohibidos, como los sistemas de «puntuación social» que juzgan a las personas en función de su comportamiento.

También está prohibida la IA que explota a las personas vulnerables, incluidos los niños, o utiliza la manipulación subliminal que puede resultar en daño, por ejemplo, un juguete parlante interactivo que fomenta un comportamiento peligroso.

Las herramientas policiales predictivas, que procesan datos para pronosticar quién cometerá delitos, también están fuera.

Los legisladores reforzaron la propuesta original de la Comisión Europea, el poder ejecutivo de la UE, ampliando la prohibición del reconocimiento facial remoto y la identificación biométrica en público. La tecnología escanea a los transeúntes y usa IA para hacer coincidir sus rostros u otros rasgos físicos con una base de datos.

Pero se enfrenta a un desafío de última hora después de que un partido de centroderecha agregó una enmienda que permite excepciones policiales, como encontrar niños desaparecidos, identificar a sospechosos involucrados en delitos graves o prevenir amenazas terroristas.

«No queremos vigilancia masiva, no queremos puntuación social, no queremos vigilancia policial predictiva en la Unión Europea, y punto. Eso es lo que hace China, no nosotros», dijo Dragos Tudorache, miembro rumano de la Unión Europea. Parlamento que codirige su trabajo sobre la Ley de IA, dijo el martes.

Los sistemas de IA utilizados en categorías como el empleo y la educación, que afectarían el curso de la vida de una persona, enfrentan requisitos estrictos, como ser transparentes con los usuarios y tomar medidas para evaluar y reducir los riesgos de sesgo de los algoritmos.

La mayoría de los sistemas de inteligencia artificial, como los videojuegos o los filtros de spam, entran en la categoría de riesgo bajo o nulo, dice la comisión.

¿QUÉ PASA CON CHATGPT?

La medida original apenas mencionaba los chatbots, principalmente al requerir que se etiquetaran para que los usuarios sepan que están interactuando con una máquina. Posteriormente, los negociadores agregaron disposiciones para cubrir la IA de propósito general como ChatGPT después de que explotó en popularidad, sometiendo esa tecnología a algunos de los mismos requisitos que los sistemas de alto riesgo.

Una adición clave es el requisito de documentar minuciosamente cualquier material con derechos de autor utilizado para enseñar a los sistemas de IA cómo generar texto, imágenes, video y música que se parezcan al trabajo humano.

Eso permitiría a los creadores de contenido saber si sus publicaciones de blog, libros digitales, artículos científicos o canciones se han utilizado para entrenar algoritmos que alimentan sistemas como ChatGPT. Entonces podrían decidir si su trabajo ha sido copiado y buscar reparación.

¿POR QUÉ SON TAN IMPORTANTES LAS NORMAS DE LA UE?

La Unión Europea no es un gran jugador en el desarrollo de IA de vanguardia. Ese papel lo asumen EE.UU. y China. Pero Bruselas a menudo juega un papel que marca tendencias con regulaciones que tienden a convertirse en estándares globales de facto.

El tamaño del mercado único de la UE, con 450 millones de consumidores, hace que sea más fácil para las empresas cumplir que desarrollar diferentes productos para diferentes regiones, dicen los expertos.

Pero no se trata sólo de una represión. Al establecer reglas comunes para la IA, Bruselas también está tratando de desarrollar el mercado infundiendo confianza entre los usuarios.

«El hecho de que esta sea una regulación que se pueda hacer cumplir y que las empresas sean responsables es significativo» porque otros lugares como Estados Unidos, Singapur y Gran Bretaña simplemente han ofrecido «orientación y recomendaciones», dijo Kris Shashak, tecnólogo y miembro principal de la Consejo Irlandés para las Libertades Civiles.

«Otros países podrían querer adaptar y copiar» las reglas de la UE, dijo.

Otros están jugando a ponerse al día. Gran Bretaña, que abandonó la UE en 2020, compite por un puesto en el liderazgo de la IA. El primer ministro Rishi Sunak planea organizar una cumbre mundial sobre seguridad de IA este otoño.

“Quiero hacer del Reino Unido no solo el hogar intelectual, sino también el hogar geográfico de la regulación de seguridad global de la IA”, dijo Sunak en una conferencia tecnológica esta semana.

La cumbre de Gran Bretaña reunirá a personas de «academias, empresas y gobiernos de todo el mundo» para trabajar en «un marco multilateral», dijo.

¿QUE SIGUE?

Podrían pasar años antes de que las reglas entren en vigencia por completo. La votación será seguida por negociaciones a tres bandas en las que participarán los países miembros, el Parlamento y la Comisión Europea, posiblemente enfrentando más cambios a medida que intentan ponerse de acuerdo sobre la redacción.

Se espera la aprobación final para fines de este año, seguida de un período de gracia para que las empresas y organizaciones se adapten, a menudo alrededor de dos años.

Para llenar el vacío antes de que la legislación entre en vigencia, Europa y EE. UU. están redactando un código de conducta voluntario que los funcionarios prometieron a fines de mayo que se redactaría en unas semanas y podría expandirse a otros «países de ideas afines».

© 2023 Prensa Asociada. Reservados todos los derechos. Este material no puede ser publicado, transmitido, reescrito o redistribuido sin permiso.

Citación: Cómo Europa lidera el mundo en el impulso para regular la IA (2023, 14 de junio) recuperado el 14 de junio de 2023 de https://techxplore.com/news/2023-06-europe-world-ai.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

PSA: deshabilitar iCloud Drive en iOS 17 ya no desactiva la sincronización de CloudKit de aplicaciones de terceros