
El gobernador de California, Gavin Newsom, vetó un proyecto de ley de seguridad de IA anterior después de un furioso rechazo de la industria.
El gobernador de California, Gavin Newsom, ha firmado una legislación innovadora que requiere que las compañías de inteligencia artificiales más grandes del mundo revelen públicamente sus protocolos de seguridad e informen incidentes críticos, anunciaron el lunes los legisladores estatales.
El Proyecto de Ley 53 del Senado marca el movimiento más significativo de California para regular la industria de IA que avanza rápidamente de Silicon Valley, al tiempo que mantiene su posición como un centro tecnológico global.
«Con una tecnología tan transformadora como la IA, tenemos la responsabilidad de apoyar esa innovación al tiempo que establece las barandillas de sentido común», dijo en un comunicado el senador estatal Scott Wiener, el patrocinador del proyecto de ley.
La nueva ley representa un exitoso segundo intento de Wiener de establecer las regulaciones de seguridad de la IA después de que Newsom vetó su proyecto de ley anterior, SB 1047, después de un furioso rechazo de la industria tecnológica.
También se produce después de un intento fallido de la administración Trump para evitar que los estados promulguen las regulaciones de IA, según el argumento de que crearían el caos regulatorio y la innovación lenta hecha por los Estados Unidos en una carrera con China.
La nueva ley dice que las principales compañías de IA tienen que revelar públicamente sus protocolos de seguridad en forma redactada para proteger la propiedad intelectual.
También deben informar incidentes críticos de seguridad, incluidas las amenazas de armas habilitadas para modelos, los principales ataques cibernéticos o la pérdida de control del modelo, dentro de 15 días para los funcionarios estatales.
La legislación también establece protecciones de denunciantes para empleados que revelan evidencia de peligros o violaciones.
Según Wiener, el enfoque de California difiere de la histórica Ley de IA de la Unión Europea, que requiere divulgaciones privadas a las agencias gubernamentales.
SB 53, mientras tanto, exige la divulgación pública para garantizar una mayor responsabilidad.
En lo que los defensores describen como una disposición mundial, la ley requiere que las empresas informen casos en los que los sistemas de IA participan en un comportamiento engañoso peligroso durante las pruebas.
Por ejemplo, si un sistema de IA se basa en la efectividad de los controles diseñados para evitar que ayude en la construcción de biowapon, los desarrolladores deben revelar el incidente si aumenta materialmente los riesgos de daño catastrófico.
El grupo de trabajo detrás de la ley fue dirigido por destacados expertos, incluido el Fei-Fei Li de la Universidad de Stanford, conocido como la «madrina de la IA».
© 2025 AFP
Citación: California promulga la ley de seguridad de IA dirigida a los gigantes tecnológicos (2025, 30 de septiembre) Consultado el 30 de septiembre de 2025 de https://techxplore.com/news/2025-09-california-ai-safety-law-tech.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.