La primera patada en la Legislativa Legislativa de la IA en California puede haber fallado, pero una nueva iteración tuvo éxito con la firma del lunes del Proyecto de Ley 53 del Senado (SB 53), La transparencia en la Ley de Inteligencia Artificial de Frontier (TFIA), por el gobernador del estado, Gavin Newsom.
California, dijo en un comunicado, ha demostrado que puede «establecer regulaciones para proteger a nuestras comunidades, al tiempo que garantiza que la creciente industria de la IA continúe prosperando. Esta legislación sorprende ese equilibrio».
El fallecimiento de SB 53 sigue al veto de Newsom el año pasado del proyecto de ley 1047 del Senado (SB 1047), conocido como el Innovación segura para la Ley de modelos de inteligencia artificial fronterizaque, si se promulgó en la ley, habría obligado a las compañías de IA a probar sus sistemas por seguridad antes de ser liberados.
En un pieza de opinión Escrito poco después de que SB 1047 fuera rechazado, Kjell Carlsson, jefe de estrategia de IA en Domino Data Lab, declaró: “Mientras que la intención de [it] Era loable, su enfoque era defectuoso. Se centró en organizaciones que son fáciles de regular frente a dónde se encuentra el riesgo real «.
SB 53, A liberar De la oficina de Newsom declarada, es una legislación que está «diseñada para mejorar la seguridad en línea instalando barandillas de sentido común en el desarrollo de modelos de inteligencia artificial fronteriza, ayudando a generar confianza pública y al mismo tiempo continúa estimulando la innovación en estas nuevas tecnologías».
«Esto podría enviar una señal de enfriamiento».
Entre los grupos que reaccionó rápidamente A la firma estaba la Cámara de Progreso, que se describe a sí misma como una Coalición de Política de la Industria de la Tecnología del Centro-Igual.
Robert SingletonDirector de Política y Asuntos Públicos del Grupo para California y el Occidente de los Estados Unidos, dijo que el estado «siempre ha ofrecido una toma justa para los nuevos innovadores, por eso ha florecido nuestro sector tecnológico. Pero esto podría enviar una señal escalofriante a la próxima generación de empresarios que desean construir aquí en California».
Karthi Panalista senior del Grupo Everest, tenía un punto de vista diferente, describiendo a SB 53 como «un paso histórico que requiere que los proveedores de IA fronterizos hagan públicos sus prácticas de seguridad e informes de incidentes. Al poner esta información al aire libre, la ley reduce la incertidumbre para las empresas y facilita la adopción de IA en áreas donde la confianza y el gobierno son esenciales».
También va más allá de la Ley de AI de la UE al ordenar la divulgación pública de problemas como ataques cibernéticos o comportamiento del modelo engañoso, garantizar la regulación y la tecnología evolucionando en conjunto, dijo.
En particular, dijo P, el proyecto de ley «obtuvo el respaldo de antrópico y evitó una fuerte oposición de otros proveedores líderes, lo que sugiere que entra el equilibrio correcto entre la supervisión y la innovación. Es probable que este equilibrio acelere el impulso detrás de la IA responsable, convirtiendo lo que ya era una prioridad creciente en un estándar global de movimiento más rápido».
Podría ser un plan para otros estados
Además, dijo: «Los efectos de golpe podrían ser de gran alcance: otros estados pueden usar SB 53 como plantilla, las empresas aumentarán las expectativas de transparencia en su adquisición, y los reguladores globales pueden mirar a California tal como lo hicieron a Europa después de GDPR».
Alla Valenteanalista principal de Forrester Research, acordó. «Sin lugar a dudas, el SB 53 de California es monumental por varias razones», dijo. «En particular, California tiene un número desproporcionado de grandes compañías de IA. Más del 50% de los jugadores de tecnología de IA más grandes del mundo tienen su sede allí, por lo que el impacto es directo».
SB 53, dijo, viene «un año después de que el gobernador Newsom vetó a SB 1047 después de que los cabilderos de tecnología y las grandes compañías de IA se recuperaron en su contra por ser demasiado restrictivo. Además, SB 53 se presenta en los talones de Meta el anuncio de un súper PAC a los candidatos a nivel estatal que son suficientes para la AI, o en otras palabras, que sean suficientes. Future, está en la Cámara de Representantes, no en el Congreso «.
Valente señaló que SB 53 se centra en la transparencia y la responsabilidad, pero no tiene el mismo grado de requisitos de seguridad que SB 1047. «En este sentido, es el punto medio entre la seguridad y la innovación», dijo. «[It] puede convertirse muy bien en un plan para que otros estados adopten un marco de políticas de IA centrado en la transparencia y la responsabilidad y cuenta con el apoyo de un gigante de la tecnología de IA, antrópico «.
Los estados que buscan gobernar el mal uso intencional de la IA, pero que no quieren llegar a requerir un marco de riesgo, probablemente modelará sus facturas después de Texas’s Acto de traigadijo.
Shane TierneyGerente Senior del Programa de Gobierno, Riesgo y Cumplimiento (GRC) en Drata, una plataforma basada en la nube que ayuda a las organizaciones a mantener cumpliendo con los requisitos reglamentarios, agregó que el estatuto, aunque está dirigido directamente a los principales laboratorios de IA, indica un cambio de expectativas para la industria «.
Es probable que las prácticas como publicar tarjetas modelo, documentar estrategias de mitigación de riesgos y establecer libros de jugadas de respuesta a incidentes se conviertan en características estándar del desarrollo responsable de la IA, incluso fuera del alcance inmediato de la ley, dijo.
Tierney señaló: «Incrustar la seguridad, la seguridad y la transparencia en la innovación temprano ayuda a las empresas a construir y mantener la confianza con sus clientes y socios. Las compañías que tratan la IA responsable como un imperativo estratégico en lugar de una casilla de verificación regulatoria definirán la próxima era de innovación de IA».
He also said that California’s approach “is expected to influence both state and federal policymaking. Although SB 53 contains a pre-emption clause preventing local ordinances within California from adopting conflicting AI safety requirements, it does not limit other states from enacting their own legislation. Several jurisdictions, including Colorado, New York, Massachusetts, and Washington, are actively considering AI regulatory measures, and California’s statute is likely to accelerate esos esfuerzos «.