Cuando el rey Carlos III de Gran Bretaña se puso de pie en las Cámaras del Parlamento el miércoles para presentar el programa legislativo propuesto por el nuevo gobierno laborista, los expertos en tecnología estaban preparados para cualquier mención de la inteligencia artificial (IA).
En el evento, en medio de la pompa colorida y la ceremonia arcana por la que el estado británico es famoso en la apertura estatal del Parlamento, lo que se pronunció en el discurso fue principalmente… una promesa de una futura legislación desprovista de cualquier detalle sobre la forma que ésta adoptará.
Cabeza hablante
El Discurso del Rey es el discurso en el que el gobierno electo de Gran Bretaña, en este caso la administración laborista recientemente elegida, presenta los proyectos de ley que planea convertir en ley el año próximo.
El monarca pronuncia el discurso, pero éste es redactado por el gobierno. Su papel es puramente constitucional y ceremonial.
Es difícil imaginar un contraste mayor que una ceremonia cuyos orígenes se remontan a cientos de años y temas como la IA, que encarna la promesa y el peligro del 21calle Tecnología del siglo XX.
El gobierno “buscará establecer la legislación adecuada para imponer exigencias a quienes trabajan en el desarrollo de los modelos de inteligencia artificial más potentes”, anunció el rey Carlos.
Sin embargo, más allá de centrarse en regular los modelos utilizados para la IA generativa, eso deja abiertos a la interpretación los planes del gobierno y su calendario. Pero incluso la voluntad de actuar marca un cambio de dirección respecto de la política de la administración conservadora depuesta de legislar sobre la IA dentro de límites estrechos.
Todo el mundo quiere regular la IA
Se había esperado que el nuevo gobierno fuera más allá, motivado por declaraciones generales de intenciones en el Manifiesto del Partido Laborista 2024.
“Nos aseguraremos de que nuestra estrategia industrial respalde el desarrollo del sector de la Inteligencia Artificial (IA) y elimine las barreras de planificación para nuevos centros de datos”, afirma el Manifiesto antes de abordar la necesidad de regulación.
“El Partido Laborista garantizará el desarrollo y uso seguro de los modelos de IA introduciendo una regulación vinculante para el puñado de empresas que desarrollan los modelos de IA más potentes y prohibiendo la creación de deepfakes sexualmente explícitos”.
La desaparición de estas modestas ambiciones podría ser una señal de que el gobierno aún tiene que determinar cómo debería ser una “regulación vinculante” en un momento en que otras leyes parecen más urgentes.
Al gobierno anterior le preocupaba que una regulación excesiva pudiera frenar el desarrollo. Asimismo, la falta de regulación conlleva el riesgo de que, cuando sea necesaria, sea demasiado tarde para actuar.
La UE, por supuesto, ya tiene su Ley de IA, mientras que Estados Unidos todavía está trabajando en una combinación de propuestas legislativas reforzadas por las órdenes ejecutivas de la administración Biden que describen los primeros principios.
¿Todavía es demasiado pronto?
Un comentario realizado por el defensor de la industria del código abierto OpenUK antes del discurso del Rey resume el dilema.
“El Reino Unido puede aprender de la Ley de Inteligencia Artificial de la UE, que probablemente resulte ser una advertencia demasiado prescriptiva y difícil de manejar sobre captura regulatoria, ya que solo las empresas más grandes pueden cumplirla, lo que sofoca la innovación en la UE”, dijo la directora ejecutiva de la organización, Amanda Brock.
Todavía era demasiado pronto para legislar de manera que se crearan muros y restricciones legales.
“Para que el Reino Unido siga siendo relevante a nivel mundial y para crear empresas de IA exitosas, la apertura es crucial. Esto permitirá que el ecosistema del Reino Unido aumente su estatus como líder mundial en IA de código abierto, solo detrás de Estados Unidos y China”, agregó.
Pero no todos están convencidos de que la estrategia de esperar y ver sea la correcta.
“La regulación no se trata solo de establecer restricciones al desarrollo de la IA; se trata de proporcionar la claridad y la orientación necesarias para promover una innovación segura y sostenible”, dijo Bruna de Castro e Silva, de Saidot, especialista en gobernanza de la IA.
“Mientras la UE avanza con la publicación de su Ley de IA oficial, las empresas del Reino Unido se han quedado esperando una orientación clara sobre cómo desarrollar e implementar la IA de forma segura y ética”.
Por eso la regulación de la IA se considera una tarea ingrata. Si se adopta un enfoque intervencionista, los expertos se pondrán de acuerdo para decir que se está sofocando una tecnología con un enorme potencial económico y social. Si se adopta un enfoque más cauteloso, otros dirán que no se está haciendo lo suficiente.
En noviembre pasado, la anterior administración conservadora de Rishi Sunak abordó el tema de la IA, Organización de una Cumbre mundial sobre seguridad de la IA con un gesto simbólico en la famosa instalación de descifrado de códigos de la Segunda Guerra Mundial, en las afueras de Londres, Bletchley Park.
En ese evento, varios grandes nombres de IA (OpenAI, Google DeepMind, Anthropic) se comprometieron a brindar a un nuevo grupo de trabajo de IA de Frontier acceso temprano a sus modelos para realizar evaluaciones de seguridad.
El nuevo gobierno hereda esa promesa, aunque para muchos otros parezca que la certeza sobre el régimen legislativo de IA del Reino Unido no está más cerca que entonces.
GIPHY App Key not set. Please check settings