in

La indecisión y los retrasos regulatorios obstaculizan la seguridad de la IA a nivel mundial

Lecciones aprendidas entre pares para la implementación de soluciones de centros de contacto como servicio

Los gobiernos buscan crear salvaguardas de seguridad en torno a la inteligencia artificial, pero los obstáculos y la indecisión están retrasando acuerdos entre países sobre prioridades y obstáculos a evitar.

En noviembre de 2023, Gran Bretaña publicó su Declaración de Bletchley, en la que acordó impulsar los esfuerzos globales para cooperar en la seguridad de la inteligencia artificial con 28 países, incluidos Estados Unidos, China y la Unión Europea.

Los esfuerzos para lograr regulaciones de seguridad en IA continuaron en mayo con la segunda Cumbre Global de IA, durante la cual el Reino Unido y la República de Corea lograron un compromiso de 16 empresas globales de tecnología de IA con un conjunto de resultados de seguridad basados ​​en ese acuerdo.

“La Declaración cumple con los objetivos clave de la cumbre al establecer un acuerdo y una responsabilidad compartidos sobre los riesgos, las oportunidades y un proceso de avance para la colaboración internacional en materia de seguridad e investigación de la IA de vanguardia, en particular a través de una mayor colaboración científica”, dijo Gran Bretaña en una declaración separada que acompaña a la declaración.

La Unión Europea Ley de IALa ley, aprobada en mayo, se convirtió en la primera ley importante del mundo que regula la inteligencia artificial. Incluye poderes de ejecución y sanciones, como multas de 38 millones de dólares o el 7% de sus ingresos globales anuales si las empresas incumplen la ley.

Luego de eso, en una respuesta tardía, un grupo bipartidista de senadores estadounidenses recomendó que el Congreso redactara una legislación de gasto de emergencia de 32 mil millones de dólares para IA y publicó un informe diciendo que Estados Unidos necesita aprovechar las oportunidades de la IA y abordar los riesgos.

“Los gobiernos deben involucrarse en la IA, en particular cuando se trata de cuestiones de seguridad nacional. Debemos aprovechar las oportunidades que ofrece la IA, pero también ser cautelosos con los riesgos. La única manera de que los gobiernos lo hagan es estar informados, y estar informado requiere mucho tiempo y dinero”, afirma Joseph Thacker, ingeniero principal de IA e investigador de seguridad en la empresa de seguridad SaaS. Aplicación Omnidijo a TechNewsWorld.

La seguridad de la IA es esencial para las plataformas SaaS

La seguridad de la IA cobra cada día mayor importancia. Casi todos los productos de software, incluidas las aplicaciones de IA, se crean ahora como aplicaciones de software como servicio (SaaS), señaló Thacker. Como resultado, garantizar la seguridad y la integridad de estas plataformas SaaS será fundamental.

“Necesitamos medidas de seguridad sólidas para las aplicaciones SaaS. Invertir en seguridad SaaS debería ser una prioridad máxima para cualquier empresa que desarrolle o implemente IA”, afirmó.

Los proveedores de SaaS existentes están incorporando inteligencia artificial a todo, lo que genera más riesgos. Las agencias gubernamentales deberían tener esto en cuenta, sostuvo.

Respuesta de EE. UU. a las necesidades de seguridad de la IA

Thacker quiere que el gobierno estadounidense adopte un enfoque más rápido y deliberado para enfrentar las realidades de la falta de estándares de seguridad de la IA. Sin embargo, elogió el compromiso de 16 importantes empresas de IA de priorizar la seguridad y el despliegue responsable de modelos de IA de vanguardia.

“Esto demuestra que cada vez hay más conciencia de los riesgos de la IA y una voluntad de comprometerse a mitigarlos. Sin embargo, la verdadera prueba será hasta qué punto estas empresas cumplen sus compromisos y cuán transparentes son en sus prácticas de seguridad”, afirmó.

Sin embargo, sus elogios no fueron suficientes en dos aspectos clave. No vio ninguna mención a las consecuencias ni a la alineación de incentivos, dos aspectos que son extremadamente importantes, añadió.

Según Thacker, exigir a las empresas de inteligencia artificial que publiquen marcos de seguridad demuestra responsabilidad, lo que permitirá conocer la calidad y la profundidad de sus pruebas. La transparencia permitirá el escrutinio público.

“También puede forzar el intercambio de conocimientos y el desarrollo de mejores prácticas en toda la industria”, observó.

Thacker también quiere una acción legislativa más rápida en este ámbito, pero cree que un movimiento significativo será un desafío para el gobierno estadounidense en el futuro cercano, dada la lentitud con la que suelen actuar los funcionarios estadounidenses.

“Esperamos que un grupo bipartidista que se reúna para hacer estas recomendaciones inicie muchas conversaciones”, dijo.

Aún se navega por las incógnitas de las regulaciones de la IA

La Cumbre Mundial sobre IA fue un gran paso adelante para salvaguardar la evolución de la IA, coincidió Melissa Ruzzi, directora de inteligencia artificial en AppOmni. Las regulaciones son clave.

“Pero antes de que podamos siquiera pensar en establecer regulaciones, es necesario realizar mucha más exploración”, dijo a TechNewsWorld.

Aquí es donde la cooperación entre empresas de la industria de la IA para unirse voluntariamente a iniciativas en torno a la seguridad de la IA es tan crucial, añadió.

“El primer desafío que hay que explorar es establecer umbrales y medidas objetivas. No creo que estemos preparados todavía para establecerlos en el campo de la IA en su conjunto”, afirmó Ruzzi.

Se necesitarán más investigaciones y datos para considerar cuáles podrían ser. Ruzzi agregó que uno de los mayores desafíos es que las regulaciones de IA sigan el ritmo de los avances tecnológicos sin obstaculizarlos.

Comencemos por definir el daño de la IA

Según David Brauchler, consultor principal de seguridad en Grupo NCCLos gobiernos deberían considerar la posibilidad de estudiar las definiciones de daño como punto de partida para establecer directrices sobre IA.

A medida que la tecnología de IA se vuelve más común, puede producirse un cambio en la clasificación del riesgo de la IA a partir de su capacidad computacional de entrenamiento. Esa norma fue parte de la reciente orden ejecutiva de Estados Unidos.

En cambio, el cambio podría orientarse hacia el daño tangible que la IA puede infligir en su contexto de ejecución. Señaló que varias leyes insinúan esta posibilidad.

“Por ejemplo, un sistema de IA que controla los semáforos debería incorporar muchas más medidas de seguridad que un asistente de compras, incluso si este último requiere más potencia computacional para entrenarse”, dijo Brauchler a TechNewsWorld.

Hasta el momento, no existe una visión clara de las prioridades de regulación para el desarrollo y el uso de la IA. Los gobiernos deberían priorizar el impacto real en las personas a la hora de implementar estas tecnologías. La legislación no debería intentar predecir el futuro a largo plazo de una tecnología que cambia rápidamente, observó.

Si surge un peligro presente a raíz de las tecnologías de inteligencia artificial, los gobiernos pueden responder en consecuencia una vez que esa información sea concreta. Los intentos de legislar de antemano esas amenazas probablemente sean un tiro al aire, aclaró Brauchler.

«Pero si buscamos prevenir daños a las personas mediante una legislación orientada a cada impacto, no tenemos que predecir cómo cambiará la IA en forma o moda en el futuro», dijo.

Equilibrio entre el control gubernamental y la supervisión legislativa

Thacker ve un delicado equilibrio entre control y supervisión a la hora de regular la IA. El resultado no debería ser sofocar la innovación con leyes severas o depender únicamente de la autorregulación de las empresas.

“Creo que un marco regulatorio flexible combinado con mecanismos de supervisión de alta calidad es el camino a seguir. Los gobiernos deberían establecer límites y hacer cumplir las normas, permitiendo al mismo tiempo que continúe el desarrollo responsable”, razonó.

Thacker ve algunas analogías entre la presión para regular la IA y la dinámica en torno a las armas nucleares. Advirtió que los países que logren dominar la IA podrían obtener importantes ventajas económicas y militares.

“Esto crea incentivos para que las naciones desarrollen rápidamente capacidades de IA. Sin embargo, la cooperación global en materia de seguridad de la IA es más factible que en el caso de las armas nucleares, ya que tenemos mayores efectos de red con Internet y las redes sociales”, observó.

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Kuo: el MacBook plegable de pantalla completa se retrasa hasta finales de 2027 como mínimo

OpenAI se opone al proyecto de ley de inteligencia artificial de California mientras los legisladores se preparan para votar

OpenAI se opone al proyecto de ley de inteligencia artificial de California mientras los legisladores se preparan para votar