Según un nuevo documento de política de Meta, el Marco de AI fronterizola compañía podría no publicar sistemas AI desarrollados internamente en ciertos escenarios de riesgo.
El documento define dos tipos de sistemas de IA que pueden clasificarse como «alto riesgo» o «riesgo crítico». En ambos casos, estos son sistemas que podrían ayudar a llevar a cabo ataques cibernéticos, químicos o biológicos.
Los sistemas clasificados como «alto riesgo» podrían facilitar tal ataque, aunque no en la misma medida como un sistema de «riesgo crítico», lo que podría dar lugar a resultados catastróficos. Estos podrían incluir, por ejemplo, hacerse cargo de un entorno corporativo o desplegar armas biológicas poderosas.
GIPHY App Key not set. Please check settings