in

Meta promete que no liberará sistemas de IA peligrosos

Meta promete que no liberará sistemas de IA peligrosos

Según un nuevo documento de política de Meta, el Marco de AI fronterizola compañía podría no publicar sistemas AI desarrollados internamente en ciertos escenarios de riesgo.

El documento define dos tipos de sistemas de IA que pueden clasificarse como «alto riesgo» o «riesgo crítico». En ambos casos, estos son sistemas que podrían ayudar a llevar a cabo ataques cibernéticos, químicos o biológicos.

Los sistemas clasificados como «alto riesgo» podrían facilitar tal ataque, aunque no en la misma medida como un sistema de «riesgo crítico», lo que podría dar lugar a resultados catastróficos. Estos podrían incluir, por ejemplo, hacerse cargo de un entorno corporativo o desplegar armas biológicas poderosas.

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Hola desarrollador: febrero de 2025 – Discover – Desarrollador de Apple

El Reino Unido no cambiará sus leyes para abordar los juegos fuera de línea

El Reino Unido no cambiará sus leyes para abordar los juegos fuera de línea