La empresa de tecnología francesa Mistral AI ha lanzado un nueva herramienta de moderación en línea Basado en el modelo de IA Ministral 8B que puede detectar y eliminar publicaciones ofensivas o ilegales de forma automática. (Sin embargo, todavía existe el riesgo de que se cometan algunos errores de juicio).
De acuerdo a crujido tecnológico, por ejemplo, algunos estudios han demostrado que las publicaciones sobre personas con discapacidades pueden marcarse como “negativas” o “tóxicas” aunque ese no sea el caso.
Inicialmente, la nueva herramienta de moderación de Mistral admitirá árabe, inglés, francés, italiano, japonés, chino, coreano, portugués, ruso, español y alemán, y más adelante habrá más idiomas. Mistral lanzó en julio un gran modelo de lenguaje que puede generar tramos de código más largos más rápido que otros modelos de código abierto.
GIPHY App Key not set. Please check settings