Brechas sistémicas en la supervisión
Los analistas señalan que este no es solo un problema de Speek, sino un riesgo sistémico en todo el ecosistema del modelo fundamental de la IA, citando la falta de estandarización y gobernanza transfronteriza.
«A medida que el número de modelos de cimientos prolifere y las empresas construyen cada vez más aplicaciones o código además de ellos, se vuelve imperativo para los CIO y los líderes de TI establecer y seguir un sólido marco de diligencia debida de nivel múltiple», dijo Shah. «Ese marco debe garantizar la transparencia de datos de capacitación, una fuerte privacidad de los datos, políticas de gobernanza de seguridad y, al menos, verificaciones rigurosas de sesgos geopolíticos, influencia de censura y posibles violaciones de IP».
Los expertos recomiendan que los CIO revisen la transparencia de los datos de capacitación y los algoritmos, tengan en cuenta el contexto geopolítico y usen evaluaciones de terceros independientes y pruebas piloto controladas antes de pasar a la integración a gran escala. «También existe una creciente necesidad de certificación y marcos regulatorios para garantizar la neutralidad de la IA, la seguridad y el cumplimiento ético», dijo Ram. «Los estándares nacionales e internacionales podrían ayudar a las empresas a confiar en las salidas de IA al tiempo que mitigan los riesgos de los sistemas sesgados o influenciados políticamente».