Esto significa que el modelo en sí no tiene acceso a las credenciales en la bóveda de 1 paso de paso. Entonces, cuando se le solicite iniciar sesión en AWS, por ejemplo, debe seguir un flujo de permiso separado, bien definido y a través de OAuth o una herramienta de corredor de credenciales dedicada. Los usuarios deben ver indicaciones que pueden entender y saber exactamente a qué están otorgando acceso.
Además, las credenciales sin procesar nunca deben ingresar al contexto LLM. «Los secretos sin procesar no tienen lugar en las indicaciones, incrustaciones o datos ajustados», enfatizó Srinivas. Enviar credenciales a través de un canal de datos dirigido por LLM es «el equivalente a escribir en su aviso:» Mi token API para AWS es xxxxx, continúe y úselo en mi nombre «.
La auditabilidad también es crítica; Todas las acciones deben dejar un rastro de auditoría para que las empresas tengan visibilidad sobre quién (humano o sintético) accedió a qué y qué acciones tuvieron lugar, según Srinivas. «No habrá una toma de decisiones de IA oculta, escaladas silenciosas o etiquetas vagas ‘impulsadas por AI’ sin explicación».