Mantenga a los humanos informados
Si bien tener empleados humanos como parte de los flujos de trabajo de genAI puede ralentizar las operaciones y, por lo tanto, reducir la eficiencia que fue la razón para usar genAI en primer lugar, Taylor dijo que a veces una pequeña verificación por parte de un humano puede ser efectiva.
Citó el ejemplo de un chatbot que le dijo a un cliente de Air Canada que podía comprar un boleto inmediatamente y obtener un crédito por duelo más tarde, lo cual no es la política de la aerolínea. Un tribunal civil canadiense dictaminó que la aerolínea era responsable de reembolsar al cliente porque el chatbot se presentó como parte del sitio web de la compañía.
“Aunque tener un humano en el circuito puede no ser técnicamente factible mientras se lleva a cabo el chat, ya que frustraría el propósito de usar un chatbot, ciertamente es posible tener un humano en el circuito inmediatamente después del hecho, tal vez de manera esporádica”, dijo Taylor. “[The person] “Podríamos revisar el chatbot para ver si está alucinando para poder detectarlo rápidamente y contactar a los usuarios afectados y también ajustar la solución para evitar (con suerte) que tales alucinaciones vuelvan a ocurrir”.
Prepárese para familiarizarse con los reguladores
Otra consideración de cumplimiento con genAI será la necesidad de explicar muchos más detalles técnicos de los que históricamente los CIO han tenido que explicar cuando hablan con los reguladores.
“El CIO debe estar preparado para compartir una cantidad bastante significativa de información, como hablar sobre todo el proceso de flujo de trabajo”, dijo Anzelc de Three Arc. “’Esta es nuestra intención’. Enumerar toda la información subyacente, detallar lo que realmente sucedió y por qué sucedió. Linaje completo de datos. ¿genAI se volvió rebelde y extrajo datos de alguna fuente de Internet o incluso los inventó? ¿Cuál fue la construcción algorítmica? Ahí es donde las cosas se ponen realmente difíciles”.
Después de un incidente, las empresas deben hacer correcciones rápidas para evitar que el problema se repita. “Podría requerir un rediseño o ajuste de cómo funciona la herramienta o la forma en que fluyen las entradas y salidas. Al mismo tiempo, se deben corregir las brechas en las métricas de monitoreo que se hayan descubierto para que cualquier problema futuro se pueda identificar más rápidamente”, dijo Anzelc.
También es crucial encontrar una forma significativa de calcular el impacto de un incidente, añadió.
“Esto podría tener un impacto financiero para los clientes, como fue el caso del chatbot de Air Canada, u otros problemas relacionados con el cumplimiento. Los ejemplos incluyen el posible uso de información difamatoria Declaraciones hechas recientemente por el chatbot de X, Grok o acciones de los empleados como la Universidad del profesor de Texas que reprobó una materia entera “Porque una herramienta de IA generativa afirmó incorrectamente que todas las tareas habían sido generadas por IA y no por estudiantes humanos”, dijo Anzelc.
“Comprenda las implicancias adicionales en materia de cumplimiento normativo, tanto desde una perspectiva regulatoria como de los contratos y políticas que tiene establecidos con clientes, proveedores y empleados. Probablemente necesitará volver a calcular el impacto a medida que conozca más sobre la causa raíz del problema”.
GIPHY App Key not set. Please check settings