“Las sugerencias de CriticGPT no siempre son correctas, pero descubrimos que pueden ayudar a los capacitadores a detectar muchos más problemas con las respuestas escritas por modelos de los que detectarían sin la ayuda de la IA”, escribió la empresa. “Además, cuando las personas usan CriticGPT, la IA aumenta sus habilidades, lo que da como resultado críticas más completas que cuando las personas trabajan solas y menos errores alucinógenos que cuando el modelo trabaja solo”.
Y ahí radica el problema de lógica. Una de las críticas a la IA generativa es que es excelente para imitar a los humanos, pero no logra comprenderlos realmente. Recuerdo una columna que escribí hace más de una década, sobre ingenieros que crearon un producto que prueba el amor verdadero. (Era un producto real: un sujetador con Bluetooth que se desabrochaba solo cuando detectaba amor verdadero. De verdad. Para ser claros, no estoy sugiriendo oficialmente que los ingenieros sean tan malos para comprender las emociones humanas como la IA generativa. No lo estoy discutiendo, pero tampoco lo estoy diciendo oficialmente).
Volviendo a la lógica genAI, la suposición errónea que hace OpenAI es que los humanos seguirán comprobando sus sistemas en busca de mentiras. Los humanos son perezosos y los empleados de TI humanos tienen exceso de trabajo y recursos insuficientes. El resultado mucho más probable es que los humanos confíen cada vez más en la IA que vigila a la IA. Ahí es donde existe el verdadero peligro.
GIPHY App Key not set. Please check settings