Menos de una semana después de que impuso límites de búsqueda en la versión AI de su motor de búsqueda Bing, Microsoft está elevando esos límites.
A raíz de algunos informes vergonzosos sobre el comportamiento errático del nuevo Bing, Microsoft decidió el viernes pasado limitar el uso diario de un usuario a cinco «turnos» de chat por sesión y 50 turnos por día.
Un turno consta de una pregunta de un usuario y una respuesta de Bing. Al completar cinco turnos, se solicita a los usuarios que cambien el tema de su conversación con la IA.
Los cambios fueron necesarios porque el modelo de IA subyacente utilizado por el nuevo Bing puede confundirse con largas sesiones de chat formadas por muchos turnos, explicó la compañía en su Bing Blog.
Sin embargo, el martes, después de un alboroto de los usuarios de Bing, Microsoft elevó los límites de uso a seis turnos por sesión y 60 turnos por día.
Los nuevos límites permitirán que la gran mayoría de los usuarios usen el nuevo Bing de forma natural, escribió la compañía en su blog.
“Dicho esto, nuestra intención es ir más allá y planeamos aumentar pronto el límite diario a 100 chats en total”, agregó.
“Además”, continuó, “con este próximo cambio, sus búsquedas normales ya no contarán contra sus totales de chat”.
Entrada de la multitud necesaria
Microsoft decidió imponer límites en el uso de Bing impulsado por IA después de que algunos usuarios encontraran formas de incitar al motor de búsqueda a llamarlos enemigos e incluso lograr que duplique los errores de hecho que ha cometido, como el nombre de Twitter. CEO.
“[W]Descubrimos que en sesiones de chat largas y extendidas de 15 o más preguntas, Bing puede volverse repetitivo o ser incitado/provocado a dar respuestas que no son necesariamente útiles o están en línea con nuestro tono diseñado”, reconoció Microsoft en un blog.
Con los nuevos límites en el uso de Bing AI, la empresa puede estar admitiendo algo más. «Indica que no predijeron adecuadamente algunas de las respuestas y giros que tomó», Greg Sterling, cofundador de Cerca de los mediosun sitio web de noticias, comentarios y análisis, dijo a TechNewsWorld.
«A pesar de las historias de terror escritas sobre el nuevo Bing, se gana mucha productividad con él, lo que apunta a la utilidad de una herramienta de este tipo en ciertos escenarios de contenido», sostuvo Jason Wong, vicepresidente y analista de Gartner.
«Para muchas empresas de software, no sabrá lo que obtendrá hasta que lance su software al público», dijo Wong a TechNewsWorld.
“Puedes tener todo tipo de pruebas”, dijo. “Puedes tener equipos haciendo pruebas de estrés en él. Pero no vas a saber lo que tienes hasta que la multitud lo alcance. Entonces, con suerte, podrás discernir algo de sabiduría entre la multitud”.
Wong citó una lección aprendida por Reid Hoffman, fundador de LinkedIn: «Si no te avergüenza la primera versión de tu producto, lo has lanzado demasiado tarde».
¿Google es demasiado cauteloso con Bard?
La decisión de Microsoft de lanzar su vehículo de búsqueda AI con posibles verrugas contrasta con el enfoque más cauteloso adoptado por Google con su producto de búsqueda Bard AI.
“Bing y Google están en posiciones diferentes”, explicó Sterling. “Bing necesita correr más riesgos. Google tiene más que perder y, como resultado, será más cauteloso”.
Pero, ¿Google está siendo demasiado cauteloso? “Depende del tipo de conejo que tengan en el sombrero”, observó Will Duffield, analista de políticas de la Instituto Catón.
«Solo estás siendo demasiado cauteloso si tienes un conejo realmente bueno y no lo dejas salir», dijo Duffield a TechNewsWorld. “Si tu conejo no está listo, no hay nada demasiado cauteloso en retenerlo”.
“Si tienen algo bueno y lo lanzan, entonces tal vez la gente diga que deberían haberlo lanzado hace meses. Pero tal vez hace meses, no era tan bueno”, agregó.
Amenaza a los trabajadores
Microsoft también publicó en su blog que iba a comenzar a probar una opción de IA de Bing que permite al usuario elegir el tono de un chat desde «preciso», que utilizará la tecnología de IA patentada de Microsoft para centrarse en respuestas más cortas y más centradas en la búsqueda, hasta «equilibrado». ” y “creativo”, que usará ChatGPT para dar al usuario respuestas más largas y conversadoras.
La compañía explicó que el objetivo es dar a los usuarios más control sobre el tipo de comportamiento de chat para satisfacer mejor sus necesidades.
“La elección es buena en abstracto”, observó Sterling. «Sin embargo, en estos primeros días, la calidad de las respuestas de ChatGPT puede no ser lo suficientemente alta».
“Entonces, hasta que se refuercen las barandillas y mejore la precisión de ChatGPT, puede que no sea tan bueno”, dijo. “Bing tendrá que gestionar las expectativas y renunciar al contenido de ChatGPT hasta cierto punto”.
En un asunto relacionado, una encuesta de 1,000 líderes empresariales publicada el martes por Resume Builder encontró que el 49% de sus empresas usan ChatGPT; El 30% planea hacerlo, y de las empresas que utilizan la tecnología de IA, el 48% dice que ha reemplazado a los trabajadores. Los siguientes gráficos revelan más datos sobre cómo las empresas utilizan ChatGPT.
Copiloto para humanos
Sterling se mostró escéptico sobre el hallazgo de trabajadores reemplazados en la encuesta. “Creo que muchas empresas lo están probando. Entonces, en ese sentido, las empresas lo están ‘usando’”, señaló.
“Y algunas empresas pueden reconocer formas en que pueden ahorrar tiempo o dinero y potencialmente reemplazar el trabajo manual o la subcontratación”, continuó. “Pero los resultados de la encuesta carecen de contexto y solo presentan información parcial”.
Sin embargo, reconoció que los patrones de contratación y trabajo independiente cambiarán con el tiempo debido a la IA.
A Wong no le sorprendió la cantidad de empresas que usaban ChatGPT, pero no fue así con la cantidad de personas que lo reemplazaron.
“Puedo ver que alguien no escriba la documentación para una actualización de una aplicación o portal, pero me resultaría difícil de creer reducir el tamaño o cambiar a las personas de un rol porque están usando ChatGPT”, dijo.
“El consejo de Gartner para los clientes que exploran ChatGPT y el chat de Bing es pensar en ellos como copilotos”, continuó. “Va a ayudar a crear algo que debería ser revisado por un ser humano, por alguien que evaluará la validez de una respuesta”.
“En solo una pequeña cantidad de casos de uso podrían reemplazar a un humano”, concluyó.