Vint Cerf, conocido como el padre de Internet, levantó algunas cejas el lunes cuando instó a los inversores a ser cautelosos al invertir en negocios basados en chatbots conversacionales.
Los bots todavía cometen demasiados errores, afirmó Cerf, quien es vicepresidente de Google, que tiene un chatbot de IA llamado Bard en desarrollo.
Cuando le pidió a ChatGPT, un bot desarrollado por OpenAI, que escribiera una biografía de él, se equivocó en un montón de cosas, le dijo a una audiencia en la cumbre TechSurge Deep Tech, organizada por la firma de capital de riesgo Celesta y celebrada en el Museo de Historia de la Computación. en Mountain View, California
“Es como un shooter de ensaladas. se mezcla [facts] juntos porque no saben mejor”, dijo Cerf, según Silicon Angle.
Aconsejó a los inversores que no apoyen una tecnología porque parece genial o está generando “alboroto”.
Cerf también recomendó que tengan en cuenta las consideraciones éticas al invertir en IA.
Dijo: «Los ingenieros como yo deberían ser responsables de tratar de encontrar una forma de domar algunas de estas tecnologías, para que sea menos probable que causen problemas», informó Silicon Angle.
Se necesita supervisión humana
Como señala Cerf, existen algunas trampas para las empresas que se muerden las uñas para entrar en la carrera de la IA.
La inexactitud y la información incorrecta, el sesgo y los resultados ofensivos son todos los riesgos potenciales que enfrentan las empresas cuando usan IA, señaló Greg Sterling, cofundador de Cerca de los mediosun sitio web de noticias, comentarios y análisis.
“Los riesgos dependen de los casos de uso”, dijo Sterling a TechNewsWorld. “Las agencias digitales que confían demasiado en ChatGPT u otras herramientas de inteligencia artificial para crear contenido o completar el trabajo para los clientes podrían producir resultados que no son óptimos o que dañan al cliente de alguna manera”.
Sin embargo, afirmó que los controles y equilibrios y una fuerte supervisión humana podrían mitigar esos riesgos.
Las pequeñas empresas que no tienen experiencia en la tecnología deben tener cuidado antes de lanzarse a la IA, advirtió Mark N. Vena, presidente y analista principal de Investigación de tecnología inteligente en San José, California
“Como mínimo, cualquier empresa que incorpore IA en su forma de hacer negocios debe comprender las implicaciones de eso”, dijo Vena a TechNewsWorld.
“La privacidad, especialmente a nivel del cliente, es obviamente un área de gran preocupación”, continuó. “Los términos y condiciones de uso deben ser extremadamente explícitos, así como la responsabilidad en caso de que la capacidad de IA produzca contenido o tome medidas que abran el negocio a una responsabilidad potencial”.
Ética necesita exploración
Si bien a Cerf le gustaría que los usuarios y desarrolladores de IA tuvieran en cuenta la ética al llevar productos de IA al mercado, esa podría ser una tarea desafiante.
“La mayoría de las empresas que utilizan IA se centran en la eficiencia y el ahorro de tiempo o costos”, observó Sterling. “Para la mayoría de ellos, la ética será una preocupación secundaria o incluso una no consideración”.
Hay problemas éticos que deben abordarse antes de que la IA sea ampliamente adoptada, agregó Vena. Señaló el sector de la educación como un ejemplo.
“¿Es ético que un estudiante envíe un trabajo completamente extraído de una herramienta de IA?” preguntó. «Incluso si el contenido no es plagio en el sentido más estricto porque podría ser ‘original’, creo que la mayoría de las escuelas, especialmente en los niveles de escuela secundaria y universidad, lo rechazarían».
“No estoy seguro de que los medios de comunicación estén encantados con el uso de ChatGPT por parte de los periodistas que informan sobre eventos en tiempo real que a menudo se basan en juicios abstractos con los que una herramienta de inteligencia artificial podría tener problemas”, dijo.
“La ética debe desempeñar un papel importante”, continuó, “es por eso que debe haber un código de conducta de IA que las empresas e incluso los medios de comunicación deben estar obligados a aceptar, así como hacer que esos términos de cumplimiento formen parte de los términos y condiciones. condiciones al usar herramientas de IA”.
Consecuencias no deseadas
Es importante que cualquier persona involucrada en IA se asegure de que está haciendo lo que está haciendo de manera responsable, sostuvo Ben Kobren, jefe de comunicaciones y políticas públicas de Neeva, un motor de búsqueda basado en IA con sede en Washington, DC.
“Muchas de las consecuencias no deseadas de las tecnologías anteriores fueron el resultado de un modelo económico que no alineaba los incentivos comerciales con el usuario final”, dijo Kobren a TechNewsWorld. “Las empresas tienen que elegir entre atender a un anunciante o al usuario final. La gran mayoría de las veces, el anunciante ganaría. “
“El Internet gratuito permitió una innovación increíble, pero tuvo un costo”, continuó. “Ese costo fue la privacidad de un individuo, el tiempo de un individuo, la atención de un individuo”.
“Lo mismo va a pasar con la IA”, dijo. “¿Se aplicará la IA en un modelo de negocio que se alinee con los usuarios o con los anunciantes?”
Los pedidos de cautela de Cerf parecen estar destinados a ralentizar la entrada de productos de IA en el mercado, pero eso parece poco probable.
“ChatGPT impulsó la industria mucho más rápido de lo que nadie esperaba”, observó Kobren.
“La carrera ha comenzado y no hay marcha atrás”, agregó Sterling.
“Existen riesgos y beneficios para llevar rápidamente estos productos al mercado”, dijo. “Pero la presión del mercado y los incentivos financieros para actuar ahora superarán la restricción ética. Las empresas más grandes hablan de ‘IA responsable’, pero siguen adelante a pesar de todo”.
Tecnología transformacional
En sus comentarios en la cumbre TechSurge, Cerf también recordó a los inversores que todas las personas que utilizarán tecnologías de IA no las utilizarán para los fines previstos. Ellos “buscarán hacer lo que sea su beneficio y no el tuyo”, dijo.
“Los gobiernos, las ONG y la industria deben trabajar juntos para formular reglas y estándares, que deben integrarse en estos productos para evitar el abuso”, observó Sterling.
“El desafío y el problema es que el mercado y la dinámica competitiva se mueven más rápido y son mucho más poderosos que las políticas y los procesos gubernamentales”, continuó. “Pero la regulación está llegando. Es solo una cuestión de cuándo y cómo se ve”.
Los formuladores de políticas han estado lidiando con la responsabilidad de la IA desde hace un tiempo, comentó Hodan Omaar, analista senior de políticas de IA para el Centro de Innovación de Datosun grupo de expertos que estudia la intersección de los datos, la tecnología y las políticas públicas, en Washington, DC
“Los desarrolladores deben ser responsables cuando crean sistemas de inteligencia artificial”, dijo Omaar a TechNewsWorld. “Deberían asegurarse de que dichos sistemas estén capacitados en conjuntos de datos representativos”.
Sin embargo, agregó que serán los operadores de los sistemas de IA quienes tomarán las decisiones más importantes sobre cómo los sistemas de IA impactan en la sociedad.
“Está claro que la IA llegó para quedarse”, agregó Kobren. “Va a transformar muchas facetas de nuestras vidas, en particular la forma en que accedemos, consumimos e interactuamos con la información en Internet”.
“Es la tecnología más transformadora y emocionante que hemos visto desde el iPhone”, concluyó.