in

¡(No) está vivo! Fila de Google expone problemas de IA

Google está en el centro de una disputa reciente sobre inteligencia artificial

Google está en el centro de una disputa reciente sobre inteligencia artificial

Google está en el centro de una disputa reciente sobre inteligencia artificial.

Una pelea interna sobre si Google construyó tecnología con conciencia similar a la humana ha salido a la luz, exponiendo las ambiciones y los riesgos inherentes a la inteligencia artificial que pueden parecer demasiado reales.

El gigante de Silicon Valley suspendió a uno de sus ingenieros la semana pasada por argumentar que el sistema de inteligencia artificial LaMDA de la empresa parecía «consciente», una afirmación con la que Google no está de acuerdo oficialmente.

Varios expertos dijeron a AFP que también eran muy escépticos sobre la afirmación de la conciencia, pero dijeron que la naturaleza humana y la ambición podrían confundir fácilmente el problema.

«El problema es que… cuando nos encontramos con cadenas de palabras que pertenecen a los idiomas que hablamos, les damos sentido», dijo Emily M. Bender, profesora de lingüística en la Universidad de Washington.

«Estamos haciendo el trabajo de imaginar una mente que no está allí», agregó.

LaMDA es un sistema enormemente poderoso que utiliza modelos avanzados y capacitación en más de 1,5 billones de palabras para poder imitar cómo las personas se comunican en chats escritos.

El sistema se construyó sobre un modelo que observa cómo las palabras se relacionan entre sí y luego predice qué palabras cree que vendrán a continuación en una oración o párrafo, según la explicación de Google.

«Todavía está en algún nivel, solo la coincidencia de patrones», dijo Shashank Srivastava, profesor asistente de ciencias de la computación en la Universidad de Carolina del Norte en Chapel Hill.

«Seguro que puedes encontrar algunos hilos de lo que realmente parecería una conversación significativa, algún texto muy creativo que podrían generar. Pero en muchos casos se devuelve rápidamente», agregó.

Aún así, asignar conciencia se vuelve complicado.

A menudo ha involucrado puntos de referencia como la prueba de Turing, que se considera que una máquina ha pasado si un humano tiene una conversación por escrito con uno, pero no puede decirlo.

«Esa es en realidad una prueba bastante fácil de pasar para cualquier IA de nuestra cosecha aquí en 2022», dijo Mark Kingwell, profesor de filosofía de la Universidad de Toronto.

«Una prueba más difícil es una prueba contextual, el tipo de cosas con las que los sistemas actuales parecen tropezar, el conocimiento del sentido común o las ideas de fondo, el tipo de cosas con las que los algoritmos tienen dificultades», agregó.

‘No hay respuestas fáciles’

La IA sigue siendo un tema delicado dentro y fuera del mundo de la tecnología, uno que puede provocar asombro pero también un poco de incomodidad.

Google, en un comunicado, fue rápido y firme al minimizar si LaMDA es consciente de sí mismo.

«Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden modificar cualquier tema fantástico», dijo la compañía.

«Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos conocimiento de que nadie más haya hecho… afirmaciones de gran alcance o antropomorfizado LaMDA», agregó.

Al menos algunos expertos vieron la respuesta de Google como un esfuerzo por cerrar la conversación sobre un tema importante.

«Creo que el debate público sobre el tema es extremadamente importante, porque la comprensión pública de lo desconcertante que es el tema es clave», dijo la académica Susan Schneider.

«No hay respuestas fáciles a las preguntas sobre la conciencia en las máquinas», agregó el director fundador del Centro para el Futuro de la Mente de la Florida Atlantic University.

La falta de escepticismo por parte de quienes trabajan en el tema también es posible en un momento en que las personas están «nadando en una enorme cantidad de exageraciones de IA», como lo expresó el profesor de lingüística Bender.

«Y se está invirtiendo mucho, mucho dinero en esto. Entonces, las personas que trabajan en esto tienen esta señal muy fuerte de que están haciendo algo importante y real», lo que hace que no necesariamente «mantengan el escepticismo apropiado», agregó.

En los últimos años, AI también ha sufrido malas decisiones: Bender citó una investigación que encontró que un modelo de lenguaje podría detectar sesgos racistas y antiinmigrantes al realizar capacitaciones en Internet.

Kingwell, profesor de la Universidad de Toronto, dijo que la cuestión de la sensibilidad de la IA es parte de «Brave New World» y parte de «1984», dos obras distópicas que tocan temas como la tecnología y la libertad humana.

«Creo que mucha gente no sabe realmente qué camino tomar, y de ahí la ansiedad», agregó.


Un ingeniero de software de Google cree que una IA se ha vuelto inteligente. Si tiene razón, ¿cómo lo sabríamos?


© 2022 AFP

Citación: ¡No está vivo! Fila de Google expone problemas de IA (2022, 15 de junio) recuperado el 14 de julio de 2022 de https://techxplore.com/news/2022-06-alive-google-row-exposes-ai.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Cómo Apple ha renovado las Preferencias del sistema en macOS Ventura

Nintendo en proceso de adquirir Dynamo Pictures;  se volvio en nintendo Fotografías

Nintendo en proceso de adquirir Dynamo Pictures; se volvio en nintendo Fotografías