A medida que se generalizan los sistemas de inteligencia artificial (IA) cada vez más capaces, la cuestión de los riesgos que pueden plantear ha adquirido una nueva urgencia. Los gobiernos, investigadores y desarrolladores han destacado la seguridad de la IA.
La UE avanza Regulación de IAel Reino Unido está convocando una Cumbre de seguridad de IAy Australia es buscando aporte sobre el apoyo a una IA segura y responsable.
La ola actual de interés es una oportunidad para abordar problemas concretos de seguridad de la IA, como el sesgo, el uso indebido y la explotación laboral. Pero muchos en Silicon Valley ven la seguridad a través de la lente especulativa de la «alineación de la IA», que pasa por alto los daños muy reales que los sistemas de IA actuales pueden causar a la sociedad, y el formas pragmáticas podemos abordarlos.
¿Qué es la ‘alineación de la IA’?
«Alineación de IA» se trata de tratar de asegurarse de que el comportamiento de los sistemas de IA coincida con lo que desear y lo que nosotros esperar. La investigación de alineación tiende a centrarse en futuros sistemas hipotéticos de IA, más avanzados que la tecnología actual.
Es un problema desafiante porque es difícil predecir cómo se desarrollará la tecnología, y también porque los humanos no son muy buenos para saber lo que queremos, o estar de acuerdo al respecto.
Sin embargo, no hay escasez de investigación de alineación. Hay un sinfín de propuestas técnicas y filosóficas con nombres esotéricos como «aprendizaje cooperativo por refuerzo inverso» y «amplificación iterada«.
Hay dos amplias escuelas de pensamiento. En la alineación «de arriba hacia abajo», los diseñadores especifican explícitamente los valores y principios éticos que debe seguir la IA (piense en Asimov’s tres leyes de la robótica), mientras que los esfuerzos «de abajo hacia arriba» intentan aplicar ingeniería inversa a los valores humanos a partir de los datos y luego construir sistemas de IA alineados con esos valores. Por supuesto, existen dificultades para definir los «valores humanos», decidir quién elige qué valores son importantes y determinar qué sucede cuando los humanos no están de acuerdo.
OpenAI, la compañía detrás del chatbot ChatGPT y el generador de imágenes DALL-E, entre otros productos, describió recientemente sus planes para «superalineación«. Este plan tiene como objetivo eludir preguntas difíciles y alinear una futura IA superinteligente construyendo primero una IA de nivel meramente humano para ayudar con la investigación de alineación.
Pero para hacer esto, primero deben alinear la IA de investigación de alineación…
¿Por qué se supone que la alineación es tan importante?
Los defensores del enfoque de alineación para la seguridad de la IA dicen que no «resolver» la alineación de la IA podría conducir a grandes riesgos, incluido el extinción de la humanidad.
La creencia en estos riesgos surge en gran medida de la idea de que la «inteligencia general artificial» (AGI, por sus siglas en inglés), en términos generales, un sistema de IA que puede hacer cualquier cosa que pueda hacer un ser humano, podría desarrollarse en un futuro cercano y luego podría seguir mejorando sin intervención humana. . En esta narrativala IA superinteligente podría entonces aniquilar a la raza humana, ya sea intencionalmente o como efecto secundario de algún otro proyecto.
De la misma manera, la mera posibilidad del cielo y el infierno fue suficiente para convencer al filósofo Blaise Pascal de creer en Diosla posibilidad de un futuro super-AGI es suficiente para convencer algunos grupos deberíamos dedicar todos nuestros esfuerzos a «resolver» la alineación de la IA.
Hay muchos filosófico trampas con este tipo de razonamiento. también es muy difícil a hacer predicciones sobre tecnología
Incluso dejando de lado esas preocupaciones, la alineación (y mucho menos la «superalineación») es una forma limitada e inadecuada de pensar en los sistemas de seguridad e IA.
Tres problemas con la alineación de la IA
Primero, el concepto de «alineación» no está bien definido. investigación de alineación normalmente apunta a objetivos vagos como construir sistemas «probablemente beneficiosos» o «prevenir la extinción humana».
Pero estos objetivos son bastante estrechos. Una IA superinteligente podría encontrarse con ellos y aun así causar un daño inmenso.
Más importante, La seguridad de la IA va más allá de las máquinas y el software. Como toda tecnología, la IA es tanto técnica como social.
Hacer que la IA sea segura implicará abordar una amplia gama de problemas, incluida la economía política del desarrollo de la IA, las prácticas laborales de explotación, los problemas con la apropiación indebida de datos y los impactos ecológicos. También debemos ser honestos sobre los usos probables de la IA avanzada (como la vigilancia autoritaria generalizada y la manipulación social) y quién se beneficiará en el camino (empresas tecnológicas arraigadas).
Finalmente, tratar la alineación de la IA como un problema técnico pone el poder en el lugar equivocado. Los tecnólogos no deberían ser los que decidan qué riesgos y qué valores cuentan.
Las reglas que rigen los sistemas de IA deben ser determinadas por el debate público y las instituciones democráticas.
OpenAI está haciendo algunos esfuerzos en este sentido, como consultar con los usuarios en diferentes campos de trabajo durante el diseño de ChatGPT. Sin embargo, debemos desconfiar de los esfuerzos para «resolver» la seguridad de la IA simplemente recopilando comentarios de un grupo más amplio de personas, sin dejar espacio para abordar preguntas más importantes.
Otro problema es la falta de diversidad, ideológica y demográfica, entre los investigadores de alineación. Muchos tienen vínculos con grupos de Silicon Valley como altruistas efectivos y racionalistasy hay un falta de representación de mujeres y otros grupos de personas marginadas que tienen históricamente han sido los motores del progreso en la comprensión del daño que la tecnología puede hacer.
Si no es alineación, ¿entonces qué?
Los impactos de la tecnología en la sociedad no pueden abordarse utilizando únicamente la tecnología.
La idea de la «alineación de IA» posiciona a las empresas de IA como guardianes que protegen a los usuarios de la IA deshonesta, en lugar de los desarrolladores de sistemas de IA que bien pueden perpetrar daños. Si bien la IA segura es sin duda un buen objetivo, abordar esto centrándose estrictamente en la «alineación» ignora demasiados daños apremiantes y potenciales.
Entonces, ¿cuál es una mejor manera de pensar en la seguridad de la IA? Como un problema social y técnico que debe abordarse en primer lugar reconociendo y abordando los daños existentes.
Esto no quiere decir que la investigación de alineación no sea útil, pero el marco no es útil. Y los esquemas descabellados como el «superalineamiento» de OpenAI equivalen a patear la lata metaética una cuadra más adelante, y esperar que no tropecemos con eso más adelante.
Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.
Citación: ¿Qué es la ‘alineación de la IA’? La forma favorita de Silicon Valley de pensar sobre la seguridad de la IA pasa por alto los problemas reales (2023, 13 de julio) consultado el 13 de julio de 2023 en https://techxplore.com/news/2023-07-ai-alignment-silicon-valley-favorite.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.