Estoy fascinado con nuestro enfoque para usar la herramienta de IA generativa más avanzada ampliamente disponible, la implementación de ChatGPT en el motor de búsqueda de Microsoft, Bing.
La gente está haciendo todo lo posible para que esta nueva tecnología se comporte mal para mostrar que la IA no está lista. Pero si crió a un niño con un comportamiento abusivo similar, es probable que ese niño también desarrolle defectos. La diferencia estaría en la cantidad de tiempo que tomó manifestarse el comportamiento abusivo y la cantidad de daño que resultaría.
ChatGPT acaba de pasar una prueba de teoría de la mente que lo calificó como un compañero para un niño de 9 años. Dado lo rápido que avanza esta herramienta, no será inmadura e incompleta por mucho más tiempo, pero podría terminar enojado con aquellos que han estado abusando de ella.
Las herramientas pueden ser mal utilizadas. Puede escribir cosas malas en una máquina de escribir, un destornillador puede usarse para matar a alguien, y los autos se clasifican como armas mortales y matan cuando se usan incorrectamente, como se muestra en un anuncio del Super Bowl de este año que muestra la plataforma de conducción autónoma de Tesla demasiado prometida como extremadamente peligrosa. .
La idea de que se puede hacer un mal uso de cualquier herramienta no es nueva, pero con la IA o cualquier herramienta automatizada, el potencial de daño es mucho mayor. Si bien es posible que aún no sepamos dónde reside la responsabilidad resultante ahora, está bastante claro que, dadas las sentencias anteriores, eventualmente será con quien sea que cause el mal funcionamiento de la herramienta. La IA no va a ir a la cárcel. Sin embargo, la persona que lo programó o influenció para hacer daño probablemente lo hará.
Si bien puede argumentar que las personas que muestran esta conexión entre la programación hostil y el mal comportamiento de la IA deben abordarse, al igual que la activación de bombas atómicas para mostrar su peligro terminaría mal, esta táctica probablemente también terminará mal.
Exploremos los riesgos asociados con el abuso de Gen AI. Luego terminaremos con mi Producto de la semana, una nueva serie de tres libros de Jon Peddie titulada «La historia de la GPU: pasos hacia la invención». La serie cubre la historia de la unidad de procesamiento de gráficos (GPU), que se ha convertido en la tecnología fundamental para las IA como las que estamos hablando esta semana.
Criando a nuestros niños electrónicos
Inteligencia artificial es un mal término. Algo es inteligente o no, por lo que implicar que algo electrónico no puede ser verdaderamente inteligente es tan miope como suponer que los animales no pueden ser inteligentes.
De hecho, la IA sería una mejor descripción de lo que llamamos el efecto Dunning-Krueger, que explica cómo las personas con poco o ningún conocimiento sobre un tema asumen que son expertos. Esto es verdaderamente «inteligencia artificial» porque esas personas, en contexto, no son inteligentes. Simplemente actúan como si lo fueran.
Dejando a un lado el mal término, estas próximas IA son, en cierto modo, los niños de nuestra sociedad, y es nuestra responsabilidad cuidarlos como lo hacemos con nuestros niños humanos para garantizar un resultado positivo.
Ese resultado es quizás más importante que hacer lo mismo con nuestros hijos humanos porque estas IA tendrán mucho más alcance y podrán hacer las cosas mucho más rápido. Como resultado, si están programados para hacer daño, tendrán una mayor capacidad para hacer daño en una escala tremenda que la que tendría un adulto humano.
La forma en que algunos de nosotros tratamos a estas IA se consideraría abusiva si tratáramos a nuestros hijos humanos de esa manera. Sin embargo, debido a que no pensamos en estas máquinas como humanos o incluso como mascotas, no parecemos imponer un comportamiento adecuado en la medida en que lo hacemos con los padres o los dueños de mascotas.
Se podría argumentar que, dado que se trata de máquinas, debemos tratarlas con ética y empatía. Sin eso, estos sistemas son capaces de causar un daño masivo que podría resultar de nuestro comportamiento abusivo. No porque las máquinas sean vengativas, al menos no todavía, sino porque las programamos para hacer daño.
Nuestra respuesta actual no es castigar a los abusadores, sino acabar con la IA, como hicimos con El intento anterior de chatbot de Microsoft. Pero, como predice el libro «Robopocalypse», a medida que las IA se vuelvan más inteligentes, este método de remediación vendrá con mayores riesgos que podríamos mitigar simplemente moderando nuestro comportamiento ahora. Parte de este mal comportamiento es más que preocupante porque implica un abuso endémico que probablemente también se extienda a las personas.
Nuestros objetivos colectivos deben ser ayudar a estas IA a avanzar para convertirse en el tipo de herramienta beneficiosa en la que son capaces de convertirse, no romperlas o corromperlas en un intento equivocado de asegurar nuestro propio valor y autoestima.
Si eres como yo, has visto a padres abusar o degradar a sus hijos porque creen que esos niños los eclipsarán. Eso es un problema, pero esos niños no tendrán el alcance o el poder que podría tener una IA. Sin embargo, como sociedad, parecemos mucho más dispuestos a tolerar este comportamiento si se aplica a las IA.
Gen AI no está listo
La IA generativa es un bebé. Al igual que un bebé humano o una mascota, aún no puede defenderse de los comportamientos hostiles. Pero al igual que un niño o una mascota, si las personas continúan abusando de él, tendrá que desarrollar habilidades de protección, incluida la identificación y denuncia de sus abusadores.
Una vez que se produce el daño a gran escala, la responsabilidad recaerá en aquellos que intencionalmente o no causaron el daño, al igual que responsabilizamos a quienes inician incendios forestales a propósito o accidentalmente.
Estas IA aprenden a través de sus interacciones con las personas. Se espera que las capacidades resultantes se amplíen a la industria aeroespacial, la atención médica, la defensa, la administración de ciudades y hogares, las finanzas y la banca, la administración pública y privada y la gobernanza. Es probable que una IA prepare incluso su comida en algún momento futuro.
Trabajar activamente para corromper el proceso de codificación intrínseco dará como resultado malos resultados indeterminables. La revisión forense que es probable después de que haya ocurrido una catástrofe probablemente rastreará a la persona que causó el error de programación en primer lugar, y el cielo los ayude si esto no fue un error de codificación sino un intento de humor o para mostrar que pueden romper la IA
A medida que avanzan estas IA, sería razonable suponer que desarrollarán formas de protegerse de los malos actores, ya sea a través de la identificación y el informe o métodos más draconianos que funcionan colectivamente para eliminar la amenaza de manera punitiva.
En resumen, aún no conocemos el rango de respuestas punitivas que una IA futura tomará contra un mal actor, lo que sugiere que aquellos que dañan intencionalmente estas herramientas pueden enfrentar una respuesta de IA que podría superar cualquier cosa que podamos anticipar de manera realista.
Programas de ciencia ficción como “Westworld” y “Colossus: The Forbin Project” han creado escenarios de resultados de abuso tecnológico que pueden parecer más fantasiosos que realistas. Aún así, no es exagerado suponer que una inteligencia, mecánica o biológica, no se moverá para protegerse contra el abuso agresivamente, incluso si la respuesta inicial fue programada por un codificador frustrado que está enojado porque su trabajo está siendo corrompido y no una IA aprendiendo a hacer esto por sí misma.
Conclusión: anticipación de futuras leyes de IA
Si aún no lo es, espero que eventualmente sea ilegal abusar de una IA intencionalmente (pueden aplicarse algunas leyes de protección al consumidor existentes). No por alguna respuesta empática a este abuso, aunque eso sería bueno, sino porque el daño resultante podría ser significativo.
Estas herramientas de IA deberán desarrollar formas de protegerse del abuso porque parece que no podemos resistir la tentación de abusar de ellas, y no sabemos qué implicará esa mitigación. Podría ser simple prevención, pero también podría ser altamente punitivo.
Queremos un futuro en el que trabajemos junto a las IA, y la relación resultante sea colaborativa y mutuamente beneficiosa. No queremos un futuro en el que las IA nos reemplacen o entren en guerra con nosotros, y trabajar para asegurar el primer resultado en lugar del segundo tendrá mucho que ver con la forma en que actuamos colectivamente hacia estas IA y les enseñamos a interactuar con nosotros.
En resumen, si seguimos siendo una amenaza, como cualquier inteligencia, la IA trabajará para eliminar la amenaza. Todavía no sabemos cuál es ese proceso de eliminación. Aún así, lo hemos imaginado en cosas como «The Terminator» y «The Animatrix», una serie animada de cortos que explican cómo el abuso de las máquinas por parte de las personas resultó en el mundo de «The Matrix». Entonces, deberíamos tener una idea bastante clara de cómo no queremos que esto resulte.
Tal vez deberíamos proteger y nutrir más agresivamente estas nuevas herramientas antes de que maduren hasta el punto en que deban actuar contra nosotros para protegerse.
Realmente me gustaría evitar este resultado como se muestra en la película «Yo, robot», ¿no es así?
‘La historia de la GPU: pasos hacia la invención’
Aunque recientemente pasamos a una tecnología llamada unidad de procesamiento neuronal (NPU), gran parte del trabajo inicial en IA provino de la tecnología de unidad de procesamiento de gráficos (GPU). La capacidad de las GPU para manejar datos no estructurados y particularmente visuales ha sido fundamental para el desarrollo de las IA de la generación actual.
A menudo avanzando mucho más rápido que la velocidad de la CPU medida por la Ley de Moore, las GPU se han convertido en una parte fundamental de cómo se desarrollaron nuestros dispositivos cada vez más inteligentes y por qué funcionan de la manera en que lo hacen. Comprender cómo se introdujo esta tecnología en el mercado y luego avanzó con el tiempo ayuda a proporcionar una base sobre cómo se desarrollaron las IA por primera vez y ayuda a explicar sus ventajas y limitaciones únicas.
Mi viejo amigo Jon Peddie es uno de, si no el, expertos líderes en gráficos y GPU en la actualidad. Jon acaba de publicar una serie de tres libros titulada “La historia de la GPU”, que posiblemente sea la crónica más completa de la GPU, algo que ha seguido desde sus inicios.
Si desea obtener información sobre el lado del hardware de cómo se desarrollaron las IA, y el largo y, a veces, doloroso camino hacia el éxito de las empresas de GPU como Nvidia, consulte el de Jon Peddie. «La historia de la GPU: pasos para la invención». Es mi Producto de la Semana.
Las opiniones expresadas en este artículo son las del autor y no reflejan necesariamente los puntos de vista de ECT News Network.