in

La revolución de la IA está en un punto de inflexión

Universidad de Drexel en línea

Algunos conocedores de la tecnología quieren detener el desarrollo continuo de los sistemas de inteligencia artificial antes de que las vías neurológicas de aprendizaje automático entren en conflicto con las intenciones de uso de sus creadores humanos. Otros expertos en informática argumentan que los pasos en falso son inevitables y que el desarrollo debe continuar.

Más de 1,000 técnicos y luminarias de IA firmaron recientemente una petición para que la industria informática tome una moratoria de seis meses en el entrenamiento de sistemas de IA más potentes que GPT-4. Los defensores quieren que los desarrolladores de IA creen estándares de seguridad y mitiguen los riesgos potenciales que plantean las tecnologías de IA más riesgosas.

La organización sin fines de lucro Future of Life Institute organizó el petición que exige un cese público y verificable casi inmediato por parte de todos los desarrolladores clave. De lo contrario, los gobiernos deberían intervenir e instituir una moratoria. A partir de esta semana, Future of Life Institute dice que ha recolectado más de 50,000 firmas que están pasando por su proceso de investigación.

La carta no es un intento de detener todo el desarrollo de la IA en general. Más bien, sus partidarios quieren que los desarrolladores den un paso atrás de una carrera peligrosa «a modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes». Durante el tiempo de espera, los laboratorios de IA y los expertos independientes deben desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA.

“La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas poderosos y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”, afirma la carta.

Soporte no universal

Es dudoso que alguien detenga algo, sugirió John Bambenek, principal cazador de amenazas en la empresa SaaS de análisis de seguridad y operaciones. Netenrich. Aún así, ve una conciencia cada vez mayor de que la consideración de las implicaciones éticas de los proyectos de IA va muy por detrás de la velocidad del desarrollo.

“Creo que es bueno reevaluar lo que estamos haciendo y los profundos impactos que tendrá, ya que hemos visto algunas fallas espectaculares cuando se trata de implementaciones irreflexivas de IA/ML”, dijo Bambenek a TechNewsWorld.

Cualquier cosa que hagamos para detener las cosas en el espacio de la IA probablemente sea solo ruido, agregó Andrew Barratt, vicepresidente de la firma de servicios de asesoramiento en ciberseguridad. Fuego de carbón. También es imposible hacer esto globalmente de manera coordinada.


“La IA será el facilitador de la productividad de las próximas dos generaciones. El peligro será verlo reemplazar a los motores de búsqueda y luego ser monetizado por los anunciantes que ‘inteligentemente’ colocan sus productos en las respuestas. Lo que es interesante es que el ‘pico’ de miedo parece desencadenarse desde la reciente cantidad de atención aplicada a ChatGPT”, dijo Barratt a TechNewsWorld.

En lugar de hacer una pausa, Barratt recomienda alentar a los trabajadores del conocimiento de todo el mundo a ver cómo pueden usar mejor las diversas herramientas de IA que se están volviendo más fáciles de usar para ayudar a proporcionar productividad. Los que no, se quedarán atrás.

Según Dave Gerry, director ejecutivo de una empresa de ciberseguridad colaborativa Multitud de bichos, la seguridad y la privacidad deben seguir siendo una de las principales preocupaciones de cualquier empresa de tecnología, independientemente de si se centra en la IA o no. Cuando se trata de IA, es fundamental asegurarse de que el modelo tenga las garantías necesarias, el circuito de retroalimentación y el mecanismo para resaltar las preocupaciones de seguridad.

“A medida que las organizaciones adoptan rápidamente la IA para toda la eficiencia, la productividad y la democratización de los beneficios de los datos, es importante asegurarse de que, a medida que se identifiquen las inquietudes, exista un mecanismo de notificación para sacarlas a la luz, de la misma manera que se identificaría una vulnerabilidad de seguridad. e informado”, dijo Gerry a TechNewsWorld.

Resaltar preocupaciones legítimas

En lo que podría ser una respuesta cada vez más típica a la necesidad de regular la IA, el experto en aprendizaje automático Anthony Figueroa, cofundador y CTO de la empresa de desarrollo de software basada en resultados Raízapoya la regulación de la inteligencia artificial, pero duda que una pausa en su desarrollo conduzca a cambios significativos.

Figueroa utiliza big data y aprendizaje automático para ayudar a las empresas a crear soluciones innovadoras para monetizar sus servicios. Pero es escéptico de que los reguladores se muevan a la velocidad adecuada y entiendan las implicaciones de lo que deberían regular. Él ve el desafío como similar a los planteados por las redes sociales hace dos décadas.


“Creo que la carta que escribieron es importante. Estamos en un punto de inflexión y tenemos que empezar a pensar en el progreso que no teníamos antes. Simplemente no creo que sea factible pausar nada durante seis meses, un año, dos años o una década”, dijo Figueroa a TechNewsWorld.

De repente, todo lo que funciona con IA es la próxima gran cosa universal. El éxito literal de la noche a la mañana del producto ChatGPT de OpenAI de repente hizo que el mundo se sentara y notara el inmenso poder y potencial de las tecnologías de IA y ML.

“Todavía no conocemos las implicaciones de esa tecnología. ¿Cuáles son los peligros de eso? Sabemos algunas cosas que pueden salir mal con esta espada de doble filo”, advirtió.

¿La IA necesita regulación?

TechNewsWorld discutió con Anthony Figueroa los problemas relacionados con la necesidad de controles de desarrollador del aprendizaje automático y la posible necesidad de una regulación gubernamental de la inteligencia artificial.

TechNewsWorld: Dentro de la industria informática, ¿qué pautas y ética existen para mantenerse en el camino de manera segura?

Antonio Figueroa: Necesitas tu propio conjunto de ética personal en tu cabeza. Pero incluso con eso, puede tener muchas consecuencias no deseadas. Lo que estamos haciendo con esta nueva tecnología, ChatGPT, por ejemplo, es exponer a la IA a una gran cantidad de datos.

Esos datos provienen de fuentes públicas y privadas y cosas diferentes. Estamos utilizando una técnica llamada aprendizaje profundo, que tiene sus fundamentos en estudiar cómo funciona nuestro cerebro.

¿Cómo impacta eso en el uso de la ética y las pautas?

Figueroa: A veces, ni siquiera entendemos cómo la IA resuelve un problema de cierta manera. No entendemos el proceso de pensamiento dentro del ecosistema de IA. Agregue a esto un concepto llamado explicabilidad. Debe ser capaz de determinar cómo se ha tomado una decisión. Pero con la IA, eso no siempre es explicable y tiene resultados diferentes.

¿En qué se diferencian esos factores con la IA?

Figueroa: La IA explicable es un poco menos poderosa porque tiene más restricciones, pero, de nuevo, tiene la cuestión de la ética.

Por ejemplo, considere a los médicos que abordan un caso de cáncer. Tienen varios tratamientos disponibles. Uno de los tres medicamentos es totalmente explicable y le dará al paciente un 60% de posibilidades de curación. Luego tienen un tratamiento no explicable que, según datos históricos, tendrá un 80% de probabilidad de curación, pero no saben realmente por qué.

Esa combinación de medicamentos, junto con el ADN del paciente y otros factores, afecta el resultado. Entonces, ¿qué debe tomar el paciente? Ya sabes, es una decisión difícil.

¿Cómo define «inteligencia» en términos de desarrollo de IA?

Figueroa: La inteligencia la podemos definir como la capacidad de resolver problemas. Las computadoras resuelven problemas de una manera totalmente diferente a las personas. Los resolvemos combinando conciencia e inteligencia, lo que nos da la capacidad de sentir las cosas y resolver problemas juntos.

AI va a resolver problemas centrándose en los resultados. Un ejemplo típico son los coches autónomos. ¿Qué pasa si todos los resultados son malos?


Un automóvil autónomo elegirá el menos malo de todos los resultados posibles. Si la IA tiene que elegir una maniobra de navegación que matará al «pasajero-conductor» o matará a dos personas en el camino que se cruzó con una luz roja, puede presentar el caso de ambas maneras.

Puedes razonar que los peatones cometieron un error. Así que la IA hará un juicio moral y dirá: matemos a los peatones. O la IA puede decir que tratemos de matar a la menor cantidad de personas posible. No hay una respuesta correcta.

¿Qué pasa con los problemas relacionados con la regulación?

Figueroa: Creo que la IA tiene que ser regulada. Es factible detener el desarrollo o la innovación hasta que tengamos una evaluación clara de la regulación. No vamos a tener eso. No sabemos exactamente qué estamos regulando ni cómo aplicar la regulación. Así que tenemos que crear una nueva forma de regular.

Una de las cosas que los desarrolladores de OpenAI hacen bien es construir su tecnología a simple vista. Los desarrolladores podrían estar trabajando en su tecnología durante dos años más y crear una tecnología mucho más sofisticada. Pero decidieron exponer el avance actual al mundo, para que la gente pueda empezar a pensar en la regulación y qué tipo de regulación se le puede aplicar.

¿Cómo se inicia el proceso de evaluación?

Figueroa: Todo comienza con dos preguntas. Una es, ¿qué es la regulación? Es una directiva hecha y mantenida por una autoridad. Entonces la segunda pregunta es, ¿quién es la autoridad, una entidad con el poder de dar órdenes, tomar decisiones y hacer cumplir esas decisiones?

Relacionada con esas dos primeras preguntas hay una tercera: ¿quiénes o qué son los candidatos? Podemos tener un gobierno localizado en un país o entidades nacionales separadas como la ONU que podrían ser impotentes en estas situaciones.

Donde haya autorregulación de la industria, puede argumentar que es el mejor camino a seguir. Pero tendrás muchos malos actores. Podrías tener organizaciones profesionales, pero luego te metes en más burocracia. Mientras tanto, la IA se mueve a una velocidad asombrosa.

¿Cuál consideras que es el mejor enfoque?

Figueroa: Tiene que ser una combinación de gobierno, industria, organizaciones profesionales y tal vez ONG que trabajen juntas. Pero no soy muy optimista, y no creo que encuentren una solución lo suficientemente buena para lo que viene.

¿Hay alguna forma de tratar con la IA y el ML para implementar medidas de seguridad provisionales si la entidad sobrepasa las pautas?

Figueroa: Siempre puedes hacer eso. Pero un desafío es no poder predecir todos los resultados potenciales de estas tecnologías.

En este momento, tenemos a todos los grandes de la industria (OpenAI, Microsoft, Google) trabajando en más tecnología fundamental. Además, muchas empresas de IA están trabajando con otro nivel de abstracción, utilizando la tecnología que se está creando. Pero son las entidades más antiguas.


Así que tienes un cerebro genético para hacer lo que quieras. Si tiene la ética y los procedimientos adecuados, puede reducir los efectos adversos, aumentar la seguridad y reducir el sesgo. Pero no puedes eliminar eso en absoluto. Tenemos que vivir con eso y crear alguna rendición de cuentas y regulaciones. Si ocurre un resultado no deseado, debemos tener claro de quién es la responsabilidad. Creo que eso es clave.

¿Qué se debe hacer ahora para trazar el curso para el uso seguro de IA y ML?

Figueroa: Primero es un subtexto que no sabemos todo y aceptamos que las consecuencias negativas van a suceder. A la larga, el objetivo es que los resultados positivos superen con creces a los negativos.

Considere que la revolución de la IA es impredecible pero inevitable en este momento. Puede argumentar que se pueden implementar regulaciones, y podría ser bueno reducir el ritmo y garantizar que estemos lo más seguros posible. Aceptar que vamos a sufrir algunas consecuencias negativas con la esperanza de que los efectos a largo plazo sean mucho mejores y nos den una sociedad mucho mejor.

Fuente

Written by TecTop

Peacock se lanza en Meta Quest 2, obtén 3 meses gratis

Peacock se lanza en Meta Quest 2, obtén 3 meses gratis

ENCUESTA: Informe a Tamron cuál de los lentes patentados deberían fabricar

ENCUESTA: Informe a Tamron cuál de los lentes patentados deberían fabricar