La CTO de OpenAI, Mira Murati, avivó la controversia sobre la supervisión gubernamental de la inteligencia artificial el domingo cuando admitió en una entrevista con la revista Time que la tecnología necesitaba ser regulada.
“Es importante para OpenAI y compañías como la nuestra traer esto a la conciencia pública de una manera controlada y responsable”, dijo Murati a Time. “Pero somos un pequeño grupo de personas, y necesitamos muchos más aportes en este sistema y muchos más aportes que vayan más allá de las tecnologías, definitivamente reguladores, gobiernos y todos los demás”.
Cuando se le preguntó si la participación del gobierno en esta etapa del desarrollo de la IA podría obstaculizar la innovación, respondió: “No es demasiado pronto. Es muy importante que todos comiencen a involucrarse, dado el impacto que van a tener estas tecnologías”.
Dado que el mercado proporciona incentivos para el abuso, probablemente sea necesaria alguna regulación, estuvo de acuerdo Greg Sterling, cofundador de Cerca de los mediosun sitio web de noticias, comentarios y análisis.
«Los desincentivos construidos cuidadosamente contra el comportamiento poco ético pueden minimizar el abuso potencial de la IA», dijo Sterling a TechNewsWorld, «pero la regulación también puede estar mal construida y no detener nada de eso».
Reconoció que una regulación demasiado temprana o demasiado dura podría dañar la innovación y limitar los beneficios de la IA.
“Los gobiernos deberían convocar a expertos en inteligencia artificial y líderes de la industria para diseñar conjuntamente un marco para una posible regulación futura. Probablemente también debería tener un alcance internacional”, dijo Sterling.
Considere las leyes existentes
La inteligencia artificial, como muchas tecnologías y herramientas, se puede utilizar para una amplia variedad de propósitos, explicó Jennifer Huddleston, investigadora de políticas tecnológicas en el Instituto Catónun grupo de expertos de Washington, DC.
Muchos de estos usos son positivos y los consumidores ya están encontrando usos beneficiosos de la IA, como la traducción en tiempo real y una mejor navegación del tráfico, continuó. “Antes de pedir nuevas regulaciones, los legisladores deben considerar cómo las leyes existentes sobre temas, como la discriminación, ya pueden abordar las preocupaciones”, dijo Huddleston a TechNewsWorld.
La inteligencia artificial debe regularse, pero también debe considerarse cómo ya está regulada, agregó albañil kortzinstructor clínico en la Clínica de Derecho Cibernético de la Facultad de Derecho de la Universidad de Harvard en Cambridge, Massachusetts.
“Tenemos muchas regulaciones generales que hacen que las cosas sean legales o ilegales, independientemente de si las hace un humano o una IA”, dijo Kortz a TechNewsWorld.
“Necesitamos ver las formas en que las leyes existentes ya son suficientes para regular la IA, y cuáles son las formas en que no lo hacen y necesitan hacer algo nuevo y ser creativos”, dijo.
Por ejemplo, señaló que no existe una regulación general sobre la responsabilidad de los vehículos autónomos. Sin embargo, si un vehículo autónomo provoca un accidente, todavía hay muchas áreas legales a las que recurrir, como la ley de negligencia y la ley de responsabilidad por productos defectuosos. Esas son formas potenciales de regular ese uso de la IA, explicó.
Se necesita un toque ligero
Kortz admitió, sin embargo, que muchas reglas existentes entran en juego después del hecho. “Así que, en cierto modo, son una especie de segundo mejor”, dijo. “Pero son una medida importante que se debe implementar mientras desarrollamos las regulaciones”.
“Deberíamos tratar de ser proactivos en la regulación donde podamos”, agregó. “El recurso a través del sistema legal ocurre después de que ha ocurrido un daño. Sería mejor si el daño nunca ocurriera”.
Sin embargo, Mark N. Vena, presidente y analista principal de Investigación de tecnología inteligente en San José, California, argumenta que una fuerte regulación podría reprimir la floreciente industria de la IA.
«En esta etapa inicial, no soy un gran admirador de la regulación gubernamental de la IA», dijo Vena a TechNewsWorld. “La IA puede tener muchos beneficios, y la intervención del gobierno podría terminar sofocándolos”.
Ese tipo de efecto sofocante en Internet se evitó en la década de 1990, sostuvo, a través de una regulación de «toque ligero» como la Sección 230 de la Ley de Decencia en las Comunicaciones, que otorgó a las plataformas en línea inmunidad de responsabilidad por el contenido de terceros que aparece en sus sitios web.
Sin embargo, Kortz cree que el gobierno puede frenar razonablemente algo sin cerrar una industria.
“La gente critica a la FDA, que es propensa a la captura regulatoria, que está dirigida por compañías farmacéuticas, pero todavía estamos en un mundo mejor que antes de la FDA, cuando cualquiera podía vender cualquier cosa y poner cualquier cosa en una etiqueta”, dijo. .
“¿Existe una buena solución que capture solo los aspectos buenos de la IA y detenga todos los malos? Probablemente no”, continuó Vena, “pero alguna estructura es mejor que ninguna estructura”.
“Dejar que la IA buena y la IA mala se enfrenten no va a ser bueno para nadie”, agregó. “No podemos garantizar que las buenas IA vayan a ganar esa pelea, y el daño colateral podría ser bastante significativo”.
Regulación sin estrangulamiento
Hay algunas cosas que los legisladores pueden hacer para regular la IA sin obstaculizar la innovación, observó Daniel Castro, vicepresidente de la Fundación de Innovación y Tecnología de la Informaciónuna organización de investigación y política pública, en Washington, DC
“Uno es centrarse en casos de uso específicos”, dijo Castro a TechNewsWorld. “Por ejemplo, la regulación de los autos sin conductor debería verse diferente a la regulación de la IA utilizada para generar música”.
“Otra es centrarse en los comportamientos”, continuó. “Por ejemplo, es ilegal discriminar cuando se contratan empleados o se alquilan apartamentos; ya sea que un ser humano o un sistema de inteligencia artificial tome la decisión, debería ser irrelevante”.
“Pero los formuladores de políticas deben tener cuidado de no imponer a la IA un estándar diferente injustamente o establecer regulaciones que no tengan sentido para la IA”, agregó. “Por ejemplo, algunos de los requisitos de seguridad de los vehículos actuales, como los volantes y los espejos retrovisores, no tienen sentido para los vehículos autónomos sin pasajeros ni conductores”.
A Vena le gustaría ver un enfoque «transparente» de la regulación.
“Preferiría una regulación que exija que los desarrolladores de IA y los productores de contenido sean completamente transparentes en torno a los algoritmos que utilizan”, dijo. “Podrían ser revisados por una entidad de terceros compuesta por académicos y algunas entidades comerciales”.
“Ser transparente en torno a los algoritmos y las fuentes de contenido de las que se derivan las herramientas de IA debería fomentar el equilibrio y mitigar los abusos”, afirmó.
Plan para los peores escenarios
Kortz señaló que muchas personas creen que la tecnología es neutral.
“No creo que la tecnología sea neutral”, dijo. “Tenemos que pensar en los malos actores. Pero también tenemos que pensar en las malas decisiones de las personas que crean estas cosas y las ponen en el mundo”.
“Animaría a cualquiera que desarrolle IA para un caso de uso particular a pensar no solo en cuál es su uso previsto, sino también cuál es el peor uso posible para su tecnología”, concluyó.