La inteligencia artificial construida sobre montañas de información potencialmente sesgada ha creado un riesgo real de automatización de la discriminación, pero ¿hay alguna manera de reeducar a las máquinas?
La pregunta para algunos es extremadamente urgente. En esta era ChatGPT, la IA generará cada vez más decisiones para los proveedores de atención médica, los prestamistas bancarios o los abogados, utilizando todo lo que se haya extraído de Internet como material fuente.
La inteligencia subyacente de la IA, por lo tanto, es tan buena como el mundo del que proviene, y es probable que esté llena de ingenio, sabiduría y utilidad, así como de odio, prejuicios y peroratas.
«Es peligroso porque la gente está adoptando software de inteligencia artificial y realmente depende de él», dijo Joshua Weaver, director de Texas Opportunity & Justice Incubator, una consultoría legal.
«Podemos entrar en este circuito de retroalimentación donde el sesgo en nosotros mismos y en la cultura informa el sesgo en la IA y se convierte en una especie de circuito de refuerzo», dijo.
Asegurarse de que la tecnología refleje con mayor precisión la diversidad humana no es sólo una elección política.
Otros usos de la IA, como el reconocimiento facial, han hecho que las empresas se vean envueltas en problemas con las autoridades por discriminación.
Este fue el caso contra Rite-Aid, una cadena de farmacias estadounidense, donde las cámaras de las tiendas etiquetaron falsamente a los consumidores, especialmente mujeres y personas de color, como ladrones, según la Comisión Federal de Comercio.
‘Entendiste mal’
La IA generativa estilo ChatGPT, que puede crear una apariencia de razonamiento a nivel humano en solo segundos, abre nuevas oportunidades para hacer las cosas mal, según temen los expertos.
Los gigantes de la IA son muy conscientes del problema, temen que sus modelos puedan comportarse mal o reflejar demasiado una sociedad occidental cuando su base de usuarios es global.
«Tenemos gente que hace consultas desde Indonesia o Estados Unidos», dijo el director general de Google, Sundar Pichai, explicando por qué las solicitudes de imágenes de médicos o abogados intentarán reflejar la diversidad racial.
Pero estas consideraciones pueden alcanzar niveles absurdos y dar lugar a airadas acusaciones de excesiva corrección política.
Esto es lo que sucedió cuando el generador de imágenes Gemini de Google escupió una imagen de soldados alemanes de la Segunda Guerra Mundial que incluía absurdamente a un hombre negro y una mujer asiática.
«Obviamente, el error fue que aplicamos demasiado… donde nunca debería haberse aplicado. Eso fue un error y nos equivocamos», dijo Pichai.
Pero Sasha Luccioni, científica investigadora de Hugging Face, una plataforma líder para modelos de IA, advirtió que «pensar que existe una solución tecnológica al sesgo ya es ir por el camino equivocado».
La IA generativa se trata esencialmente de si el resultado «corresponde a lo que el usuario espera» y eso es en gran medida subjetivo, dijo.
Los enormes modelos sobre los que se construye ChatGPT «no pueden razonar sobre lo que está sesgado y lo que no, por lo que no pueden hacer nada al respecto», advirtió Jayden Ziegler, jefe de producto de Alembic Technologies.
Al menos por ahora, depende de los humanos garantizar que la IA genere lo que sea apropiado o cumpla con sus expectativas.
Sesgo ‘horneado’
Pero dado el frenesí en torno a la IA, no es una tarea fácil.
Hugging Face tiene alrededor de 600.000 modelos de inteligencia artificial o aprendizaje automático disponibles en su plataforma.
«Cada dos semanas aparece un nuevo modelo y estamos luchando para tratar de evaluar y documentar sesgos o comportamientos indeseables», dijo Luccioni.
Un método en desarrollo es algo llamado degüelle algorítmico que permitiría a los ingenieros eliminar contenido sin arruinar todo el modelo.
Pero existen serias dudas de que esto realmente pueda funcionar.
Otro método «alentaría» a un modelo a ir en la dirección correcta, «lo ajustaría», «recompensando lo correcto y lo incorrecto», dijo Ram Sriharsha, director de tecnología de Pinecone.
Pinecone es un especialista en recuperación de generación aumentada (o RAG), una técnica en la que el modelo recupera información de una fuente fija confiable.
Para Weaver, de Texas Opportunity & Justice Incubator, estos «nobles» intentos de corregir los prejuicios son «proyecciones de nuestras esperanzas y sueños sobre cómo puede ser una mejor versión del futuro».
Pero el sesgo «también es inherente a lo que significa ser humano y, por eso, también está integrado en la IA», dijo.
© 2024 AFP
Citación: ¿Podemos librar a la inteligencia artificial del sesgo? (2024, 19 de mayo) obtenido el 19 de mayo de 2024 de https://techxplore.com/news/2024-05-artificial-intelligence-bias.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings