¿Alguna vez has notado que las caras en los anuncios de Facebook parecen coincidir con tu género, raza o edad? Eso no es un accidente, dicen los investigadores de informática del noreste.
Un nuevo artículo publicado por un grupo de investigadores de la Facultad de Ciencias de la Computación Khoury de Northeastern encontró que el algoritmo de Facebook entrega anuncios de manera diferente según quién aparece en la imagen del anuncio.
«Cuando elige incluir una imagen de una persona negra, eso hará que sea más probable que el anuncio se entregue a los usuarios negros», dice Alan Mislove, profesor y decano asociado senior de asuntos académicos en Khoury y uno de los autores de la investigación. «Cuando eliges incluir una imagen de una mujer contra un hombre, en general irá más a las mujeres, excepto las imágenes de mujeres jóvenes, que van más a los hombres mayores».
La publicidad discriminatoria está bien documentada en Facebook. En junio, el Departamento de Justicia de EE. UU. logró un acuerdo de conciliación luego de acusar a Meta de sesgo algorítmico por su sistema de entrega de anuncios de viviendas. El documento en sí es parte de un enfoque más amplio en la auditoría algorítmica y la entrega de anuncios para Mislove, quien fue coautor del documento con el científico investigador asociado de Khoury, Piotr Sapiezynski, Ph.D. el candidato Levi Kaplan y la estudiante de ciberseguridad de tercer año Nicole Gerzon.
El trabajo anterior de los investigadores mostró cuán problemático era el sistema de entrega de anuncios de Facebook, sesgando la entrega de anuncios a lo largo de líneas principalmente demográficas. Los anuncios de trabajo en la industria maderera se entregan de manera desproporcionada a los hombres blancos, mientras que los trabajos para puestos de conserjería se entregan de manera desproporcionada a las mujeres negras, según Mislove.
Mislove dice que esto sucede a menudo independientemente de lo que los anunciantes le hayan dicho al sistema de entrega de anuncios de Facebook. La forma en que funciona es que los anunciantes cargan su anuncio en Facebook y luego especifican su público objetivo, como personas de 18 a 35 años en Boston.
«Esa es una gran población», dice Mislove. «Es muy probable que su anuncio no se muestre a todos. El algoritmo decidirá, en cierto sentido, qué subconjunto los ve, y lo hace al hacer una estimación de la relevancia, lo que significa qué usuarios tienen más probabilidades de interactuar con este .»
Pero, ¿cómo aprende el algoritmo a discriminar? Como cualquier algoritmo, el sistema de entrega de anuncios de Facebook se entrena con datos. En este caso, eso incluye todos los datos que Meta ha recopilado en todos los anuncios anteriores que se han publicado en Facebook y quién ha hecho clic en esos anuncios. Esta última investigación muestra que la imagen incluida en el anuncio es a lo que el algoritmo de Facebook responde con más fuerza.
«El algoritmo va a averiguar: ‘¿Qué puedo usar que sea más probable que haga que alguien haga clic?'», dice Mislove. «En este caso, la raza y el género predicen si alguien va a hacer clic, por lo que usa ese solo porque eso es exactamente para lo que está diseñado».
El algoritmo no sabe ni se preocupa por la raza, el género y la edad, pero aún usa esas características para hacer estimaciones «muy crudas» sobre dónde enviar anuncios de vivienda o trabajo, dice Sapiezynski.
«Probablemente, Facebook podría decir que no intenta hacer una clasificación de carreras a partir de imágenes, pero los resultados que presentamos muestran, en algún nivel, que está sucediendo porque el algoritmo no reconoce que esto es solo un anuncio de una persona, pero es un tipo particular de persona con el que es más probable que los negros se relacionen», dice Sapiezynski. «Entonces, efectivamente, está haciendo una clasificación de raza en imágenes de personas».
En algunos casos, esto podría ser exactamente lo que busca un anunciante. Si quieren atraer a más mujeres o personas de color, probablemente usarán imágenes con mujeres y personas de color y el algoritmo se dará cuenta de eso cuando entregue el anuncio. En otros casos, puede ser extremadamente problemático. En lo que Mislove llamó Creepy Old Man Effect, los anuncios que presentaban a mujeres jóvenes se entregaban de manera desproporcionada a hombres mayores.
Parte del desafío es que hay muy poca transparencia cuando se trata de cómo funciona este sistema. Mislove, Sapiezynski y su equipo gastaron decenas de miles de dólares e innumerables horas configurando las campañas publicitarias que usaron para descubrir cómo funciona este sistema. Pero el anunciante promedio no necesariamente tiene el tiempo o los recursos para hacerlo.
También hay preguntas de política más amplias sobre cómo las protecciones de los derechos civiles existentes se relacionan con los algoritmos y la inteligencia artificial. La Ley de Vivienda Justa, la Ley de Igualdad de Oportunidades de Crédito y la Ley de Discriminación por Edad en el Empleo incluyen regulaciones sobre la publicidad tradicional, pero no los anuncios en las redes sociales.
«Necesitamos dejar más claro cuándo sucede esto, a quién le sucede y luego dar a los anunciantes el control para que digan: «Tal vez no quiero que este algoritmo de publicación de anuncios haga esto en un anuncio de oportunidad donde podría ser potencialmente ilegal debido a protección de los derechos civiles'», dice Mislove.
Entre la reciente demanda del Departamento de Justicia contra Meta y el plan de la Casa Blanca para una declaración de derechos de la IA, el debate sobre las implicaciones de estos sistemas en el mundo real se está calentando. Las empresas de redes sociales están presionando por la autorregulación, pero Mislove dice que no hay garantía de que eso aborde el problema.
«Creo que tienen un historial pobre de autorregulación», dice Mislove. «En muchos casos, no quieren involucrarse en estos temas porque se encuentran en el centro de su modelo de negocios… Sin duda necesitaría regulaciones y leyes para abordar lo que puede hacer, pero no está claro cuál es la mejor manera hacer eso todavía».
La investigación fue publicada como parte de la Actas de la 22.ª Conferencia de Medición de Internet de ACM.
El sistema de entrega de anuncios de Facebook aún discrimina por raza, género y edad
Levi Kaplan et al, Medición y análisis de la identidad implícita en la optimización de la entrega de anuncios, Actas de la 22.ª Conferencia de Medición de Internet de ACM (2022). DOI: 10.1145/3517745.3561450
Citación: El algoritmo de entrega de anuncios de Facebook discrimina según la raza, el género y la edad en las fotos, según los investigadores (2022, 25 de octubre) consultado el 25 de octubre de 2022 de https://techxplore.com/news/2022-10-facebook-ad-delivery- algoritmo-discriminante.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.