Si bien se ha prestado mucha atención a los «deepfakes» sexualmente explícitos, Centrado en las celebridadesestas imágenes y vídeos sexuales no consensuados generados con inteligencia artificial Perjudicar a las personas tanto dentro como fuera del centro de atención.A medida que los modelos de IA de texto a imagen se vuelven más sofisticados y fáciles de usar, El volumen de dicho contenido sólo está aumentando.
El creciente problema llevó a Google a anunciar el pasado mes de abril que… Trabajar para filtrar estos deepfakes en los resultados de búsqueday el El Senado aprobó recientemente un proyecto de ley permitiendo a las víctimas reclamar daños legales a los creadores de deepfakes.
En vista de esta creciente atención, los investigadores de la Universidad de Washington y la Universidad de Georgetown quisieron entender mejor las opiniones públicas sobre la creación y difusión de lo que ellos llaman «medios sintéticos». En una encuesta, 315 personas consideraron que la creación y difusión de medios sintéticos era inaceptable, pero muchas menos respuestas se opusieron firmemente a la búsqueda de estos medios, incluso cuando retrataban actos sexuales.
Todavía Investigación previa Ha demostrado que otras personas que ven abusos basados en imágenes, como desnudos compartidos sin consentimiento, dañan significativamente a las víctimas. En casi todos los estados, incluido WashingtonCrear y compartir dicho contenido no consensuado es un delito.
«Centrar el consentimiento en las conversaciones sobre los medios sintéticos, en particular las imágenes íntimas, es clave a medida que buscamos formas de reducir su daño, ya sea a través de la tecnología, los mensajes públicos o las políticas», dijo la autora principal Natalie Grace Brigham, quien era estudiante de maestría en la Escuela Paul G. Allen de Ciencias Informáticas e Ingeniería de la UW mientras completaba esta investigación. «En un desnudo sintético, no es el cuerpo del sujeto, como lo hemos considerado típicamente, lo que se comparte. Por lo tanto, debemos ampliar nuestras normas e ideas sobre el consentimiento y la privacidad para tener en cuenta esta nueva tecnología».
Los investigadores presentarán sus hallazgos el 13 de agosto en el 20º Simposio sobre Privacidad y Seguridad Utilizables en Filadelfia. El trabajo también publicado en el arXiv servidor de preimpresión.
«En cierto sentido, nos encontramos ante una nueva frontera en cuanto a la forma en que se violan los derechos a la privacidad de las personas», dijo el coautor principal Tadayoshi Kohno, profesor de la Escuela Allen de la Universidad de Washington. «Estas imágenes son sintéticas, pero aún así son similares a personas reales, por lo que buscarlas y verlas es perjudicial para esas personas».
La encuesta, que los investigadores realizaron en línea a través de Prolíficoun sitio que paga a la gente para que responda sobre una variedad de temas, pidió a los encuestados estadounidenses que leyeran viñetas sobre medios sintéticos.
El equipo alteró variables en estos escenarios, como quién creó los medios sintéticos (una pareja íntima, un extraño), por qué los crearon (para hacer daño, entretenimiento o placer sexual) y qué acción se mostró (el sujeto realizando un acto sexual, jugando un deporte o hablando).
Los encuestados clasificaron las distintas acciones en función de los escenarios (crear el video, compartirlo de diferentes maneras, buscarlo) desde «totalmente inaceptable» hasta «totalmente aceptable» y explicaron sus respuestas en una o dos oraciones. Finalmente, completaron encuestas sobre consentimiento e información demográfica. Los encuestados tenían más de 18 años y el 50 % eran mujeres, el 48 % hombres, el 2 % no binarios y el 1 % agénero.
En general, los encuestados consideraron inaceptable la creación y el intercambio de medios sintéticos. La media de las calificaciones de totalmente inaceptable o algo inaceptable fue del 90 % para la creación de estos medios y del 94 % para su intercambio. Sin embargo, la media de calificaciones de inaceptable para la búsqueda de medios sintéticos fue de solo el 53 %.
Los hombres tenían más probabilidades que los encuestados de otros géneros de considerar aceptable la creación y el intercambio de medios sintéticos, mientras que los encuestados que tenían opiniones favorables sobre el consentimiento sexual tenían más probabilidades de considerar inaceptables estas acciones.
«Se ha hablado mucho sobre políticas para evitar la creación de desnudos sintéticos, pero no tenemos buenas herramientas técnicas para hacerlo y, al mismo tiempo, necesitamos proteger los casos de uso consensual», dijo la coautora principal Elissa M. Redmiles, profesora adjunta de informática en la Universidad de Georgetown. «En cambio, necesitamos cambiar las normas sociales.
Por eso necesitamos cosas como mensajes disuasorios en las búsquedas; hemos visto que son eficaces en Reducir la visualización de imágenes de abuso sexual infantil—y educación basada en el consentimiento en las escuelas centrada en este contenido».
Los encuestados consideraron que los escenarios en los que las parejas íntimas creaban contenidos multimedia sintéticos de personas practicando deportes o hablando con la intención de entretener eran los más aceptables. Por el contrario, casi todos los encuestados consideraron totalmente inaceptable crear y compartir deepfakes sexuales de parejas íntimas con la intención de hacer daño.
Los razonamientos de los encuestados variaron. Algunos consideraron que los medios sintéticos eran inaceptables solo si el resultado era perjudicial. Por ejemplo, un encuestado escribió: «No me está haciendo daño ni me está chantajeando… [a]»Mientras no se comparta, creo que está bien». Otros, sin embargo, se centraron en su derecho a la privacidad y el derecho al consentimiento. «Siento que es inaceptable manipular mi imagen de esa manera: mi cuerpo y cómo se ve me pertenecen», escribió otro.
Los investigadores señalan que los trabajos futuros en este espacio deberían explorar la prevalencia de medios sintéticos no consensuales, los canales a través de los cuales se crean y comparten, y los diferentes métodos para disuadir a las personas de crear, compartir y buscar medios sintéticos no consensuales.
«Algunas personas argumentan que las herramientas de IA para crear imágenes sintéticas tendrán beneficios para la sociedad, como para las artes o la creatividad humana», dijo la coautora Miranda Wei, estudiante de doctorado en la Escuela Allen.
«Sin embargo, descubrimos que la mayoría de las personas pensaba que crear imágenes sintéticas de otras personas en la mayoría de los casos era inaceptable, lo que sugiere que todavía tenemos mucho más trabajo por hacer cuando se trata de evaluar los impactos de las nuevas tecnologías y prevenir daños».
Más información:
Natalie Grace Brigham et al, «Violación de mi cuerpo:» Percepciones de imágenes no consensuales (íntimas) generadas por IA, arXiv (2024). DOI: 10.48550/arxiv.2406.05520
Citación:Los encuestados calificaron la búsqueda de «deepfakes» sexualmente explícitos como más aceptable que crearlos o compartirlos (9 de agosto de 2024) recuperado el 9 de agosto de 2024 de https://techxplore.com/news/2024-08-survey-sexually-explicit-deepfakes.html
Este documento está sujeto a derechos de autor. Salvo que se haga un uso legítimo con fines de estudio o investigación privados, no se podrá reproducir ninguna parte del mismo sin autorización por escrito. El contenido se ofrece únicamente con fines informativos.
GIPHY App Key not set. Please check settings