Con un gran poder viene una gran responsabilidad. En términos de Internet, el poder se encuentra en la multitud de información disponible para los usuarios en todas partes, pero ¿quién es responsable de asegurarse de que la información disponible sea buena y verdadera?
La «mala» información tiene serias implicaciones. La desinformación, la propaganda y las noticias falsas prevalecen en la web y en las plataformas de redes sociales y pueden convertirse en armas, lo que conduce al abuso cibernético y, en casos graves, a disturbios civiles.
El Instituto de Ciencias de la Información (ISI) de la Universidad del Sur de California, una unidad de la Escuela de Ingeniería Viterbi, está trabajando en dos proyectos destinados a resolver este problema de adentro hacia afuera, mediante el desarrollo de tecnología que pueda ejercitar las capacidades de razonamiento cuando se encuentre con este «malo». información.
Esta tecnología serviría como asistente para los moderadores humanos cuyo trabajo es vigilar las plataformas en línea y buscar contenido malicioso.
Tecnología en la que puede confiar
El primer proyecto involucra la detección de falacias lógicas en argumentos de lenguaje natural.
Entonces, ¿qué es exactamente una falacia lógica?
Las falacias lógicas son errores en el razonamiento que se utilizan para demostrar que un argumento es verdadero. Sus orígenes se remontan mucho antes de la era de Internet: su debate en el ámbito de la filosofía tiene sus raíces en la antigua Grecia, hace unos 2.800 años.
En el contexto de la web, las falacias lógicas aparecen en forma de afirmaciones falsas o engañosas que circulan como resultado del libre intercambio de información a gran escala que permite Internet.
Filip Ilievski, líder de investigación en ISI y profesor asistente en la USC, dijo que encontrar falacias lógicas es el primer paso para dominar antes de abordar los verdaderos gigantes que pueden manifestarse como resultado de las actividades de intercambio de información en la web.
«Una vez que pueda identificar de manera confiable y transparente las falacias lógicas, puede aplicar esa tecnología para tratar casos de información errónea, noticias falsas y propaganda», dijo Ilievski.
Este trabajo es el primero de su tipo en aplicar múltiples capas a la detección de falacias lógicas, explicó Ilievski. Esto implica pedirle al modelo que primero determine si el argumento dado es sólido y luego vaya «un nivel más profundo» e «identifique en un nivel alto qué tipo de falacia contiene el argumento».
¿Cómo saben?
La IA explicable puede identificar falacias lógicas y clasificarlas de dos maneras destacadas: razonamiento basado en casos y métodos de creación de prototipos.
Ilievski señaló que el trabajo de ISI está entre los primeros en combinar los dos con modelos de lenguaje y «hacerlos escalar a situaciones y tareas arbitrarias».
El razonamiento basado en casos es exactamente como suena. Al modelo se le muestra un ejemplo antiguo de un argumento con falacias lógicas similares y luego usa este conocimiento para inferir sus decisiones sobre un nuevo argumento.
«Dices bien, no sé cómo resolver este argumento, pero tengo este viejo ejemplo que puedes usar en el nuevo frente a ti», explicó Ilievski.
Los métodos prototípicos siguen el mismo proceso. La única diferencia es que el modelo hace inferencias a partir de un caso básico simplificado que se puede desarrollar y aplicar a un ejemplo específico.
La clave aquí es que estos modelos están haciendo más que solo identificar una falacia lógica: están dando explicaciones razonables para respaldar su juicio, una acción que Ilievski dice que es un «factor alentador» para el futuro de estos métodos en la práctica.
La mejor herramienta de un hombre.
¿Cómo se aplica esto en el mundo real, contra los gigantes reales (propaganda, información errónea y noticias falsas) que representan amenazas en línea?
Ilievski prevé que estas IA explicables actúen como «herramientas de asistente humano» que ayuden a los moderadores o analistas que monitorean las comunidades en línea.
Los moderadores son responsables de supervisar la actividad de millones de usuarios que intercambian ideas las 24 horas del día, los 7 días de la semana. Verificar manualmente las falacias, dado su volumen y complejidad, es abrumador. Agregar aprendizaje automático al equipo ayuda a mitigar esta carga.
«Digamos que tiene un moderador en una plataforma de redes sociales y quiere saber si algo es falso. Sería útil tener una herramienta como esta que brinde asistencia y destape posibles falacias, especialmente si están vinculadas a la propaganda y a la posible desinformación». explicó Ilievski.
El factor de explicabilidad, o la capacidad de la IA para proporcionar un razonamiento detrás de las falacias que identifica, es lo que realmente «fomenta la confianza y el uso en los marcos de la IA humana», agregó.
Sin embargo, advierte que la IA explicable no son herramientas en las que debamos confiar ciegamente.
«Pueden hacernos la vida más fácil, pero no son suficientes por sí solos», señaló Ilievski.
Memes, misoginia y más
A la IA explicable también se le puede enseñar cómo identificar memes que contienen elementos problemáticos, como el «humor negro», que a veces es totalmente discriminatorio y ofensivo para grupos específicos de personas o la sociedad en su conjunto.
Para este segundo proyecto, el equipo se centró en dos tipos específicos de contenido de memes dañinos: la misoginia y el discurso de odio.
Zhivar Sourati, estudiante de posgrado de la USC que trabaja junto a Ilievski en ambos proyectos, dice que la detección transparente de memes que tienen fundamentos problemáticos es crucial para determinar la rapidez con la que se propaga la información en línea.
«Para los moderadores de contenido, es muy importante poder detectar estos memes desde el principio, porque se propagan en las redes sociales como Twitter o Facebook y llegan a grandes audiencias muy rápidamente».
Por naturaleza, dice Sourati, los memes dependen de más aspectos de los que se ven a simple vista. Aunque los memes son conocidos por ser breves (a veces contienen solo una imagen simple), a menudo reflejan referencias culturales que pueden ser difíciles de explicar.
«Tienes una imagen, y luego tal vez ni siquiera una oración, sino un fragmento de texto. Probablemente se refiera a un concepto, una película o algo que esté en las noticias», explicó Sourati. «Inmediatamente sabes que es divertido, pero es realmente difícil explicar por qué, incluso para los seres humanos y ese es el caso del aprendizaje automático también».
Este aspecto inexplicable de los memes hace que sea aún más desafiante enseñar al aprendizaje automático cómo clasificarlos, porque primero deben comprender la intención y el significado detrás de ellos.
Llegando al meollo de la cuestión
El marco que usaron Ilievski y Sourati se llama «razonamiento basado en casos».
El razonamiento basado en casos es esencialmente la forma en que los humanos abordan un problema: aprender de ejemplos anteriores y aplicar ese conocimiento a otros nuevos.
A la máquina se le muestran un par de ejemplos de memes que son problemáticos y el motivo. Entonces, dice Sourati, la máquina es capaz de construir una biblioteca de ejemplos, de modo que cuando tiene la tarea de clasificar un nuevo meme que podría tener «un poco de abstracción de los ejemplos anteriores», puede «abordar el nuevo problema con todos los el conocimiento que lleva hasta ahora».
Por ejemplo, si se enfocaran específicamente en la misoginia, podrían preguntar: «¿Por qué este meme es misógino? ¿Es vergonzoso? ¿Es un estereotipo? ¿Está demostrando la cosificación de una mujer?».
Utilizaron una interfaz explicativa para visualizar el razonamiento de los modelos y comprender por qué el modelo predice de la forma en que lo hace. Esta táctica de visualización ayudó a solucionar problemas y mejorar las habilidades del modelo.
«Un beneficio es que podemos realizar un análisis de errores más fácil. Si nuestro modelo comete 20 errores de 100 casos, podemos abrir esos 20 y buscar un patrón de los sesgos del modelo en términos de diferentes datos demográficos de lo que se representa o un caso específico». objeto indicado», explicó Ilievski. «Tal vez cada vez que ve un helado, piensa que es misoginia».
Humanos e IA: un dúo heroico
Al igual que la detección de falacias lógicas, la clasificación de memes no se puede realizar de forma totalmente automática y requiere la colaboración entre humanos e IA.
Dicho esto, los hallazgos de Ilievski y Sourati muestran un futuro prometedor para la capacidad de la IA para ayudar a los humanos a detectar el discurso de odio y la misoginia en los memes.
La complejidad de comprender los memes, o el «elemento sorpresa», como lo expresó Ilievski, hizo que trabajar en este tema fuera especialmente emocionante.
«Hay un elemento de dificultad que hace que este proceso sea muy interesante desde la perspectiva de la IA porque hay información implícita en los memes», dijo Ilievski.
«Hay dimensiones culturales y contextuales, y una noción de que es muy creativo y personal para el creador del meme. Todo esto en conjunto hizo que trabajar en este proyecto fuera especialmente emocionante», agregó.
El equipo de ISI puso sus hallazgos y código a disposición de otros investigadores, con la esperanza de que el trabajo futuro continúe desarrollando la capacidad de la IA para ayudar a los humanos en su lucha contra el contenido peligroso y dañino en línea.
Citación: Internet tiene un lado oscuro, pero ¿podemos enseñar a las máquinas a identificarlo? (2023, 10 de julio) consultado el 11 de julio de 2023 en https://techxplore.com/news/2023-07-internet-dark-side-machines.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.