Los trolls, haters, flamers y otros personajes feos son, desafortunadamente, una realidad en gran parte de Internet. Su fealdad arruina las redes sociales y sitios como Reddit y Wikipedia.
Pero el contenido tóxico se ve diferente según el lugar, e identificar la toxicidad en línea es un primer paso para deshacerse de él.
Un equipo de investigadores del Instituto de Investigación de Software (ISR) de la Facultad de Ciencias de la Computación de la Universidad Carnegie Mellon colaboró recientemente con colegas de la Universidad Wesleyan para dar un primer paso en la comprensión de la toxicidad en plataformas de código abierto como GitHub.
«Tienes que saber cómo se ve esa toxicidad para diseñar herramientas para manejarla», dijo Courtney Miller, Ph.D. estudiante en el ISR y autor principal del artículo. «Y manejar esa toxicidad puede conducir a lugares más saludables, más inclusivos, más diversos y simplemente mejores en general».
Para comprender mejor cómo se veía la toxicidad en la comunidad de código abierto, el equipo primero reunió contenido tóxico. Usaron un detector de toxicidad y cortesía desarrollado para otra plataforma para escanear casi 28 millones de publicaciones en GitHub realizadas entre marzo y mayo de 2020. El equipo también buscó en estas publicaciones «código de conducta», una frase que se invoca a menudo cuando se reacciona a contenido tóxico, y buscó problemas bloqueados o eliminados, lo que también puede ser un signo de toxicidad.
A través de este proceso de curación, el equipo desarrolló un conjunto de datos final de 100 publicaciones tóxicas. Luego usaron estos datos para estudiar la naturaleza de la toxicidad. ¿Fue insultante, autoritario, arrogante, trolling o poco profesional? ¿Estaba dirigido al código en sí, a las personas o a algún otro lugar por completo?
«La toxicidad es diferente en las comunidades de código abierto», dijo Miller. «Es más contextual, titulado, sutil y pasivo-agresivo».
Solo alrededor de la mitad de las publicaciones tóxicas que identificó el equipo contenían obscenidades. Otros eran de usuarios exigentes del software. Algunos provienen de usuarios que publican muchos problemas en GitHub pero contribuyen poco más. Los comentarios que comenzaron sobre el código de un software se volvieron personales. Ninguna de las publicaciones ayudó a mejorar el software de código abierto o la comunidad.
«La peor aplicación de la historia. Por favor, que no sea la peor aplicación de la historia. Gracias», escribió un usuario en una publicación incluida en el conjunto de datos.
El equipo notó una tendencia única en la forma en que las personas respondían a la toxicidad en las plataformas de código abierto. A menudo, el desarrollador del proyecto hizo todo lo posible para acomodar al usuario o solucionar los problemas planteados en el contenido tóxico. Esto habitualmente resultó en frustración.
«Querían dar el beneficio de la duda y crear una solución», dijo Miller. «Pero esto resultó ser bastante agotador».
La reacción al documento ha sido fuerte y positiva, dijo Miller. Los desarrolladores de código abierto y los miembros de la comunidad estaban emocionados de que esta investigación se llevara a cabo y de que finalmente se reconociera el comportamiento con el que habían estado lidiando durante mucho tiempo.
«Hemos estado escuchando a los desarrolladores y miembros de la comunidad durante mucho tiempo sobre la toxicidad desafortunada y casi arraigada en el código abierto», dijo Miller. «Las comunidades de código abierto son un poco toscas. A menudo tienen una diversidad y retención terribles, y es importante que comencemos a abordar y lidiar con la toxicidad allí para convertirlo en un lugar mejor y más inclusivo».
Miller espera que la investigación cree una base para más y mejor trabajo en esta área. Su equipo no llegó a construir un detector de toxicidad para la comunidad de código abierto, pero se sentaron las bases.
«Hay mucho trabajo por hacer en este espacio», dijo Miller. «Realmente espero que la gente vea esto, lo amplíe y mantenga las cosas en marcha».
Junto a Miller en el trabajo estaban Daniel Klug, un científico de sistemas en el ISR; los miembros de la facultad de ISR Bogdan Vasilescu y Christian Kästner; y Sophie Cohen de la Universidad Wesleyana. El trabajo del equipo fue presentado en la Conferencia Internacional ACM/IEEE sobre Ingeniería de Software el mes pasado en Pittsburgh.
La investigación muestra que Twitter impulsa la popularidad y los contribuyentes al software de código abierto
Papel: ¿Te perdiste mi comentario o qué?» Comprender la toxicidad en las discusiones de código abierto
Citación: El estudio encuentra que la toxicidad en la comunidad de código abierto varía de otros foros de Internet (28 de junio de 2022) consultado el 13 de julio de 2022 de https://techxplore.com/news/2022-06-toxicity-open-source-varies-internet- foros.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.