Entrevista
Walter Quattrociocchi, data scientist: "No es el algoritmo, la toxicidad en las redes sociales es humana"
Este matemático, jefe del Centro de Ciencias de los Datos y Complejidad de la Sociedad de la Universidad de La Sapienza de Roma, es el autor de una rompedora investigación publicada en 'Nature' fruto del análisis de 500 millones de mensajes publicados durante 34 años en ocho plataformas
Irene Savio
"También yo alguna vez he expresado toxicidad on line, pero esto mejor no lo escriba. Es que todos podemos hacerlo". Y al decir esto -medio en broma, medio en serio-, Walter Quattrociocchi (Marino, 1980), data scientist e investigador de la Universidad de La Sapienza de Roma, deja escapar una carcajada que a lo largo de la entrevista repetirá varias veces, tal vez hija de cierta desinhibición o del cinismo propio de los empíricos. Porque hoy, cuando hablamos con él, su nombre -junto al de una decenas de otros investigadores- ya resuena en la comunidad académica. La razón es que, buscando comprender el comportamiento humano en nuestra era, a través del análisis matemático y estadístico, este catedrático y jefe del Centro de Ciencias de los Datos y Complejidad de la Sociedad de su universidad podría haber descubierto una clave para entender la toxicidad en las redes sociales, uno de los aspectos más problemáticos de las interacciones en Internet. O al menos así lo sugiere su última y rompedora investigación, iniciada hace más de dos años y ahora publicada en la prestigiosa revista 'Nature', que incluso ha llamado la atención de la Comisión Europea.
Afirma que después de analizar 500 millones de mensajes publicados durante 34 años en ocho plataformas, llegó a la conclusión de que los tóxicos somos nosotros, no las redes o el algoritmo.
Exacto. No es el algoritmo, somos nosotros. Esto lo cambia todo, ¿verdad? Sobre todo porque llevamos años diciendo que los que crean problemas son Twitter, Facebook, y eso no es lo que emerge de nuestro estudio. Hemos analizado mensajes escritos en épocas, contextos y sobre argumentos distintos… Basta con observar los blogs más antiguos, o los chats IRC; las dinámicas ahí eran las mismas. Esto nos tiene que hacer reflexionar sobre el hecho de que tal vez estamos planteando el problema de forma equivocada. Es el comportamiento humano el que persiste.
"La toxicidad no ahuyenta a los usuarios; al contrario, en muchos casos esta agresividad aparece desde el inicio"
¿Por qué es así?
Primero tenemos que decidir a qué llamamos toxicidad. En nuestro caso, hemos definido toxicidad como un comentario vulgar, irrespetuoso o poco razonable que probablemente haga que alguien abandone una discusión. Pero esto tampoco ha resultado cierto. Lo que hemos descubierto es que existe cierta resiliencia al discurso tóxico, es decir, la toxicidad no ahuyenta a los usuarios, no pone fin a sus discusiones; al contrario, en muchos casos esta agresividad aparece desde el inicio de las conversaciones.
Nos gusta.
Sí, nos gusta, porque además en Internet eres consciente de que nadie te dará una hostia de verdad, no hay contacto físico. Todo son palabras, por lo que acaba siendo un medio para desahogarse. Esto, en cierto sentido, es positivo, o al menos, más positivo que la agresividad física, pero aún así ha sido una sorpresa descubrir que la toxicidad por sí sola no es un factor que interrumpe la interacción.
"En Internet eres consciente de que nadie te dará una hostia de verdad, no hay contacto físico"
Su estudio también afirma que la toxicidad no aumenta en las conversaciones más largas.
Efectivamente. Cuanto más comentarios hay, menos tóxicos hay.
¿No cree que corren el riesgo de exculpar a una industria rentable y con todo tipo de intereses?
No estoy exculpando a nadie; mi enfoque es neutral. De hecho, uno de nuestros objetivos era distinguir qué comportamiento es humano y cuál se debe al factor algorítmico. El resultado es que, en un estudio realizado en diferentes plataformas, la toxicidad no varía, se mantiene estable. Creo que esto es útil para buscar soluciones, lo que no significa que no haya toxicidad en las plataformas.
"No es cierto que haya aumentado la toxicidad en los últimos años"
¿Entonces hay o no un aumento de toxicidad en estos últimos años?
No, esto tampoco es cierto. En términos estadísticos ha habido algunas fluctuaciones en los años, pero han sido mínimas.
¿Algunos perfiles son más propensos a la toxicidad?
Si lo que pregunta es si hay una propensión mayor entre mujeres u hombres, o en algunas generaciones, la respuesta es no. Ni existe eso del 'hater' irredento. Por supuesto, si te encuentras 'on line' con alguien que tiene una opinión diferente sobre un tema que te interesa, la probabilidad de comentarios tóxicos aumenta. Pero eso también es por el tribalismo, y lo hemos detectado ya en otros estudios hace años.
"El algoritmo sí favorece las tribus, usuarios que comparten un discurso"
¿Tribalismo?
Sí. En las redes se forman tribus que construyen un discurso compartido. Y esto sí es favorecido por el algoritmo, cuyo objetivo principal es mantener a los usuarios en la plataforma el mayor tiempo posible. Por eso, el algoritmo fomenta las interacciones con personas y contenido con los que ya has interactuado, crendo 'cámaras de eco'. Si te gusta el Real Madrid, verás más contenido relacionado con el Real Madrid. Así es como se forman estas tribus. Los antivacunas se agrupan con los antivacunas, los provacunas con los provacunas, los prorrusos con los prorrusos, los antirrusos con los antirrusos, etcétera.
Decía que las grandes empresas no son culpables. Sin embargo, ¿pueden hacer algo para evitar esta toxicidad?
Podrían financiar investigaciones que estudien cómo explicar a las personas qué herramientas pueden usar para evitar los comentarios tóxicos y actuar con moderación. Pero primero, es necesario comprender que el factor humano es central.
Si esta realidad ha persistido durante tanto tiempo, ¿no es utópico pensar que tiene solución?
No. Los humanos aprendemos, no somos máquinas; por eso podemos tomar conciencia de cómo nos comportamos 'on line' y cómo deberíamos comportarnos. También lo he mencionado en un reciente encuentro con la Comisión Europea.
¿La Comisión Europea?
Sí. El departamento de Justicia se ha interesado en el estudio y me ha convocado. Iré en junio. Aunque todavía hay muchas cosas por descubrir. Por ejemplo, qué impacto tiene esto en el mundo real. Otro asunto que me obsesiona es la polarización, un comportamiento que va muy unido al tóxico y que el sentido común, aunque aún no exista el análisis científico, sugiere que podría estar asociado al crecimiento de la desigualdad. Estudiar a las sociedades a través de los datos es un recurso muy valioso.
- Paula Echevarría habla claro y sentencia todos los rumores sobre el fracaso de la nueva profesión de Bustamante
- Belén Esteban habla abiertamente de su problema de salud: "Me han encontrado...
- Adiós a Jordi Cruz: cancelan al juez de 'Masterchef 12' y ponen en cuestión sus facultades para seguir conduciendo el programa
- El consejo de Niño Becerra para comprar un piso: "Lo que se tiene que tener muy en cuenta es...
- Marina, socia de cuna del Castellón: "Lo primero que hicimos cuando salimos del hospital fue sacarle el carnet
- Continúa la polémica: Jordi Cruz publica un video con la concursante que abandonó 'Masterchef 12
- Gemma Lienas recibe el Premio CEDRO por su compromiso con los derechos de propiedad intelectual
- Fallece a los 17 años la deportista María Herranz a causa de una meningitis