lunes, 8 de septiembre de 2025

LOS MALOS E INTERNET


¿ Cuantas personas están arruinando Internet para el resto de nosotros?

Jay Van Bavel*




Ilustración: Elia Barbieri





¿Por qué el mundo digital parece tan tóxico en comparación con la vida cotidiana? Nuestra investigación muestra que un pequeño número de cuentas divisivas podrían ser responsables y ofrece una solución.


Cuando navego por las redes sociales, a menudo me voy desmoralizado, con la sensación de que el mundo entero está en llamas y la gente está inflamada de odio. Sin embargo, cuando salgo a las calles de Nueva York para tomar un café o quedar con un amigo para comer, me siento absolutamente tranquilo. El contraste entre el mundo digital y mi realidad diaria se ha vuelto aún más impactante.

Dado que mi trabajo se centra en temas como los conflictos intergrupales, la desinformación, la tecnología y el cambio climático, soy consciente de los numerosos desafíos que enfrenta la humanidad. Sin embargo, resulta sorprendente que la gente en línea parezca estar igual de furiosa por el final de The White Lotus o por el último escándalo que involucra a un youtuber. Todo es o lo mejor del mundo o lo peor, por trivial que sea. ¿Es eso realmente lo que sentimos la mayoría? Resulta que no. Nuestras últimas investigaciones sugieren que lo que vemos en línea es una imagen distorsionada creada por un grupo muy pequeño de usuarios muy activos.
En un artículo que publiqué recientemente con Claire Robertson y Kareena del Rosario, encontramos amplia evidencia de que las redes sociales son menos un reflejo neutral de la sociedad y más un espejo de feria. Amplifican las voces más fuertes y extremistas, mientras que silencian a las moderadas, las matizadas y las aburridamente razonables. Y resulta que gran parte de esa distorsión se debe a un puñado de voces hiperactivas en línea. Tan solo el 10 % de los usuarios produce aproximadamente el 97 % de los tuits políticos.

Tomemos como ejemplo la plataforma de Elon Musk, X. A pesar de albergar a cientos de millones de usuarios, una pequeña fracción de ellos genera la gran mayoría del contenido político. Por ejemplo, Musk publicó 1494 veces en sus primeros 15 días de implementar los recortes gubernamentales para el llamado Departamento de Eficiencia Gubernamental (Doge) a principios de este año. Escribía sin parar. Y muchas de sus publicaciones difundían desinformación a sus 221 millones de seguidores.
El 2 de febrero escribió: "¿Sabías que USAID, con tus impuestos, financió la investigación de armas biológicas, incluyendo la de la COVID-19, que mató a millones de personas?". Su comportamiento coincide con el de muchos superdifusores de desinformación. Tan solo el 0,1% de los usuarios comparte el 80% de las noticias falsas. Doce cuentas, conocidas como la "docena de la desinformación", generaron la mayor parte de la desinformación sobre las vacunas en Facebook durante la pandemia. Estos pocos usuarios hiperactivos produjeron suficiente contenido como para crear la falsa percepción de que muchas personas dudaban de las vacunas.
Se pueden observar patrones similares en internet. Solo un pequeño porcentaje de usuarios se comporta de forma verdaderamente tóxica, pero son responsables de una cantidad desproporcionada de contenido hostil o engañoso en casi todas las plataformas, desde Facebook hasta Reddit. La mayoría de la gente no publica, discute ni alimenta la maquinaria de indignación. Pero, debido a su actividad y visibilidad, los superusuarios dominan nuestra percepción colectiva de internet.
Esto significa que los problemas resultantes no se limitan a este pequeño grupo, lo cual distorsiona la forma en que el resto de nosotros entendemos el mundo. Los humanos creamos modelos mentales sobre lo que piensan o hacen los demás. Así es como desciframos las normas sociales y nos desenvolvemos en los grupos. Pero en las redes sociales, este atajo resulta contraproducente. No obtenemos una muestra representativa de opiniones. En cambio, vemos una avalancha de contenido extremo y con una fuerte carga emocional.

De esta manera, a muchos nos hacen creer que la sociedad está mucho más polarizada, enojada y engañada de lo que realmente es. Pensamos que todos los que están al otro lado de la brecha generacional, del espectro político o de la comunidad de fans son radicales, maliciosos o simplemente estúpidos. Nuestra dieta informativa está moldeada por una pequeña parte de la humanidad cuyo trabajo, identidad u obsesión es publicar constantemente.
Esta distorsión alimenta la ignorancia pluralista —cuando malinterpretamos lo que otros creen o hacen— y puede modificar nuestro comportamiento en consecuencia. Pensemos en los votantes que solo ven las opiniones más polémicas sobre la inmigración o el cambio climático y asumen que no hay puntos en común.
El problema no son solo los extremistas individuales, por supuesto, sino el diseño de la plataforma y los algoritmos que amplifican su contenido. Estos algoritmos están diseñados para maximizar la interacción, lo que significa que priorizan el contenido sorprendente o divisivo. El sistema está optimizado para promover precisamente a los usuarios que tienen más probabilidades de distorsionar nuestra percepción compartida de la realidad.

Y la cosa se pone peor. Imagina que estás sentado en un restaurante lleno de gente, teniendo que hablar un poco más alto para que te escuchen. Al poco tiempo, todos están gritando. Esta misma dinámica ocurre en línea. La gente exagera sus creencias o repite historias escandalosas para llamar la atención y obtener aprobación. En otras palabras, incluso quienes no son especialmente extremistas pueden empezar a actuar de esa manera en línea, porque reciben recompensa.

La mayoría de nosotros no pasamos tiempo en el teléfono criticando a nuestros enemigos. Estamos ocupados trabajando, criando familias, pasando tiempo con amigos o simplemente buscando entretenimiento inofensivo en internet. Sin embargo, nuestras voces se silencian. Hemos cedido el megáfono a las personas más desagradables y hemos dejado que nos digan qué creer y cómo actuar.

Con más de 5 mil millones de personas en redes sociales, esta tecnología no va a desaparecer. Pero la dinámica tóxica que he descrito no tiene por qué prevalecer. El primer paso es ver más allá de la ilusión y comprender que una mayoría silenciosa a menudo se esconde tras cada hilo incendiario. Y nosotros, como usuarios, podemos recuperar parte del control: seleccionando cuidadosamente nuestros feeds, resistiendo la provocación y negándonos a amplificar las tonterías. Piénsalo como decidir seguir una dieta más saludable y menos procesada.
En una serie reciente de experimentos, pagamos a personas unos dólares para que dejaran de seguir las cuentas políticas más divisivas en X. Tras un mes, informaron sentir un 23 % menos de animosidad hacia otros grupos políticos. De hecho, su experiencia fue tan positiva que casi la mitad de las personas se negaron a volver a seguir esas cuentas hostiles una vez finalizado el estudio. Y quienes mantuvieron una sección de noticias más activa informaron de una menor animosidad 11 meses después del estudio.
Las plataformas podrían rediseñar fácilmente sus algoritmos para dejar de promover las voces más escandalosas y priorizar contenido más representativo o matizado. De hecho, esto es lo que la mayoría de la gente desea . Internet es una herramienta poderosa y, a menudo, valiosa. Pero si seguimos permitiendo que solo refleje el mundo de la feria creado por los usuarios más extremistas, todos sufriremos las consecuencias.


*Jay Van Bavel es profesor de Psicología y Neurociencia en la Universidad de Nueva York


































No hay comentarios:

Publicar un comentario