Tras el atentado a Miguel Uribe, urge reflexionar sobre cómo las redes, guiadas por algoritmos que premian el odio, alimentan la polarización y dañan la democracia
Este es un espacio de expresión libre e independiente que refleja exclusivamente los puntos de vista de los autores y no compromete el pensamiento ni la opinión de Las2orillas.
Mientras aún seguimos consternados por el condenable ataque contra el candidato presidencial Miguel Uribe, a quien deseo una pronta recuperación, las redes sociales no se detienen en su afán de buscar protagonismo. En medio de este ambiente denso, con la polarización en su punto más alto, donde parece que gana quien más odio, teorías conspirativas y desinformación comparte, creo que es urgente hacer un llamado a la calma y a la reflexión. ¿Cómo llegamos hasta este punto? ¿Y cómo es que tanto contenido disfrazado de “información” circula y se consume como pan fresco?
Hay que empezar por decir que, para muchas personas, especialmente las más pobres y vulnerables, Facebook se ha convertido en su única fuente de noticias. En ese contexto, las redes sociales no solo han transformado la manera en que nos informamos, opinamos y reaccionamos, también han moldeado lo que creemos que es cierto. A mí, personalmente, este tema me ha parecido tan fascinante como revelador.
Lo más sorprendente que he aprendido es que, detrás de cada publicación que vemos, cada “me gusta”, cada tendencia, cada noticia viral, hay un sistema invisible, un robot oculto que decide por nosotros lo que nos muestra y lo que no. Ese sistema es el algoritmo. Sé que muchos ya han oído hablar de él, e incluso algunos lo conocen mejor que yo, especialmente quienes se dedican al oficio del marketing y la publicidad. Ese algoritmo de las redes no premia la verdad ni la empatía. Al contrario, premia lo que sacude, lo que golpea emocionalmente. No es casualidad que las emociones que desencadenan un contenido viral sean la rabia, el miedo y el odio. Estos tres sentimientos son los que más rápido captan nuestra atención y los que nos hacen reaccionar sin pensar.
Estudios serios coinciden en que son estas emociones las que generan más clics, más comentarios y más tiempo de permanencia. Lo que en el mundo de las plataformas se conoce como “engagement”. Y bajo esa lógica, más interacción es igual a más éxito. Pero esa lógica no solo determina qué se vuelve viral. Pueden tener también consecuencias reales, desestabilizantes e incluso mortales.
Uno de los ejemplos concretos y más graves fue el caso de Myanmar, ampliamente documentado por investigadores, periodistas y por uno de mis autores favoritos, Yuval Noah Harari, en su libro Nexus, que aprovecho para recomendar. Entre 2016 y 2018, Facebook fue el escenario principal donde se propagó odio contra la minoría musulmana rohinyá. El algoritmo amplificó mensajes falsos, teorías conspirativas y llamados directos a la violencia.
Para millones de personas en ese pequeño y empobrecido país, Facebook era la única fuente de información y la más inmediata. La información que circulaba era tóxica, desobligante e inmisericorde con esa minoría, la cual termino siendo casi exterminada. La situación fue tan evidente que unos años después, la misma ONU declaró que la plataforma tuvo un papel determinante en el genocidio.
Lo más alarmante, era que mientras la matanza y destierro de cientos de miles de personas se llevaba a cabo, en la plataforma social era casi nulo la presencia de moderadores Facebook ignoró tanto las alertas internas como las advertencias de ONG internacionales que señalaban la gravedad de la situación. Y aun con todo eso sobre la mesa, su sistema siguió premiando el contenido que generaba más interacción.
Es aquí donde la discusión deja de ser técnica para volverse ética. El odio se propaga más fácil que la verdad. No porque la verdad no exista, sino porque no siempre genera reacciones inmediatas. El algoritmo no distingue entre lo cierto y lo falso, solo mide qué nos hace reaccionar más rápido. En nuestro contexto, los generadores de odio y miedo vienen de todos los sectores políticos. Y todos, en algún momento, hemos caído en ese juego. Ojo, una cosa es discrepar y debatir lo cual es absolutamente normal y necesario en un país democrático. Otra cosa son los ataques personales, insultos y las mentiras, actos que son categóricamente reprochables, ya es ahí donde se alimenta el odio.
Si no cambiamos esa lógica, vamos a seguir alimentando la polarización, la radicalización y la violencia.
Hoy no basta con culpar al usuario que comparte una mentira. Muchos de esos incautos son nuestros padres, abuelos y familiares adultos (aunque a veces se lleva uno sorpresas), personas altamente vulnerables que piensan que todo lo que dicen las redes son verdades absolutas. Las propias plataformas están diseñadas para empujarnos hacia los extremos. Myanmar no fue un error aislado. Fue una advertencia. Podríamos sumar muchos casos más, como las elecciones en Estados Unidos y Brasil, donde las redes sociales jugaron un papel fundamental en la propagación de desinformación.
En Colombia, si seguimos premiando el odio porque es rentable, lo que veremos serán más divisiones, más mentiras y más consecuencias irreparables.
Lo que está en juego no es solo el futuro de las redes sociales. Es el futuro de nuestras democracias, de nuestras comunidades, de nuestra capacidad para convivir en medio de las diferencias. De mi parte, he tomado una decisión muy simple, cualquier usuario, de cualquier orilla política, que se refiera con odio o desdén a otro ser humano, sea por su ideología, raza o creencia, es bloqueado de inmediato. Se puede estar en desacuerdo, sí, pero desde el marco del respeto. Si la red social no lo hace, nosotros mismo podemos ponerle filtro a lo que consumimos. Es como cuando vamos a un supermercado y estamos eligiendo lo que vamos a comer y lo que no, es la misma lógica.
Finalmente, sigo creyendo que las redes sociales tienen un rol poderosísimo en este siglo, con ventajas enormes. Pero también con consecuencias gravísimas si no hay ética, ni control, ni responsabilidad.
También le puede interesar:
-.
(function(d, s, id) {
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) return;
js = d.createElement(s); js.id = id;
js.src = «//connect.facebook.net/en_GB/all.js#xfbml=1»;
fjs.parentNode.insertBefore(js, fjs);
}(document, ‘script’, ‘facebook-jssdk’));
!function(f,b,e,v,n,t,s)
{if(f.fbq)return;n=f.fbq=function(){n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments)};
if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′;
n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];
s.parentNode.insertBefore(t,s)}(window, document,’script’,
‘https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘446647882874276’);
fbq(‘track’, ‘PageView’);