El odio enamora a los algoritmos

Un posteo sobre competidores tiene 67% más posibilidades de ser compartido

Storybakers:

Mark Zuckerberg decidió celebrar el 4 de julio esquiando con una bandera de Estados Unidos en las manos. Se sabe que una de las estrategias más recientes de Facebook y de él en lo particular va por humanizarse, por hacerse más cercano a la gente, lo que en realidad no ha logrado ser ni siquiera en “The Social Network”, donde se le retrata como un tipo soberbio, obsesionado consigo mismo y con el éxito a costa de lo que sea.

En modo broma, me refiero a él como el nuevo Capitán América. Y si bien hoy no son muchos los que lo ven como superhéroe, sí que hay muchos que o lo ven o lo vieron como potencial candidato a la presidencia de Estados Unidos, sobre todo cuando estaba realizando una serie de giras muy semejantes a las de los políticos con aspiraciones presidenciales.

Pero más allá de sus estrategias, sirva esta estampa patriotera para analizar si en verdad las grandes redes sociales están contribuyendo a crear un mejor mundo, misión con la que Facebook se ha presentado desde que dejó los campus universitarios para convertirse en un fenómeno mundial.

Y aquí la respuesta, aunque Mark ondee la bandera americana en todo lo alto, es negativa. Facebook no está contribuyendo a crear un mejor mundo. Una muestra: en materia política, el 67% de los posteos que incluyen referencias a opositores/competidores tiene 67% más posibilidades de hacerse viral.

Facebook hay que decirlo, no está solo. En Twitter pasa lo mismo. Las redes que prometieron conectarnos, nos están separando con tal de hacer crecer su negocio.


Para conocer más de lo que funciona y lo que no en redes sociales, súmate a nuestro grupo en Telegram sobre La Creator Economy.

Si lo tuyo es más el apego a la industria del podcasting, te invitamos a La Podcastería, comunidad exclusiva para los adoradores del audio en todas sus formas.


La viralidad del odio

Un estudio desarrollado por la PNAS (Proceedings of the National Academy of Sciences of the United States of America) analizó 2.3 millones de posteos de cuentas de medios de comunicación y congresistas estadounidenses en Twitter y Facebook para terminar llegando a una más de las contradicciones de las redes: dicen que quieren un mundo mejor y en paz, pero sus algoritmos detonan e incentivan la viralización del odio.

-Posteos relacionados a un partido o miembro opositor incrementó un 67% las posibilidades de que ese posteo fuera compartido

-La inclusión de referencias a los miembros opositores de forma directa representó por mucho el mayor indicador de viralidad

-Palabras negativas y calificaciones morales incrementaron ligeramente la posibilidad de que un post fuera compartido. Las palabras positivas redujeron posibilidades.

-Los posteos virales con referencias a opositores tuvieron como reacciones más recurrentes el enojo y la risa, utilizada en este caso por el gozo de estar exponiendo a un oponente o a la ironía que representa

-El efecto viral de hablar o etiquetar a opositores fue entre 4.7 y 6.7 veces más poderoso en materia de viralidad que cualquier otro de los rubros analizados

Aquí un gráfico que lo muestra:

(Ingroup refiere a posteos que incluían referencias a gente del mismo partido; outgroup, a un partido opositor)

Aquí la liga al reporte de la PNAS

Y aquí un hilo de uno de los autores del estudio


¿A Facebook y Twitter en verdad les interesa acabar con la polarización?


Es natural pensar que una plataforma busca de manera consistente generar un mejor ecosistema para sus usuarios. En teoría, entre más cómodos se sientan los usuarios, más sencillo será tenerlos por un buen espacio de tiempo. Pero en la práctica no es así, aunque a Facebook y a Twitter les interese el bien común, sus algoritmos se ven beneficiados por la polarización y el odio, como lo señala un artículo del New York Times en el que da cuenta de cómo días después de las elecciones Facebook encontró cómo reducir la polarización pero solo con cambios temporales dado que esas decisiones reducían el tiempo que los usuarios pasaban en la plataforma.

Días después de la derrota de Donald Trump, relata el artículo, empleados de Facebook se acercaron a Mark Zuckerberg para alertarlo de un crecimiento acelerado de desinformación impulsado por los partidarios de Donald Trump en torno a la ilegalidad de las elecciones en que fue superado por Joe Biden.

Los empleados le sugirieron a Mark que activaran el “News Ecosystem Quality” (N.E.Q), sistema que contempla una serie de parámetros adicionales, entre ellas la aparición de referencias a esos medios en publishers bien catalogados, para que el News Feed de los usuarios esté alimentado por fuentes confiables.

La modificación funcionó. Medios partisanos como Breitbart y Occupy Democrats vieron una reducción significativa en su alcance, mientras que los principales medios estadounidenses alcanzaron mayor relevancia. Ante el éxito alcanzado, empleados pidieron a Zuckerberg que los cambios fueran permanentes, pero hubo respuesta negativa. El News Ecosystem Quality volvería a tener una mínima relevancia al momento de decidir qué ven los usuarios. La razón de fondo: que reducir ese tipo de contenidos significa reducir la cantidad de tiempo que los usuarios pasan en la plataforma.


#DonPendejo y la moderación en Twitter

El match entre los algoritmos de las redes y la polarización es universal. No aplica solo para Facebook ni solo para Estados Unidos. En México, solo por citar un ejemplo reciente, este domingo 4 de julio apareció como trending topic el hashtag #DonPendejo, que refería al presidente Andrés Manuel López Obrador.

Con independencia de nuestras filiaciones políticas, queda claro que el modo en que operan los trending topics en la plataforma de Jack Dorsey, quien se dice comprometido con la generación de redes que dejen de incentivar la viralidad por la viralidad misma, se ha convertido en algo enfermizo. Cuando no va de cancelar a alguien, va de movimientos detonados por bots o hasta de términos como “el delicioso”, término popular para referirse al acto de tener relaciones sexuales que se posiciona por las noches para amanecer como tendencia por la mañana. Se aprovecha un momento de bajo consumo para entonces sembrar como trending topic cualquier palabra o tema que se decida.

¿Por qué términos como #DonPendejo no son cuando menos omitidos como trending topic? Porque ese tipo de tendencias terminan contribuyendo a que los usuarios participen de forma activa, a que acudan a esa tendencia para ver los memes, las descalificaciones y los ataques a la figura que corresponda en el momento.

Cuando me refiero a que esta tendencia debiera ser minimizada, no me refiero a la critica al presidente mexicano, sino a cómo desde uno de los principales motores de consumo de Twitter se incentiva abiertamente el ataque y la agresión a una persona, sea del rubro que sea, porque así como los políticos lo padecen (quizás con justicia) a diario, lo mismo ha ocurrido con usuarios comunes que son expuestos (en muchos casos sin pruebas de por medio) a un escarnio público que polariza, que divide y que transforma la verdad y la mentira en un consenso social más que en una revisión de los hechos.

La gallina de los huevos de la viralidad de oro para las redes está relacionada de forma directa a las emociones. Y para ellas, no hay nada más poderoso que los extremos, aunque ello signifique polarizar, divider e incentivar el audio.


¿Por qué se atiende mejor una violación de derechos de transmisión que una desinformación en materia de salud pública?


Hace tiempo escribí sobre cómo los youtubers a favor de la autonombrada Cuarta Transformación representaron uno de los principales focos de desinformación durante la pandemia. Les mencioné incluso, a partir de un reporte realizado por Verificado MX, que la entonces candidata a una diputación en Jalisco por Morena y conductora del Charro Político, Juncal Solano, había asegurado en marzo del 2020 que el Coronavirus tenía cura, y que ese medicamento que revolucionaría un problema de salud a nivel mundial era mexicano. El video hasta el 18 de mayo del 2021, día en que hice referencia a él, tenía más de 917 mil reproducciones. Si bien YouTube lo ha dado de baja por infringir las normas, ¡estuvo vigente más de un año dos meses después de haber sido publicado!

La reacción contrasta con el modo en que el propio YouTube ha desarrollado tecnología y se ha acercado con los dueños de los derechos de transmisión para castigar a cualquiera que infrinja los derechos. Es cierto que algunos canales aún encuentran vías para sortear esos obstáculos legales, pero en la mayoría de los casos podríamos hablar de una efectividad mucho mayor para combatir ese tipo de infracciones que las relacionadas con la desinformación.

¿Por qué? Porque la polarización y el contenido propagandístico cautiva audiencias. La infracción de derechos de transmisión, en cambio, involucra problemáticas a nivel negocio, y eso sí que es prioritario para las plataformas.

Solo un ejemplo de los muchos que podemos ver sobre el conveniente discurso de las plataformas en su relación con el contenido que polariza o desinforma.


¿De qué manera influyen los algoritmos en el comportamiento y contenido de medios y usuarios?

Hace años, los usuarios creaban contenido sin pensar en un beneficio económico o de vanidad. Compartían porque sí. Pensaban las redes sociales como sustitutas del álbum fotográfico que se repasaba de vez en cuando con familiares y amigos. Pero pronto ellos, cobijados por los algoritmos, comprendieron que detrás del contenido que generaban había un objetivo mayor: el de amasar grandes audiencias para entonces poder monetizar, o cuando menos, influir. Y ahí empezó a transformarse todo dado que el resultado se convirtió en la principal motivación.

El problema de los algoritmos relacionados de forma directa con las emociones es que nos programan a pensar en qué es lo que más va a funcionar. Y así podemos concluir que:

-Una persona adoptará causas de manera radical. Si se pone una playera o un color, entiende, aún sin conocer el reporte que les he compartido, que agredir a alguien terminará representando mayor posibilidad de éxito en su mensaje y posicionamiento.

-Los medios abandonaron los grises, pese al valor que Adam Grant les da para promover un cambio, y empezaron a crear contenido que fuera a un extremo u otro. Latinus como el medio líder de la oposición en México y los youtubers pro López Obrador dan cuenta de ello. O te pones una playera o te mueres en la indiferencia.

-La viralidad de los algoritmos lleva a que las posturas se radicalicen. No se trata solo de una convicción personal o del medio en cuestión, sino de cómo los usuarios, y por ende el algoritmo, acabarán premiando que seamos más radicales y más agresivos en nuestros juicios.

-Los usuarios y los medios, creadores de contenido al fin, comprenden que lo importante no es la noticia ni el hecho, sino dotarla de adjetivos para ser los que más se escuchen. Y ese ruido se terminará convirtiendo en shares, likes, retuits o posts.

-Aunque ahora Facebook y Twitter hablen de cómo buscan acercar a los creadores de contenido con sus audiencias en un entorno pacífico y de calidad, resulta contradictorio que lo hagan manteniendo estándares y mecanismos que abonan a la cantidad por encima de la calidad. Si el algoritmo es dominado por los extremos, de poco servirá un contenido que se ubique en el centro.

Mientras el odio siga viralizándose todos viviremos con el cuchillo entre los dientes y con las teclas derramando sangre.