#Artículos

La realidad de Facebook a través de François Kevorkian

Sin mencionar la palabra "algoritmo" y en plena polémica sobre la dudosa imparcialidad, el DJ neoyorquino critica los mecanismos de la influyente red social.

17.05.16
Frankie Pizá

«So, is it because people are really that fond of cats?» se preguntaba ayer por la tarde el DJ y legendario productor François Kevorkian tras sacar conclusiones sobre un pequeño experimento al que había sometido a sus seguidores a través de su página oficial:

«So the results are in. Two innocuous messages that were saying exactly the same thing, posted at the same time on this page, both announcing my Instagram account. One post contains a hyperlink and a few lines of text, it gets 600 views. The other post is a picture of a LOLcat with the same information printed on the picture, it gets 6,500 views over the same period of time. That’s ten (10) times more!»

Cualquier persona relacionada con la distribución de contenido o noticias a través de redes sociales observará esos resultados como una rotunda obviedad. A continuación, la conversación seguiría indicando que Facebook premia el impulsar contenido de fuentes externas a la nuestra, variar el contenido y las horas de publicación.

Imágenes, vídeos y recientemente retransmisiones es lo que busca Facebook, una plataforma que tiene el objetivo de convertirse en el canal de comunicación de todos los canales de comunicación. Con cientos de millones de usuarios online, el método para ganar espacio en la plataforma es pagando o tener la suerte de encontrarse con un algoritmo favorable.

«Welcome to the new reality!» comenta Kevorkian: «Someone actually controls who can see (and who can’t) what I post based on the content and what topic I choose… this according to what they feel it should be like. [Obvious translation = pay up and we’ll let the stuff through, now that we control the pipes) OK, no surprise here.»

El debate sobre el control del contenido y su posición de prioridad en nuestros perfiles de Facebook, así como las normas que dictan qué se convierte en tendencia y qué no lleva años encendido. Recientemente, la idea de que esa idea abstracta que todos tenemos de los «algoritmos» pueda esconder una realidad más intrigante ha surgido desde que en Gizmodo apareciesen varios artículos criticando y denunciando las prácticas de la antigua red social.

Concretamente, el artículo de Michael Nuñez Former Facebook Workers: We Routinely Suppressed Conservative News pone en tela de juicio la imposibilidad del sistema de Facebook para ser imparcial en un momento tan importante para Estados Unidos: el de unas elecciones generales.

«Several former Facebook “news curators,” as they were known internally, also told Gizmodo that they were instructed to artificially “inject” selected stories into the trending news module, even if they weren’t popular enough to warrant inclusion—or in some cases weren’t trending at all.»

Por otro lado y después de la repercusión de las historias publicadas en Gizmodo, un artículo en The Guardian desvelaba pruebas y documentos que confirmaban lo que suponíamos: la sección de noticias en Facebook y su línea editorial está en manos de personas, y no de algoritmos.

Reincidiendo en la cuestión, el DJ neoyorquino se volvió a mostrar sensibilizado con esta problemática, sometiendo su información y el volumen de reacción de sus fans a examen:

«OK trying to get this straight in my head. I just post some innocuous tidbit about my SoundCloud page (now over 3,100 plays, thank you very much for lending an ear) and it can be read by almost 11,000 people in less than 48 hours, but when I try and say something about a party I am playing for, it only reaches a bit more than 500 people in twice that amount of time.»

Le seguían sus conclusiones más gráficas e ilustrativas:

«What I think may be happening is someone is screwing with traffic and controlling who can see what we post depending on the content, limiting certain things but possibly not being able to control some others (yet) so that might be why these got through.»

«Which basically means that we’re not even at liberty to enjoy the most basic of freedoms: which is to expect equal treatment when we post something. It’s all being filtered, evaluated, and possibly squeezed according to some rules we’re not clearly being told about.»

Aunque todos estos datos y conclusiones suenan cercanos, muchos de nosotros nos resistíamos a creer que fuera verdad pensando en que el orden de prioridades para la información en las redes sociales lo decidíamos el público, sumándonos o restándonos a un topic, a una causa o a la reacción de una noticia.

Danah Boyd, en un artículo para Medium titulado Facebook Must Be Accountable to the Public, propone con rotundidad que esta realidad siempre ha sido y será así, además de llamar a Facebook a la «responsabilidad» con sus usuarios:

«First, all systems are biased. There is no such thing as neutrality when it comes to media. That has long been a fiction, one that traditional news media needs and insists on, even as scholars highlight that journalists reveal their biases through everything from small facial twitches to choice of frames and topics of interests.»

Enrique Dans, en una pieza titulada Facebook and neutrality: people versus algorithms profundiza en las cuestiones técnicas alrededor de los algoritmos:

«There is nothing magical about algorithms; they are simply a collection of rules decided by their programmers. In other words, it is meaningless to suggest that a company doesn’t editorialize because it selects its news stories via an algorithm, unless of course we are able to take that algorithm apart, which normally isn’t the case, precisely to avoid manipulation.»

«As algorithms increasingly come out of “black boxes” decided by casuistic analysis and earlier results processed through machine learning methodologies, we will have to accept that they are no necessarily impartial.»

La presunción de que los algoritmos que controlan nuestro timeline y flujo diario de noticias son transparentes, objetivos y sirven como automatismos sin ninguna ley real al margen de la programación se viene abajo en las últimas semanas. Como comenta Dans, a las denuncias de Gizmodo le siguieron hasta 4 notas de prensa y declaraciones de parte del equipo de Facebook, incluido su creador, Mark Zuckerberg.

La reacción en cadena de la plataforma indica que existe una opaca realidad detrás de Facebook y sus mecanismos; los inofensivos experimentos de François K pudieron pasarse por alto en un primer momento ante la maraña de tendencias que pasa delante de nosotros cada 30 minutos, pero suponen una forma de replantearse (para usuarios, artistas, organizaciones) la ética de la red social más influyente.

TIUmag solo es posible gracias a tu apoyo económico: suscríbete a nuestro Patreon y accede a contenido exclusivo.