Humanos y algoritmos, a propósito de la curación de contenidos en Facebook

Estos días se está hablando bastante en las redes digitales de los problemas que parece tener Facebook para seleccionar y presentar de la mejor manera posible las informaciones que ven sus usuarios. Las noticias de estos últimos días tienen para mi algo de deja vu, de nuevo resurgir de una problemática permanente en la  era de la información desde que existe la Web. Algo así como una nueva versión de la disputa humanos versus algoritmos.

facebookUn breve recorrido por los hechos:

En el pasado mes de mayo el blog de tecnología Gizmodo publicaba un post que desencadenaría un terremoto en Facebook, Former Facebook Workers: We Routinely Suppressed Conservative News, al informar de que el equipo de news curators encargado de la selección de los trending topics de la red social tenía unos sesgos claramente «anticonservadores». Los medios, como The Guardian (Facebook news selection is in hands of editors not algorithms, documents show), consideraron mayoritariamente que el hecho de quedar la selección de noticias en manos de editores que parecían seguir unas directrices ideológicas concretas, convertía a Facebook en un medio de comunicación en sí mismo, con una determinada línea editorial, lo cual desmentía su proclamada neutralidad. Reacciones desde la compañía como este post de Zuckerberg, o el artículo Information About Trending Topics de Justin Osofsky intentaron contrarrestar ante la opinión pública la visión anterior. Vale la pena detenerse un momento en este último texto, cuya lectura completa recomiendo a los interesados en estos temas. Según explica Osofsky, el Trending Topics Team trabajaba entonces (mayo de 2016) de la siguiente manera:

1.En una primera fase, las informaciones se seleccionan a partir de: a) un algoritmo que identifica los temas más populares, y especialmente, aquellos que tienen un crecimiento de popularidad más rápido, y b) del rastreo sistemático de esta lista de fuentes.

«Potential Trending Topics are first surfaced by an algorithm that identifies topics that have recently spiked in popularity on Facebook»

2.En una segunda fase, los miembros del Trending topics Team comprueban «manualmente» el alcance de las noticias a ofrecer a los usuarios (teniendo en cuenta varios elementos, como por ejemplo si se han recogido por varios medios de entre esta lista), redactan una breve descripción de las mismas y las etiquetan según categorías.

3.En una tercera fase, de nuevo entran en juego los algoritmos, para personalizar la lista de topics que ve cada usuario, en función de diversos factores:

«The list of Trending Topics is then personalized for each user via an algorithm that relies on a number of factors, including the importance of the topic, Pages a person has liked, location (e.g.. home state sports news), feedback provided by the user about previous Trending Topics and what’s trending across Facebook overall. Not everyone sees the same topics at the same time»

El resultado es por tanto el que todos conocemos bien por nuestra experiencia en la red social. Lo remarco: «Not everyone sees the same topics at the same time«

Como Facebook no consiguió en los meses siguientes dejar zanjada la polémica iniciada por el post de Gizmodo, a pesar de explicaciones públicas como las mostradas arriba, y de la asunción de medidas internas como formación a sus empleados para evitar el sesgo político, finalmente decidió cortar por lo sano a finales de agosto, nada menos que despidiendo en pleno a todo el equipo de news curators  y sustituyendo el proceso antes descrito por la actuación exclusiva de los algoritmos. La explicación oficial, en Search FYI: An Update to Trending:

«Today, we’re making some changes to the Trending feature on Facebook that will make the product more automated and will no longer require people to write descriptions for trending topics»

Enrique Dans lo ha explicado muy bien en su post Entre personas y algoritmos, gana el algoritmo:

«Resulta muy posible que el problema real no desaparezca tras la sustitución, o incluso pueda empeorar, porque no hay ni persona perfecta, ni algoritmo perfecto. En la práctica, todo indica que se hace simplemente como forma de justificar algo desde un punto de vista estético, por tener un chivo expiatorio sin rostro al que señalar en caso de problemas, considerando que para el conjunto de la sociedad, la atribución del sesgo a las personas frente a unos algoritmos supuestamente neutrales es una creencia que, aunque errónea, aún se encuentra suficientemente arraigada«

Este «incluso pueda empeorar» que señala Dans no hemos tardado nada en verlo. En los días siguientes al cambio, varios errores lamentables, como la publicación de una información falsa sobre la periodista Megyn Kelly y especialmente de un video de un joven masturbándose con una hamburguesa de pollo de McDonald’s, que se hizo rápidamente viral, han dejado a Facebook por los suelos… Bochornoso.

Hasta aquí los hechos. Vamos con un breve comentario:

Volviendo a la explicación oficial del cambio de sistema, el tema de la dimensión, de la escala, del volumen de los contenidos a seleccionar, es clave:

«A more algorithmically driven process allows us to scale Trending to cover more topics and make it available to more people globally over time»

Uno de los puntos fuertes de los algoritmos es sin duda esa capacidad de trabajar a gran escala. Pero Facebook no dice nada (o lo olvida expresamente) acerca de la calidad que aporta la supervisión humana de los contenidos que se distribuyen, no dice nada de la necesidad de verificación de las informaciones, no dice nada de la posibilidad de que profesionales aporten valor a la mera clasificación y distribución totalmente automatizada de la información.

Toda esta situación me ha recordado de nuevo, cual deja vu, la situación vivida dos décadas atrás, en los primeros tiempos de la Web con la derrota del directorio Yahoo (hecho por humanos) ante los algoritmos cada vez más perfeccionados del buscador Google, cuando las dimensiones (la escala) de los contenidos a clasificar por los profesionales de Yahoo fue inasumible.  Desde aquellos inicios de la Web, los algoritmos han reinado y el papel de la selección humana de informaciones se ha centrado básicamente en los contenidos temáticos, especializados, de escalas asumibles, ahí donde los humanos son superiores a las máquinas (al menos, de momento). La content curation es la actualización de esto en nuestros días. De ello hemos hablado en el epílogo de nuestro libro El content curator.

Así, cuando veo que grandes como Facebook se interesan por la content curation, lo veo con esperanza por una parte, pero casi siempre suelo dudar de su viabilidad futura, recordando que tratándose de grandes dimesiones, siempre suelen ganar las máquinas. Es bastante probable que en Facebook la selección de contenidos, una vez se solucionen los clamorosos errores de estos últimos días, acabe quedando en manos exclusivamente de algoritmos, supervisados  por profesionales con el perfil de ingenieros, data sicentists o especialistas en big data, es decir profesionales de la tecnología, no de los contenidos. Es lo que hay.

Y sin embargo, el método que explicaba Osofsky me parece un muy inteligente sistema de curación de contenidos basado en la combinación entre el trabajo de humanos y de algoritmos. No renuncio totalment a ver algo así funcionando con éxito por parte de algún grande, y algunos intentos parece que sí los hay (ejemplo en Periscope), pero reconozco que en general está crudo ahora mismo, en plena fiebre big data.

Así que centrémonos en escalas asumibles, preocupémonos por hacer una concienzuda selección de fuentes, no escatimemos en la verificación de informaciones, exprimamos nuestras neuronas para añadir sense making a lo que compartimos,  y pongámonos a bordar nuestro toque personal como curators, lo que -todavía- no saben hacer bien las máquinas.

¡Buena curation!

About Javier Guallar

Profesor de Documentación y Comunicación, Editor, y Content Curator. En UB, revista Profesional de la información (EPI), libros Profesional de la información y EPI Scholar (Ed.UOC), Los content curators. Coautor libros "El content curator", "Las 4S's de la content curation", "Calidad en sitios web", "Prensa digital y bibliotecas". Mi newsletter: https://www.getrevue.co/profile/jguallar
Esta entrada fue publicada en General, Herramientas el por .

Acerca de Javier Guallar

Profesor de Documentación y Comunicación, Editor y Content Curator. En UB, revista Profesional de la información (EPI), libros Profesional de la información y EPI Scholar (Ed.UOC), Los content curators. Coautor libros "El content curator", "Las 4S's de la content curation", "Calidad en sitios web", "Prensa digital y bibliotecas". Mi newsletter: https://www.getrevue.co/profile/jguallar

Loading Disqus Comments ...

1 comentario en “Humanos y algoritmos, a propósito de la curación de contenidos en Facebook

  1. Pingback: Content curation en las grandes marcas de contenidos: el caso de Spotify | Los Content Curators

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Loading Facebook Comments ...