Facebook revela el contenido que penaliza para que se vea menos
El Centro de Transparencia de Facebook cuenta con un nuevo añadido que ayudará a resolver algunas dudas tradicionales sobre qué funciona y qué no en términos de alcance en esa plataforma. Por primera vez revela de forma esquemática la clase de publicaciones que hace menos visibles a los usuarios por ser problemáticas o de baja calidad, algo que en parte ya había explicado a lo largo de los años a retazos en diferentes comunicaciones.
La red social diferencia tres motivos básicos por los que un contenido puede registrar un alcance anormalmente bajo en relación con las personas que podrían verlo. En primer lugar tiene en cuenta las respuestas directas de los usuarios sobre qué les parece peor en su experiencia y lo incorporan al algoritmo. Eso explica que se reduzca de forma habitual la distribución de publicaciones que apuntan a dominios sospechosos, webs que solicitan datos innecesarios al visitante, sitios de contenido sensacionalista o, en general, sitios que ofrecen una experiencia de navegación y consumo de baja calidad.
Según Facebook, los usuarios también demandan la supresión de granjas de anuncios, acceso a spam o enlaces que sirven de cebo para obtener clics, además de las publicaciones elaboradas para ser señuelos de interacción y por tanto potenciar artificialmente su visibilidad de cara al algoritmo.
Por primera vez la plataforma hace una lista exhaustiva de clases de publicaciones cuya difusión recorta de forma sustancial para evitar problemas o experiencias de baja calidad.
El segundo motivo se corresponde con el objetivo de la red social de acoger contenido interesante que fomente las interacciones de forma sana, algo que impacta directamente sobre los medios. En virtud de ese principio ajusta a la baja la visibilidad de publicaciones no originales, que contengan información falsa o errónea que ha sido verificada, artículos sin autor especificado o piezas de editores considerados poco fiables. Facebook también tiene en cuenta para mal los contenidos que son potenciados de forma artificial, como la distribución organizada en grupos de forma masiva.
Y por último la plataforma aplica baremos de seguridad basados en que no se vea demasiado el contenido que infringe sus normas o está cerca de hacerlo, el que es publicado por personas con un histórico de faltas al respecto o publicaciones que enlazan a material sexual, impactante o que contenga información no segura sobre el suicidio. Facebook también combate la actividad multicuenta que pueda estar detrás de viralidad sospechosa.
Este nuevo ejercicio de transparencia llega en un momento en el que el algoritmo de la red social acumula críticas desde todos los frentes por las externalidades negativas que se le atribuyen en aspectos como desinformación o promoción de conductas inadecuadas. En abril Facebook implementó mayor control para los usuarios sobre lo que ven y desde hace algunos meses está probando a reducir el contenido político en diferentes países, España entre ellos.