Nathalie Pignard-Cheynel, Université de Neuchâtel; Jessica Richard, Université de Neuchâtel et Marie Rumignani, Université de Neuchâtel
Le News Feed (fil d’actualité) de Facebook célèbre ses onze ans avec deux milliards d’utilisateurs. Pourtant, beaucoup de mystères et de polémiques entourent son fonctionnement. Pour aider nos étudiants à mieux comprendre cette boîte noire, nous avons mené une expérimentation pédagogique inédite, au sein de l’Académie du journalisme et des médias de l’Université de Neuchâtel.
Comment Facebook opère sa sélection parmi des milliards de contenus pour nourrir le fil d’actualité de chacun de ses utilisateurs ? Entre modifications incessantes et débats autour de ses effets (bulle filtrante, fake news, etc.), l’algorithme de Facebook demeure opaque et lointain. Un sondage auprès des étudiants de notre école de journalisme confirme cette impression. La totalité des premières années de Master possède un compte Facebook, le consulte plusieurs fois par jour et 90 % déclare l’utiliser pour accéder à de l’information (comme près de la moitié des Américains). Et pourtant, quasiment aucun de nos étudiants n’avait déjà cherché des informations sur le fonctionnement du News Feed ranking algorithm (c’est son nom).
Comme formateurs, il nous paraît indispensable que de futurs journalistes puissent mesurer les effets, puissants et complexes, de l’action des algorithmes sociaux sur la diffusion de l’information. Que ce soit pour se prémunir des impacts de la bulle filtrante (principe selon lequel les réseaux sociaux nous exposent prioritairement à des contenus conformes à nos idées) ou pour juguler la propagation des fake news à l’ère de la « post-vérité ».
Trois défis ont guidé notre réflexion :
- l’allant de soi : comment transformer une pratique quotidienne, intégrée et aussi évidente que l’utilisation de Facebook en un questionnement ?
- l’invisible : comment rendre intelligible la boîte noire que constitue l’algorithme de Facebook ?
- le fatalisme : comment lutter contre la sensation d’impuissance face à la complexité de cet objet ?
Dans la peau d’un militant
Lancée en février 2017, l’expérimentation ne pouvait trouver terrain plus favorable que l’élection présidentielle française. Quelques mois après le vote du Brexit et l’élection de Trump, elle cristallisait, à un niveau international, les interrogations et critiques sur le rôle de Facebook dans l’information des citoyens, la propagation de fake news et la polarisation du débat politique.
Le terrain de jeu étant trouvé, il fallait maintenant définir le cadre et les règles.
Voici résumé en six points l’essentiel du protocole :
- La classe a été répartie en huit groupes : chacun incarnait un profil, au travers d’un « faux » compte (temporaire), correspondant à une orientation proche d’un.e candidat.e de la campagne présidentielle : François Fillon, Benoît Hamon, Marine Le Pen et Emmanuel Macron (protocole élaboré en janvier 2017 avant l’ascension dans les sondages de Mélenchon). Afin de renforcer la dimension comparative, chacun des profils a été doublé avec une variation sur le sexe. De plus, l’équipe encadrante a créé deux comptes de contrôle neutres ;
- tous les groupes se sont abonnés à une même liste de 50 médias. Cet échantillon comprenait à la fois des pages de médias d’information mais également de sites de « buzz » ou encore de sites partisans, fortement engagés, y compris associés à la mouvance des fake news ;
- les seuls amis acceptés étaient les sept autres comptes participant à l’expérimentation ainsi que les deux comptes de contrôle ;
- quotidiennement, pendant six semaines, et via une connexion privée (pour éviter les interférences avec la « vraie » vie numérique des participants), les étudiants ont mené des actions sur leur profil fictif, en lien avec leur rôle (des likes, des partages de liens, des commentaires, etc.) et en fonction des hypothèses qu’ils voulaient vérifier (par ex : si je like toujours le même média, celui-ci supplantera-t-il tous les autres dans mon News Feed ?) ;
- durant les quatre premières semaines, les groupes ont dû suivre drastiquement un protocole précis. Les deux dernières, ils ont eu carte blanche pour aller plus loin et tester d’ultimes hypothèses en sortant du cadre établi. Certains ont ainsi « trahi » leur candidat (un militant Hamon a basculé chez Mélenchon), d’autres ont suivi de nouveaux médias voire ont ajouté des pages de candidats, de partis politiques ou intégrés des groupes ;
- chaque semaine, pendant le cours, un temps commun de discussion et d’échange permettait de faire le point sur les résultats, les questions, les hypothèses, les étonnements. Et de réaliser d’éventuels ajustements pour la semaine suivante.
Décortiquer l’algorithme
Au terme de l’expérimentation, les étudiants ont pu identifier certains ingrédients de la recette du News Feed ranking algorithm. Si ces résultats ne révèlent pas en soi de surprises majeures par rapport à des expériences similaires effectuées ces derniers mois (comme celle de Radio Canada ou de Libération), ils ont permis aux étudiants de prendre conscience de manière très concrète du poids de l’algorithme de Facebook dans l’accès à l’information.
Les amis et les groupes davantage valorisés que les médias
Même si les comptes « amis » étaient limités aux huit de l’expérimentation, leurs contenus se trouvaient le plus souvent en première position dans les News Feed de chaque profil (devant ceux des pages médias). Plus intéressant, l’autre groupe supportant le même candidat (et donc partageant les mêmes idées et contenus), était généralement davantage mis en avant que les autres, confirmant le phénomène de bulle filtrante.
Un résultat qui démontre l’importance de la communauté : les publications des amis sont largement mises en valeur, et prennent l’ascendant sur le reste, comme l’a annoncé Facebook en 2016. Il y a un vrai sentiment d’appartenance à un groupe, et ce, au détriment des médias traditionnels qui perdent en visibilité, en impact et surtout en capacité de résonance.
L’actualité joue un rôle marqué sur les contenus présents dans le fil d’actualité
La période de l’expérimentation s’est déroulée en grande partie durant l’affaire Fillon qui a occupé les unes des journaux pendant plusieurs semaines. Cette actualité a eu un impact important sur les murs d’actualité des différents groupes qui ont tous observé une augmentation des informations relatives à François Fillon, même pour les profils aux antipodes de ce candidat.
Le média prime sur le contenu
Presque tous les groupes ont observé une polarisation de leur mur d’actualité en lien avec les idées du candidat suivi. Pour autant, c’est plus les médias (et leur couleur politique) que les contenus eux-mêmes qui semblaient déterminants pour l’algorithme.
Voici schématiquement les concordances entre les médias principalement présents dans le fil d’actu et la couleur politique des profils :
- Profils Macron : BFM, Les Echos, Le Point, Marianne ;
- Profils Hamon : Libération et Médiapart ;
- Profils Fillon : Le Figaro et Valeurs Actuelles ;
- Profils Le Pen : Valeurs Actuelles, Français de souche et Boulevard Voltaire.
Et le tri effectué est redoutable. Pour l’ensemble des groupes, le News Feed ne se concentre que sur une dizaine de médias.
L’algorithme est peu subtil
Ceux qui ont voulu tester des hypothèses un peu complexes, voire mettre en défaut l’algorithme, ont été déçus ! Car l’algorithme n’offre finalement que peu de résistance aux challenges et s’avère très peu subtil dans la compréhension de ses usagers. Par exemple, ceux qui ont voulu commenter de manière négative des posts associés à leur opposant politique ou encore réagir à des contenus avec des « Grrrr » pour marquer leur mécontentement se sont rapidement aperçus que de telles subtilités échappaient à l’algorithme et qu’une action, qu’elle soit positive ou négative, vaut la même chose. Seule la trace de l’interaction, « l’engagement » dans le vocabulaire facebookien, compte. Ainsi, s’évertuer à commenter des posts de Français de souche pour déconstruire son discours produit finalement l’effet inverse : l’algorithme vous servira d’autres contenus d’extrême droite par la suite.
Dernier enseignement, et non des moindres : l’algorithme ne serait rien sans les usagers de Facebook. Cette expérimentation a permis à nos étudiants de prendre conscience des pratiques liées à la plateforme sociale, notamment de la facilité avec laquelle il est possible de se créer un faux compte et de la visibilité que peut lui offrir l’algorithme. Un groupe s’est ainsi étonné de voir l’un de ses commentaires, sans doute posté au bon endroit et au bon moment, liké plus de 1 300 fois lors du live du premier débat de la présidentielle. Sans que personne, dans les commentaires, ne mettent en doute la véracité ou la crédibilité du profil associé.
Dans la bulle filtrante
L’expérimentation visait en partie à explorer le phénomène des fake news et de la bulle filtrante. Certains groupes ont pleinement vécu cette expérience qui fut même, pour certains, difficile. Vivre six semaines dans une bulle d’extrême droite quand on ne partage pas ses idées, cela peut être perturbant témoigne cette étudiante. Et conduire même à une perte d’esprit critique, comme l’a confié l’un des participants à l’issue de l’expérimentation :
« C’était impressionnant de se laisser enfermer dans cette bulle, et on se rend mieux compte comment des personnes peuvent se retrouver enfermées dedans. Ce sont de vraies communautés, on peut presque y croire. Les articles semblent « réels », il faut prendre du recul pour réfléchir et se dire qu’au final c’est n’importe quoi.“
Lors du bilan collectif de l’expérience, nous avons pu nous rendre compte que l’immersion dans la peau numérique de militants avait marqué les étudiants et eu un fort impact émotionnel sur certains d’entre eux. Une étudiante a, par exemple, pris pleinement conscience de ce qu’on appelle de nos jours les « maux 2.0 ». Enfin, certains ont été particulièrement déstabilisés par l’agressivité de beaucoup de commentaires, l’emballement dont ils peuvent faire l’objet et plus largement le refus du débat de nombre d’usagers de Facebook.
Changer de regard… et de pratique
Dans l’ensemble les étudiants ont apprécié l’expérimentation et plus des trois-quarts ont déclaré qu’ils s’abonneraient désormais à de nouvelles pages médias pour ouvrir leur fil d’actualité à d’autres points de vue. Ce retour réflexif sur leur pratique s’avère un élément essentiel de notre approche. Nous voulions que les participants prennent conscience du terrain d’investigation qu’est Facebook, y compris comme source d’information pour les journalistes. Sur ce dernier point, les étudiants ont témoigné avoir eu accès à des mondes et à des gens « que l’on ne voit pas habituellement sur notre fil d’actualité » ainsi qu’à des usages du réseau social très différents du leur.
« Je suis abonnée ou je like que des médias dits de gauche. Je pense qu’il faut que j’arrête d’être dans ma bulle, lire des informations que je n’aurais pas eu l’occasion de trouver dans mon fil d’actualité. »
De l’intérêt d’étudier Facebook dans une école de journalisme
L’option d’une approche pédagogique innovante inspirée de l’esprit lab semble une voie féconde pour s’attaquer à un sujet aussi capital que la place de Facebook dans l’accès à l’information, dans les pratiques journalistiques et par conséquent dans la formation des futurs professionnels. Avec pour ambition de les amener à porter un regard attentif, professionnel et réflexif sur une plateforme devenue en quelques années l’un des principaux pourvoyeurs d’audience des médias et avec laquelle les journalistes ne peuvent plus guère « faire sans ». Alors autant qu’ils le fassent de manière éclairée.
Andrew Robotham et Vittoria Sacco ont également participé, au sein de l’Académie du journalisme et des médias, à la mise en place et au suivi de cette expérimentation et sont chaleureusement remerciés de leur apport au projet.
Nathalie Pignard-Cheynel, Professeure assistante, Académie du journalisme et des médias, Université de Neuchâtel; Jessica Richard, Assistante-doctorante en journalisme numérique, Université de Neuchâtel et Marie Rumignani, PhD assistant in Journalism, Université de Neuchâtel
La version originale de cet article a été publiée sur The Conversation.