Overblog
Suivre ce blog
Editer l'article Administration Créer mon blog

Marichesse.com

Marichesse.com

Conseils, science, sante et bien-être


Voici ceux qui contrôlent votre fil d'actualité Facebook

Publié par MaRichesse.Com sur 21 Février 2016, 04:04am

Catégories : #FACEBOOK, #INTERNET, #RELATIONS

Voici ceux qui contrôlent votre fil d'actualité Facebook

Une petite équipe d’ingénieurs en Californie. Un panel d’utilisateurs anonymes à travers le monde. Et, de plus en plus, vous-même.

À chaque fois que vous ouvrez Facebook, l’un des algorithmes les plus influents, controversés et incompris au monde se met à en œuvre. Il scanne et collecte tout ce qui a été posté dans la semaine passée par chacun de vos amis, chaque personne que vous suivez, chaque groupe auquel vous appartenez et chaque page Facebook que vous aimez. Pour un utilisateur standard, cela correspond à plus de 1.500 posts. Si vous avez plusieurs centaines d’amis, cela peut monter à 10.000. Ensuite, grâce à une formule jalousement gardée et en constante évolution, l’algorithme de Facebook les classe dans ce qu’il croit être l’ordre précis de l’intérêt que vous allez leur porter. La plupart des utilisateurs ne verront que les cent premiers environ.

Personne en dehors de Facebook ne sait exactement comment il fait cela et personne à l’intérieur de la société ne vous le dira. Et pourtant, les résultats de ce processus de classement automatique structurent la vie sociale et les habitudes de lecture de plus d’un milliard d’utilisateurs chaque jour (soit un cinquième des adultes du monde). Le pouvoir viral de l’algorithme a révolutionné le secteur médiatique en propulsant des startups comme BuzzFeed ou Vox au premier plan, tandis que des journaux centenaires sombrent et meurent. Il a alimenté l’essor incroyable de sociétés à un milliard de dollars comme Zynga et LivingSocial –avant de leur couper les vivres un ou deux ans plus tard en faisant seulement quelques ajustements au code, entraînant la ruine des investisseurs et le licenciement de salariés. Modifier légèrement l’algorithme du fil d’actualité de Facebook peut nous rendre plus ou moins tristes ou heureux, peut nous exposer à des idées nouvelles ou, au contraire, peut nous isoler dans des bulles idéologiques.

Et pourtant, en dépit de cette puissance, le nouvel algorithme de Facebook est étonnamment inélégant, horriblement changeant et définitivement opaque. Et il reste susceptible de nous proposer des posts que nous trouvons agaçants, énervants ou même juste ennuyeux. Facebook en a conscience. Ces derniers mois, le réseau social a organisé un test auprès de certains utilisateurs, en leur montrant le premier post de leur fil d’actualité à côté d’un autre, moins important, afin qu’ils choisissent celui qu’ils préfèreraient lire. Le résultat? Les classements effectués par l’algorithme correspondent «parfois» aux préférences de l’utilisateur, a reconnu Facebook, en refusant d’en dire plus. Lorsque les résultats ne correspondent pas, la société affirme que cela indique «un point à améliorer».

 

 
 
 
 
 

«Parfois» n’est pas le genre de taux de succès que l’on attendrait d’un bout de code aussi admiré et redouté. L’influence démesurée de l’algorithme a engendré tout un ensemble de critiques qui le traitent comme s’il possédait un esprit propre (une sorte de forme d’intelligence runique, lâchée dans le monde afin de poursuivre une mission dont les objectifs se situent bien au-delà des limites de l’entendement humain). À une époque où Facebook et les autres géants de la Silicon Valley filtrent chaque jour un peu plus nos choix et guident nos décisions au travers de logiciels d’apprentissage automatique, où des géants de la technologie comme Elon Musk et de grands scientifiques comme Stephen Hawking nous préviennent de la menace existentielle posée par l’intelligence artificielle, le mot algorithme lui-même commence à paraître inquiétant. Dans l’imaginaire populaire, les algorithmes sont des entités puissantes et mystérieuses qui désignent toutes les manières par lesquelles la technologie et la modernité peuvent à la fois assouvir tous nos désirs et menacer les valeurs qui nous sont chères.

Redoutables modifications

La réalité de l’algorithme de Facebook est quelque peu moins fantastique, mais non moins fascinante. J’ai eu le rare privilège de pouvoir passer un peu de temps avec l’équipe de Facebook en charge du fil d’actualité dans leurs bureaux de Menlo Park, en Californie, afin de voir de quelle manière se font ces redoutables tweaks (modifications) de l’algorithme –comment ils sont décidés, comment ils sont faits et comment l'on juge si cela a fonctionné ou non. Un aperçu de son fonctionnement interne devrait mettre en lumière non seulement les mécanismes du fil d’actualité de Facebook, mais aussi les limitations de l’apprentissage automatique, les pièges de la prise de décision à partir de données et les mesures prises de plus en plus par Facebook pour avoir (et tenir compte) des retours des utilisateurs individuels, notamment d’un panel grandissant de testeurs qui sont en train de devenir pour Facebook une sorte d’équivalent à 60 millions de consommateurs.

L’algorithme de Facebook, ai-je appris, n’est pas imparfait en raison d’un problème quelconque dans le système. Il est imparfait parce que, à l’inverse de ce qui se passe avec les algorithmes savants et idéaux de nos rêves les plus fous, l’intelligence à la base du logiciel de Facebook est fondamentalement humaine. Ce sont des humains qui décident quelles données doivent entrer, ce que le logiciel peut en faire et ce qui doit en ressortir au final. Si l’algorithme se trompe, la faute en incombe à des humains. Lorsque l’algorithme évolue, c’est parce qu’un groupe d’humains a analysé tout un tas de tableaux, organisé tout un tas de réunions, conduit tout un tas de tests et décidé de l’améliorer. Et s’il s’améliore, c’est parce qu’un autre groupe d’humains, nous, leur signale ses défauts.

À mon arrivée dans les vastes bureaux, conçus par Frank Gehry, de Facebook, j’ai été accueilli par un grand type élancé de 37 ans, à l’allure juvénile et dont le visage ne cessait d’alterner entre sourire sincère et expression de concentration intense. Tom Alison est le directeur de l’ingénierie pour le fil d’actualité; il est à la tête des humains qui s’occupent de l’algorithme.

Il me guide à travers un dédale de bureaux et de minicuisines ouvertes vers une petite salle de conférence, où il me promet de démystifier la véritable nature de l’algorithme de Facebook. En chemin, je me rends compte qu’il faut que j’aille aux toilettes et je lui en demande la direction. Une grimace involontaire traverse son visage, puis il s’excuse, sourit et me dit «Je vais vous accompagner». Au début, je me dis que c’est parce qu’il a peur que je me perde. Mais lorsque je ressors, je me rends compte qu’il m’a attendu dehors et qu’il n’est, en fait, sans doute pas autorisé à me laisser seul.

Les bureaux de Facebook à Menlo Park. Christophe Wu/Facebook.

Pour la même raison (la protection farouche par Facebook de ses secrets professionnels), Tom Alison ne peut trop m’en dire sur le code qui compose l’algorithme du fil d’actualité. Il peut, néanmoins, me dire ce qu’il fait et pourquoi (et pourquoi il est sans cesse modifié). Tout commence, comme souvent chez les ingénieurs, par un tableau blanc.

«Lorsque l’on étudie l’informatique, l’un des premiers algorithmes que l’on apprend est un algorithme de tri»,explique Tom Alison. Il inscrit une liste de nombres entiers positifs au stylo effaçable:

4, 1, 3, 2, 5

Première tâche simple à réaliser: concevoir un algorithme pour classer ces nombres par ordre croissant. «Les êtres humains savent très bien faire cela, dit Alison. Mais nous le faisons plus ou moins inconsciemment.»

Pour qu’un ordinateur le fasse, en revanche, il faut lui expliquer précisément comment procéder. Cela nécessite un algorithme: un ensemble d’instructions concrètes pour résoudre un problème donné. L’algorithme qu’il me montre se nomme «tri à bulles» et fonctionne de cette façon:

1. Pour chaque nombre de la liste, en commençant par le premier, le comparer au nombre qui suit et voir s’ils sont dans l’ordre désiré.

2. Les inverser si ce n’est pas le cas.

3. Répéter les étapes 1 et 2 jusqu’à pouvoir avancer dans toute la liste, du début à la fin sans inverser aucun nombre.

L’avantage du tri à bulles est qu’il est très simple. L’inconvénient: si l’ensemble des données est important, il est inefficace et demande beaucoup trop de temps. Facebook, pour des raisons évidentes, n’a pas recours au tri à bulles. Il a bien recours à un algorithme de tri pour classer la liste de tous les posts qui pourraient apparaître dans votre fil d’actualité lorsque vous ouvrez l’application, mais c’est la partie triviale (un subalgorithme mineur à l’intérieur du véritable algorithme). La partie non triviale consiste à assigner à chacun de ces posts une valeur numérique de départ. C’est, pour faire court, le travail de l’équipe de classement du fil d’actualité: concevoir un système capable d’assigner à tout post Facebook donné un «score de pertinence» spécifique à chaque utilisateur.

Algorithme de prédiction

Ce n’est pas une tâche aisée, car ce qui est pertinent pour vous (le post d’un ami d’enfance ou d’une célébrité que vous suivez) peut ne pas l’être du tout pour moi. Pour cette raison, comme me l’explique Tom Alison, Facebook utilise une autre sorte d’algorithme, appelé algorithme de prédiction (l’algorithme du fil d’actualité de Facebook, comme l’algorithme de recherche de Google ou l’algorithme de recommandation de Netflix, n’est en fait qu’un grand logiciel complexe composé d’algorithmes plus petits).

«Disons que je vous demande de choisir le vainqueur d’un futur match de basket, Bulls contre Lakers», commence Tom Alison. Je m’exclame: «Les Bulls!» Il rit, puis il secoue la tête vigoureusement. Mon cerveau a reçu l’information (input) et produit une réponse verbale immédiate (output), peut-être en raison de quelque algorithme espiègle dont il a le secret (Les algorithmes de l’esprit humain sont bien plus sophistiqués que tout ce que la Silicon Valley ait jamais pu produire, mais ils dépendent aussi lourdement de l’heuristique et sont notoirement sujets à la folie.)

Faire des suppositions à l’aveugle, c’est bien lorsque l’on n’a rien à perdre, m’explique Alison. Mais imaginons que mes prédictions sportives impliquent des sommes d’argent considérables et que j’en fasse des millions par jour. Une approche plus systématique serait nécessaire. «Vous commenceriez sans doute par jeter un œil aux données historiques, me dit-il. Vous regarderiez le bilan des matchs gagnés et perdus de chaque équipe, les statistiques des joueurs, savoir lesquels sont blessés, etc.» Je tiendrais aussi sans doute compte de facteurs environnementaux: qui joue à domicile? Est-ce qu’une équipe joue sans avoir eu le temps de récupérer ou après un long vol en avion? Mon algorithme de prédiction pourrait incorporer tous ces facteurs et bien d’autres encore. S’il est bon, il m’indiquera non seulement le nom de l’équipe qui va gagner le prochain match, mais aussi le degré de confiance qu’il a dans le résultat.

Cela s’apparente à ce que fait l’algorithme de Facebook lorsqu’il essaie de prédire si vous allez aimer ou non un post donné. J’ai demandé à Alison combien de variables l’algorithme de Facebook peut prendre en compte. «Des centaines», m’a-t-il répondu.

Le post que vous voyez au sommet de votre fil d’actualité a été choisi parmi des milliers d’autres comme celui qui est le plus susceptible de vous faire rire, pleurer, sourire, cliquer, aimer, partager ou commenter

L’algorithme ne se contente pas de prévoir si vous allez ou non aimer un post en fonction de vos comportements passés. Il prédit aussi si vous allez cliquer dessus, le commenter, le partager, le masquer ou même le considérer comme du spam. Il va prédire chacun de ces résultats, et d’autres, avec un certain degré de confiance, puis tous les combiner avant de produire une note de pertinence spécifique à vous-même et à ce post. Lorsque chaque post de votre fil d’actualité s’est vu attribuer un degré de pertinence, l’algorithme de tri procède au classement que vous voyez à l’écran. Le post que vous voyez au sommet de votre fil d’actualité a été choisi parmi des milliers d’autres comme celui qui est le plus susceptible de vous faire rire, pleurer, sourire, cliquer, aimer, partager ou commenter.

Pourtant, aussi bien construit soit votre algorithme, il y aura toujours des données dont vous n’aurez pas tenu compte: les plans des entraîneurs, le genou de Derrick Rose, le degré de gonflage du ballon… En bref, ce ne sont pas des données qui jouent le jeu. Ce sont des êtres humains. Et les gens sont trop complexes pour qu’un algorithme puisse les modéliser.

L’algorithme de prédiction de Facebook doit faire face à une autre complication, cette fois-ci un peu plus épistémologique. Le degré de pertinence a pour but de correspondre aux chances que les Bulls ont de gagner le match. C’est un résultat simple et pleinement mesurable: soit ils gagnent, soit ils ne gagnent pas. L’algorithme de tri de Facebook essayait auparavant de prédire un résultat tout aussi mesurable: l’interaction de l’utilisateur avec le post en question. Les humains qui sont derrière le fil d’actualité avaient en effet estimé que les interactions sont de bons indicateurs pour savoir si tel ou tel post a suscité un intérêt quelconque. Il s’avère qu’elles constituent également le carburant économique de Facebook: les clics, les likes, les partages et les commentaires sont ce qui rend viraux certains posts, regroupe les utilisateurs individuels en communautés et fournit du trafic aux annonceurs, dont les revenus de Facebook dépendent.

Le problème est que ces interactions ne sont qu’une indication vague sur ce que veulent vraiment les utilisateurs de Facebook. Que se passe-t-il si les gens «likent» des posts qu’ils n’aiment pas vraiment ou cliquent sur des histoires qui se révèlent décevantes? Il pourrait en résulter un fil d’actualité privilégiant la viralité à la qualité –qui donne aux utilisateurs un flux constant de sucreries, des posts à aimer à droite et à gauche, mais qui finit par leur donner la nausée et les dégoûter complètement de ce jeu stupide. Comment se prémunir contre cela?

Tournant de 2013

Nous étions fin 2013 et Facebook était la société la plus importante du monde. Le réseau social était passé à plus d’un milliard d’utilisateurs et était entré en bourse avec une valorisation dépassant les 100 milliards de dollars. L’entreprise avait passé l’année précédente à élaborer une application repensée pour mobiles qui était rapidement devenue la plus populaire aux États-Unis, devant Google Search et Google Maps. Dépassant le simple moyen de rester en contact avec ses amis, Facebook était devenu, de fait, le journal mondial du XXIe siècle: un flux quasi ininterrompu d’informations, de divertissements et de nouvelles d’amis et de personnes chères, automatiquement adapté aux intérêts personnels de chaque utilisateur.

Chez les personnes en charge du fil d’actualité de Facebook, cette croissance avait été accueillie avec excitation. Mais si l’implication des utilisateurs atteignait des sommets, personne n’était certain de leur satisfaction générale. Les gens n’avaient jamais «aimé» autant de choses sur Facebook… mais était-on sûr qu’ils aimaient toujours autant Facebook?

Pour comprendre comment cette question s’est posée, il faut remonter à 2006. Le fil d’actualité mis en place cette année-là par Facebook (qui n’était alors qu’un vaste agrégat de pages de profil et de groupes, un peu comme Myspace) avait pour objectif de vous tenir au courant des différentes activités et mises à jour de vos amis sur le site. Les utilisateurs s’irritèrent à l’idée de voir leurs mises à jour de statut, leurs changements de photo de profil ou leurs petits mots doux envoyés à d’autres pages alimenter le fil d’actualité de leurs amis, mais Facebook ne céda pas.

Mais même à cette époque, tout ce que faisaient vos amis ne finissait pas par apparaître dans votre fil d’actualité. Afin d’éviter de submerger les utilisateurs sous des centaines de mises à jour quotidiennes, Facebook élabora un algorithme rudimentaire destiné à les filtrer en fonction de l’intérêt qu’ils pouvaient représenter. Ne disposant d’aucun moyen pour en prendre réellement la mesure (le bouton «like» apparut trois ans plus tard), les ingénieurs de Facebook se contentèrent de faire des suppositions en fonction de leurs propres intuitions. Les premiers critères pris en compte pour justifier l’apparition, ou non, d’un post dans votre fil d’actualité étaient notamment sa date et le nombre de vos amis qu’il mentionnait. Au fil du temps, l’équipe tenta de modifier ces suppositions en testant de quelle manière les changements affectaient le temps passé par les utilisateurs sur le site. Toutefois, ne disposant d’aucun moyen pour évaluer quelles sortes de posts ravissaient les gens et quelles autres les ennuyaient, les fâchaient ou les gênaient, les ingénieurs tentaient des solutions au petit bonheur la chance.

Le bouton «like» était un moyen pour Facebook de faire en sorte que ses utilisateurs l’aident à résoudre le problème du classement de leur fil d’actualité

Le bouton «like» («j’aime») n’était pas uniquement un nouveau moyen pour les utilisateurs d’interagir avec le site. C’était un moyen pour Facebook de faire en sorte que ses utilisateurs l’aident à résoudre le problème du classement de leur fil d’actualité. Et le plus extraordinaire est que les utilisateurs n’ont pas eu conscience que c’était ce qu’ils étaient en train de faire. Si Facebook avait demandé à ses utilisateurs de classer les posts de leurs amis pour aider la société à déterminer combien d’autres personnes devaient les voir, nous aurions trouvé cela gênant. L’algorithme du fil d’actualité de Facebook était l’un des premiers à subrepticement pousser les utilisateurs à personnaliser leur contenu (et à influencer celui de tous les autres).

Soudain, l’algorithme avait un moyen d’identifier les posts les plus populaires… et de les rendre «viraux», terme auparavant employé pour des contenus qui se communiquaient de personne à personne et non pour des choses diffusées grâce à un algorithme à un public de masse. Mais les employés de Facebook ne furent pas les seuls à voir ce qu’il fallait à un post pour qu’il devienne viral. Les médias, les publicitaires, les faiseurs de hoax et même les utilisateurs individuels commencèrent à glaner les éléments que les posts viraux semblaient avoir en commun (les caractéristiques qui semblaient susciter des likes réflexes de la part de nombreux amis, followers et même d’inconnus). Beaucoup commencèrent à adapter leurs posts pour recevoir autant de likes que possible. Des consultants en médias sociaux commencèrent à conseiller les gens sur les meilleurs moyens de jouer avec l’algorithme de Facebook: les bons mots à utiliser, la bonne heure où poster, les bonnes proportions de mots et d’images. «Cliquez sur j’aime», implorait un post quelconque et les gens le faisaient, même s’ils s’en fichaient plus qu’autre chose. Rapidement, tous les fils d’actualités finirent par sembler horriblement similaires, tous remplis de contenus conçus pour devenir viraux, le plus souvent mièvres ou moralisateurs. Le fond, la nuance, la tristesse et tout ce qui pouvait faire réfléchir ou provoquer des émotions étaient noyés sous un déluge de pouces bleus.

«Regarder au-delà des simples clics et likes»

Les statistiques d’implication étaient à leur comble, mais était-ce vraiment ce qui était recherché par l’optimisation du fil d’actualité? La question préoccupait Chris Cox, 33 ans, un «ancien» de Facebook, architecte intellectuel du fil d’actualité. «Observer les likes, les clics, le nombre de commentaires et de partages est une manière de déterminer ce qui intéresse les gens, m’a-t-il dit par e-mail (il est désormais le responsable des produits chez Facebook).Mais nous savions qu’il y avait des endroits où c’était imparfait. Par exemple, vous pouvez lire un post tragique que vous n’avez pas envie de liker, de commenter ou de partager, mais si nous vous le demandions, vous nous diriez qu’il était important pour vous de l’avoir lu. Il y a quelques années, nous savions qu’il nous fallait regarder au-delà des simples clics et likes pour améliorer le fonctionnement du fil d’actualité dans ce type de cas.»

Vous pouvez lire un post tragique que vous n’avez pas envie de liker, mais si nous vous le demandions, vous nous diriez qu’il était important pour vous de l’avoir lu

Chris Cox, responsable des produits
chez Facebook

Un algorithme peut être optimisé pour un résultat donné, mais il ne peut vous dire ce que doit-être ce résultat. Il n’y a que les humains qui peuvent faire ça. Cox et les autres humains responsables du fil d’actualité de Facebook décidèrent que leur objectif ultime était de montrer aux gens tous les posts qui comptent vraiment pour eux et aucun de ceux qui ne leur importent pas. Ils savaient que cela pouvait impliquer de sacrifier des engagements à court terme (et peut-être des revenus) au nom de la satisfaction de l’utilisateur. Mais compte tenu des fonds levés par Facebook et du fait que son fondateur et PDG Mark Zuckerberg contrôlait la majorité des votes, la société pouvait se payer le luxe d’une optimisation pour un résultat à long terme. Ne restait plus qu’à savoir comment le faire, techniquement parlant.

Les organisations médiatiques définissent traditionnellement ce qui importe à leur public au travers de leur propre jugement éditorial. Demandez-leur ce qui fait un bon article et ils vous parleront de valeurs telles que la vérité, la pertinence et l’intérêt du public. Mais Cox et ses collègues de Facebook se sont donné du mal pour ne pas mettre leur propre cachet éditorial dans le fil d’actualité. Au lieu de cela, leur définition de ce qui intéresse l’utilisateur de Facebook est simplement la suivante: ce qu’il ou elle classerait en premier dans son fil d’actualité si on lui en donnait le choix. «Le meilleur moyen de résoudre ce problème serait de demander à tout le monde quelles histoires ils veulent voir et quelles autres ils ne veulent pas voir, mais ce n’est ni possible, ni pratique», affirme Cox. Au lieu de cela, Facebook a décidé de demander à certaines personnes quelles histoires ils voulaient voir et quelles histoires ils ne voulaient pas voir. Ils étaient un millier environ et, il y a encore peu de temps, la plupart résidaient à Knoxville, dans le Tennessee. Aujourd’hui, ils sont répartis dans le monde entier.

«Panel qualité»

Adam Mosseri, 32 ans, directeur de produit pour le fil d’actualité de Facebook, est l’homologue moins technique d’Alison (c’est un fuzzie plutôt qu’un techie dans le jargon de la Silicon Valley). Il parle de problèmes et de généralités, quand Alison s’occupe des solutions et de spécificités. C’est en quelque sorte le philosophe du fil d’actualité.

Cette envie d’humaniser le classement du fil d’actualité a débuté sous le prédécesseur de Mosseri, Will Cathcart (j’avais écrit à propos de plusieurs de ces innovations). Cathcart a commencé par rassemblé des formes plus subtiles de données comportementales: il ne s’agissait plus seulement de savoir si l’utilisateur avait cliqué ou avait liké un post, mais de savoir s’il l’avait liké avant ou après lecture. Par exemple: si vous likez un post avant de l’avoir lu, comme l’a découvert Facebook, cela correspond beaucoup moins à vos véritables sentiments que si vous le likez après lecture.

Après être passé aux commandes fin 2013, la grande initiative de Mosseri a été de mettre en place ce que Facebook appelle son «panel qualité». Cela a commencé à l’été 2014 avec un groupe de plusieurs centaines de personnes à Knoxville, que la société payait pour venir tous les jours au bureau et fournir un retour continu et détaillé sur ce qu’ils avaient vu dans leur fil d’actualité (leur localisation était, d’après Facebook, un «accident historique» provenant d’un projet pilote que la société avait fait en partenariat avec un sous-traitant dont elle n’a pas indiqué le nom). Mosseri et son équipe ne se contentaient pas d’étudier les comportements. Ils leur posèrent également des questions pour essayer de comprendre pourquoi ils aimaient tel ou tel post, à quel point ils l’aimaient et ce qu’ils auraient préféré voir à la place. «Ils écrivaient un petit paragraphe sur chaque post de leur fil d’actualité»,remarque Greg Marra, chef de produit pour l’équipe de classement du fil d’actualité.

«La question était "Qu’est-ce qui peut nous échapper?", raconte Mosseri. Est-ce que nous passons à côté de certains éléments? Par exemple, nous savons qu’il y a des choses que vous voyez dans votre fil d’actualité que vous aimez ou qui vous plaisent, mais avec lesquelles vous n’interagissez pas.» Sans moyen de mesurer cela, l’algorithme déclasserait les posts de ce type à la faveur d’autres, qui se prêtent plus naturellement aux likes et aux clics. Mais quels signaux Facebook pourrait-il utiliser pour avoir accès à cette information?

Max Eulenstein et Lauren Scissors. Christophe Wu/Facebook.

Mosseri a délégué le chef de produit Max Eulenstein et la chercheuse en expérience utilisateur Lauren Scissors pour superviser le panel et leur poser des questions de ce genre. Par exemple, Eulenstein s’est servi du panel pour tester une hypothèse selon laquelle le temps qu’un utilisateur passe à regarder un post sur son fil d’actualité pourrait être un bon indicateur pour montrer qu’il l’apprécie, même s’il ne clique pas sur like. «Nous pensions que cela pouvait être le cas, mais l’on peut aussi imaginer des raisons pour lesquelles ce ne le serait pas,m’a dit Eulenstein. Cela pourrait s’expliquer par le fait, par exemple, qu’il y a des choses choquantes, que l’on regarde, mais que l’on n’a pas forcément envie de voir.»Les notes des panellistes permirent à Eulenstein et Scissors non seulement de confirmer leurs suppositions, mais aussi d’en examiner les subtilités et de commencer à quantifier le tout. «Ce n’est pas “5 secondes c’est bien, 2 secondes ce n’est pas bien”, explique Eulenstein. C’est plus en rapport avec le temps que vous passez sur un post particulier par rapport au temps passé sur les autres posts de votre fil d’actualité.» La recherche mit aussi en avant le besoin de contrôler la vitesse de la connexion à Internet des utilisateurs, qui pouvait faire penser qu’ils passaient beaucoup de temps sur un post donné alors qu’ils étaient juste en train d’attendre que la page soit chargée. C’est cette recherche qui a abouti à la modification révélée par Facebook en juin dernier, poussant l’algorithme à faire monter dans le classement les posts que les utilisateurs passaient plus de temps à voir dans leurs fils.

Mosseri et son équipe avaient été si satisfaits des retours donnés par le panel en quelques mois qu’ils décidèrent de porter l’expérience au niveau national, rémunérant un échantillon de personnes démographiquement représentatif à travers le pays pour noter et commenter les posts de leur fil d’actualité depuis leur domicile. À la fin de l’été 2015, Facebook abandonna le groupe de Knoxville et commença à étendre le panel à l’étranger. Mosseri l’avait bien ressenti: il y avait des choses qui échappaient à l’algorithme du fil d’actualité et que les ingénieurs de Facebook n’auraient pu identifier par eux-mêmes. Il leur fallait une nouvelle sorte de données (des retours qualité humains) pour commencer à combler les lacunes.

Aussi crucial soit devenu le panel qualité pour l’algorithme de Facebook, la société est de plus en plus consciente qu’une seule source de données ne peut suffire. Pour répondre à cela, elle a développé une sorte de système de contrôle et d’équilibre conformément auquel chaque nouvelle modification du fil d’actualité doit passer une batterie de tests auprès de différents types de public et être jugée selon tout un ensemble de critères.

Données plus riches et humaines

La gestion de ce système d’équilibre incombe à la petite équipe d’ingénieurs, d’analystes et de chargés de produits du fil d’actualité, qui vient travailler tous les jours à Menlo Park. Il s’agit de gens comme Sami Tas, un ingénieur logiciel dont le travail est de traduire les changements proposés par l’équipe de classement du fil d’actualité en un langage compréhensible par l’ordinateur. Cet après-midi, alors que je regarde par-dessus son épaule, il me guide à travers un problème qui pourrait sembler trivial tant il est petit. Pourtant, c’est exactement le type de problèmes que Facebook considère critiques aujourd’hui.

La plupart du temps, lorsque les gens voient une histoire dont ils se fichent dans leur fil d’actualité, ils se contentent de la passer. Certaines histoires les irritent néanmoins assez pour qu’ils fassent l’effort de cliquer sur le petit menu déroulant en haut à droite du post et sélectionnent «Masquer la publication». L’algorithme de Facebook considère qu’il s’agit d’un signal négatif fort et s’efforce de leur montrer moins de posts de cette nature par la suite.

Cependant, tout le monde n’utilise pas Facebook de la même manière. Les analystes de Facebook étaient déjà conscients qu’une petite proportion d’utilisateurs (5%) réalisait 85% de tous les «masquages». En creusant un peu plus, ils ont découvert qu’une petite partie de ces 5% masquaient presque tout ce qu’ils voyaient (même les posts qu’ils avaient aimés ou commentés). Pour ces «supermasqueurs», il s’est avéré que masquer un post ne voulait pas dire qu’ils ne l’avaient pas aimé. C’était simplement leur façon de marquer le post comme «lu», de la manière que l’on archive un message sur Gmail.

Le problème est que leurs actions introduisaient un biais dans les données dont Facebook a besoin pour classer les posts. Aussi étonnant que cela puisse paraître, l’algorithme du fil d’actualité ne tente pas de modéliser les comportements individuels de chaque utilisateur. Il traite vos likes comme une valeur identique à la mienne, et il en va de même pour ce que nous masquons. Pour les «supermasqueurs», en revanche, l’équipe de classement a décidé de faire une exception. Tas a eu pour mission de modifier le code afin d’identifier ce petit groupe de gens et de faire en sorte que la valeur négative de leurs masquages ne soit pas prise en compte.

L’algorithme est si précieux pour Facebook que chaque modification, même infime, au code doit faire l’objet de tests

Cela peut ressembler à une simple rustine, mais l’algorithme est si précieux pour Facebook que chaque modification, même infime, au code doit faire l’objet de tests –d’abord par une simulation hors ligne, puis auprès d’un petit groupe d’employés de Facebook, puis sur une petite fraction de tous les utilisateurs de Facebook– avant d’être mise en ligne. À chaque étape, la société collecte les données relatives aux effets du changement sur diverses variables allant de l’implication des utilisateurs au temps passé sur le site, en passant par les revenus publicitaires et le temps de chargement de la page. Des outils de diagnostic sont mis au point pour détecter en temps réel tout changement anormal sur ces données critiques, qui fait sonner, le cas échéant, une sorte d’alarme interne qui informe automatiquement les membres clés de l’équipe du fil d’information.

Lorsqu’un changement comme celui de Tas a été testé sur chacun de ces publics, il présente les données résultantes lors de l’une des «réunions tri» hebdomadaires de l’équipe du fil d’actualité et répond aux questions de Mosseri, Allison, Marra et ses autres collègues quant à ses effets sur diverses variables. Si l’équipe est satisfaite et considère que le changement a été positif, sans conséquence non voulue, les ingénieurs en charge du code dans les équipes iOS, Android et Web le mettent graduellement à disposition du grand public.

Mais même alors, Facebook ne peut être sûr que le changement n’aura pas d’effet subtil, à plus long terme, que la société avait été incapable d’anticiper. Pour se prémunir contre cela, il maintient un «groupe témoin», une petite proportion d’utilisateurs qui ne voient apparaître le changement que des semaines ou des mois après les autres.

Mais parler du nouvel algorithme du fil d’actualité de Facebook au singulier peut être trompeur. Et je ne parle pas uniquement du fait qu’il s’agisse en réalité d’une collection de centaines d’algorithmes plus petits résolvant les petits problèmes qui se posent lorsque l’on essaie de savoir quels posts montrer aux gens. Le fait est que, avec tous ces tests et groupes témoins, il y a actuellement plus d’une dizaine de versions différentes de cet algorithme qui sont utilisées dans le monde. La modification de Tas sur le «masquage» de posts a été annoncée le 31 juillet et son post qui en parlait sur le blog «News Feed FYI» de Facebook sont largement passés inaperçus du grand public. On suppose toutefois que les «supermasqueurs» du monde sont désormais plus satisfaits de leur fil d’actualité et donc plus susceptibles de continuer à utiliser Facebook, à partager des posts avec leurs amis et à voir les publicités qui font vivre la société.

Le panel qualité a fourni à l’équipe du fil d’actualité des données plus riches et humaines que jamais. Tas et le reste de l’équipe de classement parviennent de mieux en mieux à identifier et à réparer les manques de l’algorithme. Mais il y a un autre groupe humain auquel Facebook s’adresse de plus en plus pour que son fil d’actualité soit pertinent: les utilisateurs ordinaires comme vous et moi.

«Qu’est-ce que vous voulez voir? Qu’est-ce que vous ne voulez pas voir?»

L’enquête menée par Facebook ces six derniers mois (en demandant à certains utilisateurs de choisir leur préféré entre deux posts placés côte à côte) est une tentative de rassembler le même type de données auprès d’un échantillon de personnes bien plus vaste que le panel précédent. Mais cette implication croissante des utilisateurs lambda ne se fait pas uniquement du côté des «intrants». Ces deux dernières années, Facebook a aussi donné à ses utilisateurs de plus en plus de pouvoir sur les résultats de leur fil d’actualité.

L’algorithme est toujours la force motrice du classement des posts de votre fil. Mais Facebook donne de plus en plus à ses utilisateurs la possibilité d’en affiner les résultats (un niveau de contrôle auquel la société avait longtemps résisté, le jugeant onéreux et inutile). Facebook a travaillé sept années durant à l’amélioration de son algorithme de tri, affirme Mosseri. La société a embauché des spécialistes de l’apprentissage automatique pour développer des régressions logistiques visant à interpréter de quelle manière les comportements passés des utilisateurs peuvent permettre de prédire quels posts ils risquent d’apprécier à l’avenir. «Nous pourrions encore passer dix ans –et c’est ce que nous allons faire– à essayer d’améliorer ces techniques d’apprentissage automatique,explique Mosseri. Mais on peut d’ores et déjà obtenir beaucoup de choses intéressantes en demandant simplement aux gens: “Qu’est-ce que vous voulez voir? Qu’est-ce que vous ne voulez pas voir? Quels amis voulez-vous toujours voir en haut de votre fil d’actualité?”»

Ce sont désormais des questions auxquelles chaque utilisateur peut désormais répondre par lui-même. Vous pouvez désormais «ne plus suivre» un ami dont vous ne voulez plus voir les posts, «en voir moins» d’un certain type de posts et désigner les amis dont vous souhaitez «voir en premier» les posts à chaque fois que vous vous connectez. Toutes ces choses ne sont pas forcément évidentes pour l’utilisateur occasionnel: il faut cliquer sur une petite flèche grise en haut à droite du post pour voir ces options. La plupart des gens ne les utilisent jamais. Mais face aux limites de l’automatisation totale du fil d’actualité, Facebook commence à mettre ces options en avant au travers de pop-ups occasionnels renvoyant vers des pages d’aide et d’explication. L’entreprise teste aussi de nouvelles manières pour les utilisateurs d’interagir, comme un fil d’actualité par sujets et de nouveaux boutons permettant d’exprimer des réactions autres que «J’aime».

Ce mouvement est en partie défensif. Les principaux concurrents qui s’opposent à la domination de Facebook ces dernières années (c'est-à-dire les nouveaux venus qui menacent de faire à Facebook ce que Facebook a fait à Myspace) rejettent en bloc ce type d’approche par données. Instagram, que Facebook a acquis en 2012 en partie afin d’étouffer la menace posée par son impressionnante popularité, se contente de vous montrer toutes les photos de chaque personne que vous suivez dans un simple ordre chronologique. Snapchat a éclipsé Facebook auprès des adolescents en refusant la viralité et le filtrage automatique en faveur de formes d’interaction plus intimes.

Facebook n’est pas la seule société de ce type à avoir tenté ces dernières années de dépasser les limites posées par l’optimisation algorithmique. Le célèbre moteur de recommandation de Netflix repose de plus en plus sur des êtres humains payés pour voir des films toute la journée et les classer par genre. Afin de contrebalancer l’influence des tests A/B automatisés d’Amazon, son PDG Jeff Bezos accorde une importance démesurée aux plaintes spécifiques des utilisateurs individuels et a ouvert une adresse e-mail publique à cet effet. Il serait prématuré de déclarer la fin de l’ère de l’algorithme avant qu’elle ait vraiment vu le jour, mais nous assistons à un changement de vitesse. Adam Mosseri de Facebook, refuse pour sa part de dire que les prises de décision sont data-driven («conduites» par les données), préférant l’appellation data-informed («informées» par les données).

L’équipe de classement du fil d’actualité de Facebook pense que cette approche s’avérera payante. «À mesure que nous continuons à améliorer le fil d’actualité en fonction de ce que nous disent les gens, nous voyons que notre classement s’améliore, qu’il se rapproche de la manière dont les gens classeraient eux-mêmes les posts», affirme Scissors, la chercheuse en expérience utilisateur qui aide à superviser le panel qualité.

Il y a toutefois un inconvénient potentiel à donner ce type de contrôle aux utilisateurs: que se passe-t-il s’ils se trompent, comme les humains le font souvent, sur ce qu’ils désirent vraiment voir? La base de données de Facebook pourrait-elle nous connaître mieux, du moins d’une certaine manière, que nous ne sous connaissons nous-mêmes? Donner aux gens le fil d’actualité qu’ils disent désirer ne risque-t-il pas de rendre Facebook moins addictif qu’auparavant?

Mosseri m’affirme ne pas être vraiment inquiet à propos de cela. Jusqu’ici, explique-t-il, les données semblent montrer que le fait de laisser plus de choix aux utilisateurs a conduit à une augmentation de l’implication générale et du temps passé sur le site. Et même si ces deux objectifs peuvent sembler menacés à court terme, il pense «que les améliorations qualitatives apportées au fil d’actualité sont nécessaires à un engagement à long terme». Si cela se vérifie, ce serait une bonne nouvelle pour Facebook. Mais s’il y a bien une chose que l’entreprise a apprise en dix ans de fil d’actualité, c’est que les données ne disent pas toujours toute l’histoire et que l’algorithme ne sera jamais parfait. Ce qui semble marcher aujourd’hui pourrait bien apparaître comme une erreur demain. Et lorsque ce sera le cas, les êtres humains qui vont tous les jours travailler dans les bureaux de Facebook à Menlo Park devront analyser tout un tas de tableaux, organiser tout un tas de réunions, conduire tout un tas de tests… et modifier une fois de plus l’algorithme.

Will Oremus

Commenter cet article

Archives