En novembre 2021, une mise à jour des algorithmes de Google rebat les cartes et modifie considérablement le trafic de centaines de milliers de sites Internet. Le constat est effarant : les sites qui proposent du contenu de qualité et intellectuellement exigeant perdent des places sur la SERP (Search Engine Result Page – la page de résultats de Google) tandis que ceux qui sont plus légers, voire superficiels, gagnent en notoriété et sont mis en avant. Comment de tels mouvements ont-ils pu se produire ? Les GAFAM ont-elles volontairement mis en avant le mauvais contenu ? À l’heure où la CNIL envisage de supprimer des fonctionnalités de Google Analytics, nous devons nous interroger sur l’évolution du Web et le fonctionnement des algorithmes.
Comment fonctionnent les algorithmes de Google et Facebook ?
Les algorithmes de Google
Les algorithmes sont ces robots qui permettent de trier les contenus mis en ligne afin de mettre en avant ceux qui sont les plus susceptibles de nous intéresser, nous, internautes et mobinautes. Il n’y a en principe pas de mauvaise intention derrière cela, l’objectif de Google étant de répondre aux attentes de son public, de manière à rester le moteur de recherche numéro 1 dans le monde.
Concrètement, les pages web mises en ligne sont crawlées, c’est-à-dire analysées par des robots (qui ne sont rien d’autre que des intelligences artificielles). Ce premier crawl se base principalement sur le texte, lequel fournit des informations importantes aux robots. À partir du titre, des sous-titres et du vocabulaire utilisé dans l’article ou la page, Google sait dans quelle catégorie l’indexer. Si l’on simplifie, il s’agit du même processus que lorsqu’on recherche un ouvrage dans un logiciel de bibliothèque, mais les algorithmes de Google vont bien plus loin. Ensuite, d’autres paramètres sont pris en compte, comme les backlinks (liens hypertextes qui proviennent d’autres sites), mais aussi et surtout, le comportement des internautes.
Prenons l’exemple d’un article initialement bien positionné dans la SERP (par exemple, en 2e position de la page de résultats). Lorsque les internautes cliquent dessus, ils ne passent que quelques secondes sur la page, la scrollent, puis appuient, pour 90 % d’entre eux sur le bouton « retour ». Ce comportement indique aux algorithmes que le contenu ne correspond pas aux attentes des lecteurs : il va alors déplacer la page de manière à ce qu’elle n’apparaisse plus en deuxième position.
Au contraire, une page qui arriverait, par exemple, en 8e position, mais dont les lecteurs passeraient plusieurs minutes à lire (et, peut-être, cliqueraient sur d’autres articles pour continuer la lecture) prouverait aux robots que son contenu plaît et doit être mis en avant. Les algorithmes la feraient alors remonter de quelques positions pour satisfaire davantage de lecteurs.
Des centaines de critères sont pris en compte par les algorithmes comme la notoriété du site et de son créateur ou sa créatrice, les partages sur les réseaux sociaux,, etc.), mais il suffit de garder à l’esprit que Google souhaite satisfaire les internautes pour comprendre comment il classifie les sites dans ses résultats.
Les algorithmes de Facebook
Il en va de même avec les algorithmes de Facebook. Si l’on peut se désoler de voir des contenus de piètre qualité apparaître dans les suggestions lorsqu’on se connecte, il faut bien avouer que les IA n’ont rien inventé et se sont contentées de mettre en avant ce qui plaisait aux internautes. Les robots analysent là aussi le comportement des utilisateurs de Facebook : sur quels posts passent-ils le plus de temps ? Que commentent-ils ? Quand interagissent-ils ? Les contenus qui créent le plus de réactions sont ceux qui sont mis en avant. C’est ainsi que l’on se retrouve avec davantage de vidéos du type « un raton laveur pique des croquettes à un chien », que de contenu enrichissant et intellectuellement exigeant.
La machine infernale de l’appauvrissement du contenu web
Dans La démocratie des crédules (2013), le professeur de sociologie Gérald Bronner – auteur du récent rapport Les Lumières à l’ère numérique – réalise une petite étude sur le phénomène des complots et de la malinformation. Il analyse les 30 premiers résultats de Google sur des requêtes sujettes aux croyances telles que le monstre du Loch Ness, la psychokinèse ou les débats autour de l’aspartam. Le professeur range ensuite les pages proposées par Google dans 4 catégories : favorable, défavorable, neutre et non pertinent. Sur les 5 thèmes qu’il étudie, 81.2 % des résultats proposés par Google pour les 30 premières pages sont favorables à la croyance et entretiennent le mythe.
Cela nous indique qu’en 9 ans, les algorithmes n’ont pas réussi à démêler le vrai du faux et à trouver des méthodes efficaces pour mettre en avant les contenus pertinents, justes et sourcés, à défaut de contenus qui plaisent.
La mise à jour du 17 novembre 2021 a renforcé ce que l’on appelle le biais de confirmation des internautes, les enfermant toujours plus dans une sorte de bulle de subjectivité, favorisant la croyance à la connaissance.
Avec son autre ouvrage Apocalypse Cognitive (2021), Gérald Bronner continue son analyse et tente de comprendre pourquoi l’humanité semble décliner intellectuellement tandis que l’information est de plus en plus accessible. Il nous explique le rôle des écrans, qui ont pris la place du « temps de cerveau disponible » que nous avions réussi à créer en délégant de nombreuses tâches aux machines.
Savoir si les algorithmes des GAFAM vont nous rendre bêtes est une vaste question qui doit prendre en compte bien des facteurs (politiques, sociologiques et culturels notamment). Ce qui est sûr, c’est que nous devons réussir à adopter ce que l’on pourrait appeler une « navigation responsable », c’est-à-dire éviter de passer trop de temps sur des contenus pauvres, mauvais, faux… plus facile à dire qu’à faire, mais tant que les algorithmes se baseront sur nos comportements et que nous consommerons de mauvais contenus, alors, ceux-ci continueront d’être mis en avant.
Vous vous demandez s’il existe des alternatives à Google ? Pour l’instant, elles sont encore peu nombreuses et la plupart des moteurs de recherches utilisent les algorithmes de Google ou de Bing. Cependant, de nouveaux moteurs émergent et paraissent prometteurs. À suivre…
Peut-on démanteler Facebook ? C’est la question à laquelle nous avons tenté de répondre dans un autre article à lire sur Celles qui osent.
Lucie Rondelet, fondatrice du média culturel CQO et de Formation Rédaction Web
En attendant notre prochain article, n'oubliez pas de suivre notre podcast sur ces Femmes qui Osent