Wikistrike

Wikistrike

Rien ni personne n'est supérieur à la vérité

Google, gérant-croupier du grand jeu des algorithmes

Publié par wikistrike.com sur 11 Juin 2020, 10:17am

Catégories : #Science - technologie - web - recherche

Google, gérant-croupier du grand jeu des algorithmes

Un bouleversement silencieux mais sensible s’est déroulé en ce mois de mai 2020: l’ajout d’une mise à jour du cœur du moteur de recherche Google. Peu après, plusieurs changements dans la hiérarchie des résultats de recherche se sont fait sentir, posant à nouveau la problématique de la souveraineté numérique.

Les sociétés spécialisées dans la gestion et l’amélioration du référencement dans les moteurs de recherche (ce que l’on nomme SEM pour Search engine marketing et SEO pour Search engine optimization) craignent tous ce moment: celui où les développeurs dudit système vont s’atteler à en modifier les paramètres.

Car ce changement est souvent bien plus qu’une simple correction de failles informatiques, il vise à améliorer officiellement le programme pour rendre le moteur de recherche plus performant tant en rapidité qu’en pertinence. Officiellement car officieusement, il peut aussi servir à rebattre les cartes pour éviter les situations de rentes, obligeant dès lors les bénéficiaires d’hier à se remettre en cause et rechercher de nouvelles méthodes liées à la visibilité.

Incidemment, Google évoque aussi une volonté de lutter contre le fléau du pourriel (ou spam) avec ces mises à jour, afin de déboussoler les indélicats tauliers de sites vérolés.

«Avec des centaines de milliards de pages Web dans notre index recueillant des milliards de requêtes chaque jour, il n'est peut-être pas surprenant qu'il y ait de mauvais acteurs qui tentent de manipuler le classement des recherches. En fait, nous avons observé que plus de 25 milliards de pages que nous découvrons chaque jour sont du spam. C'est beaucoup de spam et cela montre l'ampleur, la persistance et la longueur dont sont capables les spammeurs. Nous tenons vraiment à ce que vos chances de rencontrer des pages contenant du spam dans la recherche soient aussi réduites que possible. Nos efforts ont permis de garantir que plus de 99% des visites de nos résultats conduisent à des expériences sans spam.»

Il n’en demeure pas moins que certaines sociétés d’analyse du trafic Internet ont déjà décelé des changements substantiels, dont Sputnik, RFI et Spotify en font les frais. Ainsi le site Sistrix indique que:

«De nombreuses pages du secteur de la santé sont à nouveau affectées par cette mise à jour. Cependant, il n’y a plus de concentration claire sur ceux-ci: il y a beaucoup d’autres sujets et secteurs parmi les gagnants et les perdants. Du secteur voyage jusqu’au monde automobile en passant par les sites d’actualités classiques, cela peut toucher presque tout le monde.»

Les core updates, des mises à jour stratégiques

Lorsque l’on évoque le référencement sur moteur de recherche, l’on pense indéniablement (sauf en quelques pays du monde où celui-ci n’est pas en position dominante) à la firme de Mountain View: Google. Selon le site We are social qui fournit les tendances du net, Google a été en 2019 le site le plus visité au monde devant Youtube, Facebook et Baidu. Cette hégémonie globale a une incidence assez nette sur un aspect pratique: Google fixe les règles et les change à sa convenance.

Les changements les plus impactants sont nommés core updates. Ce sont ceux qui visent en effet à provoquer un changement profond dans les algorithmes, ces lignes de code qui référencent les données et leur octroient une visibilité plus ou moins forte, mais aussi conditionnent comment les robots indexateurs repèrent et classifient les sites. Car il ne suffit pas de créer un site, il faut l’alimenter et l’entretenir (l’époque où la simple création d’un site vitrine permettait d’être accessible et en tête des résultats de recherche est désormais clairement dépassée). Il est en outre possible de disposer d’une visibilité assurée en recourant à un service payant, Google Ads, celui-ci promouvant un site suite à une contrepartie financière.

Pourquoi tant d’émoi par conséquent ? La raison est que Google ne communique pas toujours sur la survenance d’une mise à jour (surtout les mineures, qui peuvent aussi apporter leur lot de surprises) mais plus encore sur le contenu de celui-ci, souhaitant préserver précisément ce qui fait sa force: le secret de son code.

 

Certes, la firme tient à préciser sur son blogue officiel que certaines règles demeurent invariablement nécessaires pour le référencement de son ou ses sites.

«Comme expliqué, les pages qui tombent après une mise à jour principale n'ont rien de mal à corriger. Cela dit, nous comprenons que ceux qui réussissent moins bien après un changement de mise à jour de base peuvent encore ressentir le besoin de faire quelque chose. Nous vous suggérons de vous assurer que vous offrez le meilleur contenu possible. C’est ce que nos algorithmes cherchent à récompenser. Un point de départ est de revoir les conseils que nous avons donnés dans le passé sur la façon de s'auto-évaluer si vous pensez offrir un contenu de qualité. Nous avons mis à jour ces conseils avec une nouvelle série de questions à vous poser sur votre contenu.»

Et de mentionner plusieurs pistes :

  • «Le contenu fournit-il des informations, des rapports, des recherches ou des analyses originaux?
  • Le titre et/ou le titre de la page fournissent-ils un résumé descriptif et utile du contenu?
  • Vous attendriez-vous à voir ce contenu dans ou référencé par un magazine imprimé, une encyclopédie ou un livre?
  • Le contenu contient-il une quantité excessive d'annonces qui distraient ou interfèrent avec le contenu principal?
  • Le contenu s'affiche-t-il bien pour les appareils mobiles lorsqu'il est affiché sur eux?»

La souveraineté numérique passe par le code

Mais si Google encourage l’Open Source (c’est-à-dire la programmation avec divulgation de code, en mode collaboratif de préférence), il n’est pas prévu en revanche d’avoir accès à celui de son moteur de recherche. Un aspect central en ce domaine puisque Qwant a récemment été soupçonné d’employer majoritairement les résultats des algorithmes de Bing (produit par Microsoft), ce qui affadit quelque peu la notion de souveraineté numérique.

Et il s’agit bien in fine de souveraineté dans les modalités de référencement du moteur de recherche numéro un mondial : certes le service ne créé par les données mais il les collecte, les traite, les hiérarchise et enfin les publicise selon des modalités qui lui sont propres : il est devenu l’annuaire numérique par défaut de toute recherche sur Internet, à la différence près que l’annuaire des anciens disposait d’un classement visible et vérifiable (territorial et alphabétique).

 

  • La cyberstratégie expose qu’il y a quatre solutions lorsque la situation vous est défavorable:
  • Soit accepter les règles du jeu et s’y conformer en dépendant des aléas du suzerain (numérique) pour espérer un renversement de tendance;
  • Soit chercher des alliés et obtenir une masse critique suffisante afin de peser sur l’édification et la modification de règles;
  • Soit opter pour des solutions tierces et des partenaires techniques de confiance afin de ne pas rester dépendant exclusivement d’une seule source;
  • Soit développer son propre écosystème plus propice à ses attentes et à ses intérêts.

Le tout est d’avoir une stratégie claire.

 

Source 

Pour être informé des derniers articles, inscrivez vous :

Archives

Articles récents