Google a publié une mise à jour Helpful Content en septembre dans la foulée d’une Core Update (l’année dernière, c’était l’inverse) et les outils de suivi des classements démontrent peu de volatilité pendant le mois, ce qui suggère que ces 2 mises à jour ne ciblent que certains types de sites Web. Cette hypothèse est renforcée par les recherches menées par la communauté SEO dont les investigations suggèrent que les blogs de recettes de cuisine et de voyages figurent parmi les niches les plus durement touchées par la mise à jour Helpful Content. Dans le même temps, Google fait face à des poursuites judiciaires aux États-Unis. Il se pourrait que le verdict et les fuites lors des débats en salle d’audience aient des conséquences néfastes pour le moteur de recherche.
7 septembre – fin de la Core Update d’août 2023
Publié en août (voir nos actualités Google SEO du mois dernier), le déploiement du Core Update s’est achevé le 7 septembre.
Les Core Updates ont lieu plusieurs fois par an, la précédente datant de mars 2023, et elles concernent la qualité globale des sites. Google ne publie pas d’informations spécifiques sur les signaux utilisés dans les mises à jour principales, mais son conseil de 2019 était de « Se familiariser avec les consignes aux évaluateurs, ainsi qu’avec les exigences d’expertise et de fiabilité ». Vous pouvez en savoir plus sur ces conseils dans notre article Optimiser son site WordPress pour Google EAT.
Si vous avez subi des baisses de classement au cours de la période du 22 août au 7 septembre, il est probable que la cause soit cette mise à jour. En optimisant votre site pour améliorer son EAT, vous pouvez gagner des positions au fil du temps, très probablement lorsque la prochaine Core Update se produira.
15 septembre – Mise à jour Helpful Content
Google a annoncé la publication de la mise à jour Helpful Content le 14 septembre via un post par @googlesearchc sur X (anciennement Twitter) avec le message suivant : « La mise à jour Helpful Content de septembre 2023 est déployée avec un classificateur amélioré » (notre traduction).
Cela a été suivi par deux autres messages afin d’indiquer que la documentation sur le contenu utile avait été mise à jour. La version anglaise de la page « Votre site Web et le système de contenu utile dans la recherche Google » a été mise à jour avec de nouvelles directives concernant l’hébergement de contenu tiers. La version anglaise de la page « Créer des contenus utiles, fiables et axés sur l’humain » présente désormais de nouveaux points à considérer concernant la suppression de contenu et le changement de dates. Cela inclut la suggestion que les propriétaires de sites Web ne devraient pas changer les dates des articles de blog pour les faire paraître « frais » lorsqu’aucun changement significatif n’a été apporté. Il est à noter que ces changements ne sont pas encore apportés aux versions françaises des pages.
Mary Haynes, spécialiste des mises à jour Google, a publié un post sympa sur X avec un rappel de ce qu’il faut savoir sur la mise à jour Helpful Content. Elle nous rappelle qu’il s’agit d’un système de machine learning qui vise à mieux récompenser le contenu qui offre aux visiteurs une expérience satisfaisante. Les pages sont évaluées selon leur utilité et la présence de nombreuses pages pauvres et inutiles sur un même site peut voir ce dernier noté comme « inutile », ce qui constitue un signal négatif pour le classement. Sa première théorie concernait le fait que la mise à jour de septembre implémentait des signaux liés au facteur expérience des directives Google Quality Raters.
Les sites classés comme inutiles après cette mise à jour peuvent subir une baisse soudaine du trafic. On pense que ces sites resteront notés comme inutiles (et mal classés dans Google) jusqu’à la prochaine mise à jour du système Helpful Content, lorsque chaque site sera alors réévalué.
Marie a mis en place un formulaire (en anglais) permettant aux propriétaires de sites de soumettre leur site pour un examen s’ils pensent avoir été touchés par cette mise à jour. Elle promet de partager des informations avec tous ceux qui y contribuent et a déjà signalé que les sites de niche et les blogs de recettes semblaient être particulièrement touchés par cette mise à jour.
Dans une étude distincte, Lily Ray (une SEO éminente basée à New York) a constaté que les sites les plus touchés par la mise à jour sont : les outils en ligne (comme les calculatrices, les convertisseurs, les alarmes, etc.), les sites d’information (données sur des villes, définitions de mots, significations des couleurs, etc.), les sites lifestyle (horoscopes, significations des nombres, développement personnel, citations de motivation, etc.) et les blogs de voyage.
Le déploiement de la mise à jour Helpful Content s’est achevé le 27 septembre. Si vous avez perdu des positions de classement entre le 14 et le 27 septembre, vous avez probablement été touché par cette mise à jour. Nous vous suggérons alors de vous référer aux questions d’auto-évaluation de l’article de Google « Créer un contenu utile, fiable, axé sur l’humain ».
Mise à jour des résultats de recherche multilingues
Dans un article de blog publié le 8 septembre, Google a annoncé avoir publié plusieurs mises à jour au cours des derniers mois afin d’améliorer la prise en compte des langues des utilisateurs dans les résultats de recherche. Cela aura en particulier un impact dans les pays et les régions où les personnes parlent et effectuent fréquemment des recherches dans plus d’une langue.
Tout cela signifie que Google s’est éloigné de la détermination de la langue strictement à partir des paramètres du système d’exploitation ou du navigateur et sera désormais en mesure de mélanger les réponses dans différentes langues dans les mêmes résultats de recherche. Les utilisateurs qui souhaitent forcer les résultats dans une seule langue sont invités à utiliser le filtre de langue dans les outils de recherche.
Dans le même article, Google encourage les éditeurs de sites à prendre en charge autant de langues que possible, plutôt que de se concentrer uniquement sur une langue qu’ils supposent être largement comprise. Enfin, la firme indique aux éditeurs que la documentation sur l’attribut HRFLANG est le moyen correct d’indiquer la langue et la région à Google. Consultez notre article sur le sujet, et nous vous dirons « Tout ce que vous devez savoir sur la création d’un site WordPress multilingue ».
Révélations sur les algorithmes lors du procès antitrust de Google
Depuis le 12 septembre, Google fait face à un procès aux États-Unis. Le département américain de la Justice accuse l’entreprise de truquer le marché de la recherche et d’abuser de sa position et de ses ressources afin de maintenir son monopole. Le procès doit durer plusieurs mois et il est fort probable que le verdict contraigne Google à restructurer sa société aux États-Unis afin de respecter les lois antitrust.
Bien que l’audience ait lieu à huis clos, certaines informations ont fuité notamment le témoignage de l’ancien employé de Google Eric Lehman qui, selon les rapports du compte X de @BigTechOnTrial, a déclaré que Google utilise les données des clics dans les résultats de recherche dans le cadre de ses algorithmes de classement. Dans son témoignage, Lehman affirme que Google évite de communiquer sur ce sujet notamment pour décourager les référenceurs à manipuler les résultats.
Dans un article de 2021, Cyrus Shepard de Moz a spéculé sur la façon dont Google pourrait utiliser les données de clics et comment les sites Web pourraient optimiser ce facteur dans un article intitulé « 3 Vital Click-Based Signals for SEO: First, Long, & Last » (3 signaux vitaux basés sur les clics pour le référencement : le premier clic, le long clic et le dernier clic). Ses conseils sont repris dans cette infographie (en anglais également).
Commandes Robot.txt pour bloquer Google Bard
Le 28 septembre, Google a annoncé (en anglais uniquement) que les éditeurs de sites Web ont désormais la possibilité d’empêcher Bard ou d’autres outils d’IA de Google (comme Vertex) d’explorer leurs sites à l’aide du fichier robot.txt. Le robot d’exploration d’IA sera distinct de ceux utilisés par Google Search et peut être empêché de lire un site Web avec les commandes suivantes dans les robots.txt :
User-agent: Google-Extended Disallow: /
Cela fait suite à une initiative déjà prise par OpenAI pour permettre aux sites de bloquer ChatGPT en utilisant les commandes suivantes :
User-agent: CCBot Disallow: / User-agent: GPTBot Disallow: /
Bing Chat, propose une méthode alternative pour empêcher Bing d’utiliser le contenu du site dans les réponses générées par l’IA. Leur méthode (documentée en anglais) consiste à utiliser les attributs NOARCHIVE et NOCACHE dans la balise ROBOTS META de chaque page. Ils affirment que ces attributs ne sont pas utilisés par Bing Search. Cependant, NOCACHE est utilisé par Google Search et indique que Google ne doit pas afficher une version en cache d’une page dans les résultats de recherche.
Avant d’ajouter ces commandes à votre fichier robots.txt nous vous recommandons de bien réfléchir au fait de savoir si vous souhaitez ou non empêcher l’IA de lire votre contenu. En effet, la plupart des sites souhaiteront figurer dans les liens suggérés par Bing Chat, Bard ou SGE.