14 juin 2024

Google Leaks : tout comprendre sur les révélations

L'algorithme de Google a toujours été un mystère pour tous les experts en SEO. Toutefois, une récente fuite de milliers de documents internes révèle enfin certains des mécanismes et critères utilisés par le géant du web pour classer les contenus. Cet article explore les principaux éléments découverts et ce qu'ils signifient pour l'avenir du référencement. Nous en profiterons pour vous donner notre avis d'experts SEO.

Le comportement des internautes influe le classement

Les documents indiquent que Google accorde une grande importance aux clics et aux comportements post-clic des utilisateurs. Le système NavBoost utilise ces données pour influencer directement le classement des pages dans les SERP (pages de résultats des moteurs de recherche).

  • NavBoost collecte des données de navigation via la barre d'outils PageRank et le navigateur Chrome. Depuis l'abandon du PageRank, c'est donc Chrome qui collecte l'ensemble des données.
  • Le nombre de clics et la durée de ceux-ci sont comparés pour évaluer l'engagement des utilisateurs.
  • Les comportements tels que la recherche secondaire après une recherche initiale peuvent améliorer le classement des sites liés.

Google semble prêter une attention particulière à l'intention derrière chaque recherche effectuée par l'utilisateur. Divers types de contenu (images, vidéos) peuvent être priorisés en fonction de cette intention.

🔍 Notre avis : La plupart des consultants et agences SEO savaient déjà que Google collectait des données via le navigateur Chrome. Notamment pour faciliter la découverte de nouvelles pages et donc l'indexation plus rapide de contenu. Dernièrement, plusieurs référenceurs avaient réussi à prouver qu'améliorer son CTR avait des effets sur le positionnement.

A lire également sur notre blog : suivre les mouvements dans les serps de Google.

Puissance du Netlinking : ce qu'il faut savoir

Concernant le netlinking, Google a toujours eu une double communication. Pour lui, cela n'a pas d'importance, et pourtant il se révèle toujours efficace pour positionner des sites.

Les backlinks toxiques ignorés mais non sans conséquence

Contrairement aux déclarations précédentes de Google, les backlinks toxiques auraient toujours une certaine influence. Bien que Google indique ignorer ces liens nuisibles, leur présence est notée et pourrait potentiellement affecter les classements.

Pages protégées par Penguin

Une autre découverte intéressante est la protection de certaines pages grâce à leur historique de profil de liens. Selon Mike King, cette fonctionnalité combinée aux signaux de vitesse des liens explique pourquoi les attaques avec des liens peuvent sembler inefficaces.

Les liens sont classés en 3 groupes de qualité

Google attribue une note de qualité aux liens, les classant en trois catégories : basse, moyenne et élevée.

  • Les liens de basse qualité sont ignorés par le moteur de recherche.
  • Les liens de qualité moyenne ont un impact modéré sur le classement des pages.
  • Les liens de haute qualité ont un impact important sur le classement des pages.

Malheureusement, le document ne fournit pas d'informations détaillées sur les critères précis utilisés par Google pour classer les liens dans ces catégories.

En revanche dans le document, on constate que la taille de la police du lien aurait son importance (probablement pour évaluer s'il est cliquable et donc à destination des internautes) mais également la date de création du lien. Pour ce dernier point, il est difficile de savoir si c'est la fraîcheur ou l'antérioté qui compte.

🔍 Notre avis : Concernant le netlinking, nous n'avons jamais eu de doute sur son efficacité à condition que la stratégie de netlinking soit bien faite. Les liens toxiques peuvent dégrader la note d'un site puisque Google propose un outil de désaveu des liens. Mais est-ce que toxique pour lui ne veut pas dire artificiel ? (Contrairement à ce que SEMrush considère comme toxique).

Qualité du contenu : comment Google juge les sites ?

Score d'effort pour le contenu généré par IA

Google évalue apparemment l'effort nécessaire pour créer du contenu généré par intelligence artificielle (IA). Cette évaluation peut jouer un rôle crucial dans la manière dont le contenu est classé. Il semble donc bien vouloir identifier les contenus générés par IA. Est-ce pour déclasser les sites ?

A lire également : comment utiliser ChatGPT pour optimiser votre référencement naturel.

Score de copie pour les blogs

Pour les blogs, Google utilise un module appelé BlogPerDocData qui mesure la duplication et évalue la qualité perçue du contenu. Ce score est lié au module docQualityScore, bien que ses implications exactes ne soient pas entièrement claires.

🔍 Notre avis : Rien de bien nouveau ici. On se doutait que produire du contenu par IA pourrait être préjudiciable pour un site sans un minimum d'humain derrière. L'outil BlogPerDocData cherche simplement à évaluer le contenu dupliqué pour classer les articles de blog entre eux.

L'intention commerciale est prise en compte

L'intention de recherche joue un rôle crucial dans le classement des pages web par Google. Le moteur de recherche analyse le contenu des pages pour déterminer leur pertinence par rapport à l'intention de l'internaute derrière sa requête. Un élément clé de cette analyse est le commercialScore, qui indique si une page a un objectif commercial ou non.

🔍 Notre avis : Pour optimiser le classement de votre page, il est donc essentiel de bien comprendre l'intention de recherche des utilisateurs qui ciblent votre contenu. Vous devez créer du contenu qui répond précisément à leurs besoins et à leurs questions, en utilisant les mots-clés pertinents et en adoptant une structure claire et informative.

Conclusion : quelles implications pour le SEO ?

Les révélations issues de cette fuite offrent un aperçu précieux des pratiques et critères spécifiques de Google dans l'évaluation et le classement des contenus en ligne. Il est clair que la qualité du contenu, son originalité, et l’interaction des utilisateurs jouent des rôles cruciaux. Pour rester compétitifs, les créateurs de contenus et les experts SEO doivent prêter attention à ces éléments tout en restant vigilants face aux évolutions futures de l'algorithme de Google.

Vous avez besoin d'améliorer votre référencement naturel ? N'hésitez pas à faire appel à notre agence seo de Montpellier ou bien notre agence seo de Nîmes.

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram