Le monde du référencement tremble à chaque modification des algorithmes de Google. Régulièrement mis à jour à travers des updates, il ne faut pas se fier à la douceur du nom de ces algorithmes, car leur impact peut être véritablement dévastateur sur un site Internet.
Il faut savoir que l’algorithme de
classement défini par Google, n’est pas constitué d’un seul mais bel et bien de plusieurs algorithmes travaillant simultanément ensemble, à travers des filtres très contrôlés.
L’algorithme du Core Update
Les différentes mises à jour de Google ont surtout pour vocation à améliorer la pertinence de recherche pour les différents internautes. L’objectif est de pénaliser les sites Internet de mauvaise qualité ou possédant des backlinks artificiels.
Dans cette optique, Google a déployé différents algorithmes faisant parti du Core Update que l’on peut retrouver dans un premier temps sous le nom de Fred qui est sorti officiellement le 8 mars 2017. Bien qu’annoncé deux semaines après sa sortie, il a surtout pour objectif de pénaliser les sites Internet abusant des backlinks artificiels. Mais ce n’est pas sa seule fonction, il répertorie les sites qui ont surtout pour vocation d’avoir une monétisation abusive, avec un contenu de mauvaise qualité accompagné de très nombreuses publicités.
L’algorithme s’est renforcé le 1er août 2018 avec la mise à jour Medic, permettant de mieux juger l’expertise, l’autorité et la confiance d’un site Internet.
D’autres mises à jour moins conséquentes du Core Update se sont succédées, la dernière en date du janvier 2020, visant toujours à éliminer les sites de mauvaise qualité. Si Google poursuit le déploiement et le renforcement de ces algorithmes, c’est pour lutter contre le spam fortement présent dans le milieu du référencement, pour apporter une réponse qualitative à chaque requête.
L’algorithme Panda
Sorti officiellement en 2011, Panda a connu sa dernière mise à jour officielle en janvier 2016. Néanmoins, Google ne communique pas systématiquement sur les mises à jour de son algorithme. Des centaines de changements sont opérées chaque jour, ayant un impact
plus ou moins important sur les sites Internet.
Le cœur de l’algorithme Panda vise avant tout à dégrader les sites Internet dont la qualité des pages n’est pas au rendez-vous. Capable d’évaluer le comportement des internautes, l’algorithme détecte automatiquement des rubriques de faible qualité et des contenus parfois masqués pour les internautes sous la forme du Cloaking.
Au-delà des différents paramètres pris en compte sur le site en lui-même, Panda analyse également
les backlinks que le site Internet reçoit, afin de déterminer la valeur globale des liens reçus.
Si ce rapport est trop déficitaire et que certaines techniques abusives de spam ont pu être détectées, la page référencée sur Google peut alors être désindexée voire même l’intégralité du site Internet.