Bienvenue dans le coeur du plus célèbre moteur de recherche
Pour assurer une bonne visibilité à votre business et placer votre site en tête des résultats,
il est essentiel de savoir comment optimiser son contenu sur le web afin de plaire aux différents moteurs de recherche.
Il est plus que nécessaire de comprendre le fonctionnement de Google, qui se place comme le 1er moteur de recherche sur
Internet à travers le monde.
Impossible de mettre en avant votre travail et de booster la notoriété de votre enseigne
sans connaître parfaitement les rouages de ce géant du référencement naturel.
Les GoogleBot : Qu’est ce que le Crawl ?
Le GoogleBot est le nom anglais attribué au robot de Google. Il est chargé de passer en revue les millions de
pages web créées sur le net afin de comprendre leur contenu, leur structure et leur pertinence.
Il existe des milliers de GoogleBots tant le nombre de pages web à scanner sur la toile est immense.
Ces robots sont chargés de crawler (scanner) chaque contenu numérique, d’analyser et de trouver les liens présents sur chaque page afin d’en comprendre le fonctionnement.
Grâce à cet examen minutieux, les robots décident d’indexer ou non les pages des différents sites web en ligne,
en fonction de plusieurs critères.
Ainsi, l’indexation est absolument nécessaire pour que votre site internet apparaisse dans les résultats de recherche.
Elle permet à Google de stocker le contenu de votre site sur ses serveurs et de le rendre visible dans les pages de son moteur de recherche.
Il y a quelques années, le crawl des GoogleBots se faisait de manière mensuelle. Aujourd’hui, la cadence s’est nettement accélérée. Se sont maintenant des milliers de robots qui scrutent le web de manière continu et permanente pour détecter les nouveaux contenus mis en ligne.
Les robots servent également à la mise à jour des site web déjà existants. En effet, les sites contenant des pages non statiques, dont le contenu est mis à jour régulièrement, comme les sites d’actualité ou les blogs, sont régulièrement crawlés et réindexés par Google. Il arrive même qu’un site soit crawlé plusieurs fois par jour.
Indexation et classement de vos pages web
Faire indexer les pages de son site web et réussir ensuite à les positionner en première place dans les résultats
de recherche représente un travail et une analyse poussée. L’optimisation SEO d’un site doit répondre à de nombreux critères.
Les pages mises en ligne se construisent selon des aspects techniques précis afin de plaire en premier lieu à
l’audience visée, mais également aux GoogleBots en quête de contenus pertinents.
Un site internet doit donc répondre à de nombreux critères de pertinence s’il souhaite un bon positionnement et
générer du trafic de qualité. L’algorithme évoluant sans cesse, plusieurs études sont réalisées afin de déceler
la fameuse recette secrète du référencement naturel sur Google. Malgré des réponses et des avis partagés,
plusieurs critères de pertinence semblent convaincre les experts du référencement.
Les critères de pertinence
Pour être correctement classé dans les résultats de recherche, un site doit proposer des contenus singuliers et de qualité.
Il devra faire usage des bons mots-clés dans ses métadonnées et s’armer d’un protocole HTTPS pour protéger ses visiteurs. Aujourd’hui, Google accorde beaucoup d’importance aux sites web responsive, capables d’adapter leur affichage et leurs fonctionnalités à toutes les tailles d’écran, notamment ceux des smartphones.
Les critères de popularité
Mais la pertinence n’est pas le seul critère des GoogleBots ; désormais, les critères de popularité rentrent en ligne de
compte pour déterminer si un site web mérite de remonter dans les résultats de recherche.
Ainsi, l’autorité du nom de
domaine joue un rôle important dans le référencement naturel. Plus un nom de domaine est possédé longtemps par le même propriétaire, plus il est mis à jour grâce à de nouveaux contenus et plus il sera considéré comme une source fiable pour les internautes.
Il en est de même pour la pertinence des Backlinks. Les robots crawlent les pages à la recherche de liens entrants
qui mènent les utilisateurs jusqu’à votre site internet. Si ces liens sont pertinents - c’est-à-dire générés
par des sites d’autorité aux contenus de qualité - alors Google aura tendance à considérer que votre contenu
est, lui aussi, convainquant.
La mise à jour des algorithmes
Les algorithmes de Google décident si votre site web se positionne en première ou en dernière place des résultats de recherches.
Ces algorithmes sont mis régulièrement à jour depuis de nombreuses années. Impossible de tous les connaître et certains restent secrets.
En Avril 2015, la mise à jour « Mobile Friendly » privilégie les sites internet dont l’affichage est adapté aux smartphones et
tablettes.
En Mai 2015, l’algorithme « Quality » met l'accent sur la qualité des contenus, bien que son fonctionnement reste, à ce jour,
peu connu.
Plus tard en 2019, une mise à jour importante de l’algorithme nommée « June 19 Core Update » porte l’accent sur la vitesse
de chargement des pages internet, la fluidité de la navigation et le passage à l’HTTPS.
En Septembre 2019, une nouvelle mise à jour permet à Google d’augmenter le positionnement de nombreux sites internet qui
étaient jusque-là en retrait. Cette modification a permis à plusieurs sites moins bien rankés d’améliorer leur
positionnement dans les SERPs.
Enfin, la dernière mise à jour de l’algorithme connue se nomme « BERT ». Elle transforme les GoogleBots en
véritables intelligences artificielles et permet un travail considérable sur l’analyse des mots-clés.
Cette mise à jour met en lumière l’utilisation de la recherche vocale et tend à proposer des résultats
de recherche toujours plus adaptés aux requêtes des internautes.
Les résultats SEO dans votre navigateur
Une fois qu’un site est indexé et crawlé par l’algorithme, son contenu s’affiche dans les pages du moteur de recherche lorsqu’un internaute tape des mots-clés. On appelle « SERPs » l’ensemble des pages regroupant les résultats de recherche générés. Le Search Engine Results Page dispose de nombreuses fonctionnalités. Ainsi, Google s’adapte en permanence aux besoins des utilisateurs pour leur proposer des résultats de recherche cohérents avec les mots-clés qu’ils renseignent.
Les SERPs peuvent donc proposer aux internautes des résultats organiques. Il s’agit des résultats de recherche naturels.
Les sites dont le SEO est parfaitement travaillé peuvent remonter dans les premières pages du SERP sans aucune action payante.
C’est à ce moment là que l’usage de métadonnées pertinentes entre en jeu. Un site avec un méta-titre et une méta-description accrocheurs, pertinents et d’une longueur correcte pourra être mis en valeur naturellement.
Mais toujours soucieux de soumettre des réponses de plus en plus pertinentes aux internautes,
Google affichent également autre chose que des résultats organiques.
De nombreux outils permettent de mettre en avant les contenus dans les SERPs.
La publicité Adwords permet de créer des campagnes publicitaires payantes ciblées constituées d’annonces courtes et efficaces.
Le Knowlege Graph permet de proposer un résultat de recherche enrichie.
Ainsi, l’internaute n’a pas besoin de cliquer sur un lien pour trouver une réponse à sa requête.
La Recherche Universelle permet à Google d’insérer des images, des cartes ou des vidéos à ses résultats.
La position zéro, aussi appelée « Featured Snippet » positionne un site internet tout en haut de la page de recherche, avant même la première place dans les résultats. Très prisée dans le monde du SEO, la position zéro se présente comme un bloc contenant les éléments clés d’une page web répondant parfaitement à la requête de l’utilisateur.
Les SERPs se composent d’une dizaine de résultats de recherche. Chaque page est ainsi nommée SERP 1, SERP 2, SERP 3, etc.
Pour les propriétaires de sites internet, pour les annonceurs et les professionnels du SEO, le principal objectif est de réussir à se positionner en SERP 1 afin d’être visible par le plus grand nombre et de bénéficier d’un trafic accru.
Les Datacenters de Google
Il existe de nombreux serveurs permettant le traitement des données. On les appelle les Datacenters. Ces centres de regroupement des données sont des bâtiments où Google stocke et classe l’ensemble des pages indexées. Répondant à plusieurs critères techniques (contrôle de la température, protocole en cas d’incendie, haute surveillance et géolocalisation), ces salles hébergent et protègent les données des sites web à travers le monde.
Certaines grandes sociétés comme Facebook ou Amazon possèdent leur propre Datacenter, s’assurant ainsi la parfaite maintenance et sécurité des données de leurs utilisateurs tout en restant autonomes.
Les Datacenters sont principalement basés aux Etats-Unis, mais il en existe également en Asie et en Europe. Ils garantissent en continu le stockage, le traitement et la protection des données qu’ils renferment. La France est un des pays les mieux équipés d’Europe. Plus de la moitié des Datacenters sont situés en région parisienne.
Le développement et le fonctionnement de ces centres de stockages ont encore un impact écologique important, mais de nombreuses sociétés travaillent aujourd’hui sur des équipements plus responsables. Les « Green Datacenters » fonctionnent désormais avec des ressources plus écologiques comme les panneaux solaires ou le water cooling.
Google : Leader sur le marché du web
Pilier du GAFA (les 4 grands noms de l’industrie numérique) la firme américaine s’impose dans le monde et risque encore de profiter de sa place de leader pendant longtemps.
Générant un chiffre d’affaire de 162 milliards de dollars en 2019, le moteur de recherche se place en véritable géant de l’internet.
Possédant de nombreuses marques utilisées au quotidien, comme Youtube, Gmail ou Android, Google fait partie intégrante de la vie des usagers et se positionne comme le leader certain de l’industrie numérique.
En France, aucun moteur de recherche ne le concurrence et les chiffres sont sans appel. Google possède plus de 92% des parts du marché.
Et si rien ne semble menacer ce roi du référencement, de véritables questionnements apparaissent quant à sa place sur le marché des GAFA. En effet, l’avancée foudroyante de Facebook laisse à penser qu’un concurrent sérieux de Google pourrait voir le jour.