Les principaux critères pour un bon référencement Google

être bien positionné sur Google

Google étant le moteur de recherche le plus utilisé par les internautes à travers le monde, il est important pour le référencement de votre site de savoir sur quoi se basent ses algorithmes pour positionner votre site internet sur des requêtes déterminées.

Vous voilà propriétaire d’un nom de domaine sur lequel vous allez créer le site de votre entreprise. Votre ambition ? Attirer de nouveaux clients et développer votre business en ligne. Cela tombe bien, c’est exactement l’objectif du référencement Google : placer les pages de votre site en première page des résultats, afin d’augmenter les clics, le trafic, et donc les ventes.

Avant de commencer la conception de vos pages, allons donc découvrir les pratiques préconisées et les critères pour un bon référencement Google.


Qu’est-ce que le référencement Google ?

Un site internet bien référencé sur Google apparaît en première page des résultats sur le moteur de recherche, lorsque les internautes cherchent des mots-clés en rapport avec ce qu’il propose. La conséquence d’une bonne place sur Google ? Plus de trafic, une notoriété accrue, et donc plus de ventes.
Il existe plusieurs manières, cumulatives, de travailler son référencement web sur Google :

  • posséder un site web, sur lequel on travaille le SEO (Search Engine Optimization)
  • utiliser les services aux entreprises comme Google My Business, qui positionne sur Google Maps, pour son référencement local
  • diffuser des contenus numériques sur des plateformes ciblées (Google Actualités, Google Podcasts ou encore Google Livres, mais aussi Youtube ou Google Vidéos pour les médias vidéo), pour y trouver une audience déjà intéressée
  • payer des campagnes publicitaires (Google Adwords), pour récupérer du trafic payant via des liens sponsorisés

Comment fonctionne le référencement d’un site web sur Google ?

Pour se donner les meilleures chances d’être visible sur Google grâce à son site internet, il faut d’abord s’intéresser au SEO on site, c’est-à-dire à toutes les optimisations possibles réalisables sur le site et dans son environnement proche. L’objectif : positionner les pages web sur les mots-clés les plus rentables pour l’entreprise.
Pour en connaître les points majeurs, la source la plus fiable reste la documentation Google elle-même, qui conseille aux débutants 6 optimisations fondamentales :

  • être descriptif et précis
  • être exhaustif
  • mettre à jour régulièrement son contenu
  • privilégier les textes et la technologie HTML
  • être mentionné par d’autres sites (backlinks)

On distingue tout de suite les 3 critères principaux d’un bon référencement : le contenu, la technique, la popularité. Nous allons les préciser dans la suite de l’article.

Que se passe-t-il pour les sites qui ne respectent pas ces critères ?

Bien entendu, la première conséquence pour un site web qui ne suit pas les règles préconisées par Google est d’être invisible dans les résultats de recherche. Et sans affichage, pas de trafic ; sans trafic, pas de ventes.
Attention cependant, certaines négligences peuvent être pénalisantes pour le référencement comme :

  • ignorer la compatibilité avec les mobiles, devenue incontournable avec la généralisation de GoogleBot-Mobile
  • offrir des performances mauvaises pour l’affichage (temps de chargement, poids des images, nombreux médias hors textes)

Mais certains sites vont plus loin que la simple ignorance, et cherchent à détourner ou jouer avec les limites de tolérance de Google sur ses propres principes :

  • contenu dupliqué ou « spinné », pour augmenter rapidement la sémantique d’un site
  • achat massif de liens pour construire une popularité factice…

C’est ce qu’on appelle communément le Negative SEO (ou Black SEO). Et si certains tests ont fait leur preuve, et montré que Google reste encore très largement permissif, il inflige parfois, de manière automatique ou manuelle, des pénalités qui peuvent aller jusqu’au désaveu et à la suppression pure et simple du site.
Les pénalités les plus connues concernent les liens achetés ou trompeurs (Pingouin) et les contenus (Panda), mais de nombreuses pratiques détournées subissent des sanctions : cloacking, piratage et spam, bourrage de mots-clés…

Comment savoir si un site est bien référencé ?

Pour savoir si un site est bien référencé sans en être le propriétaire, il est possible de taper dans Google les commandes suivantes :

  • (1) site:nomdedomaine
  • (2) inurl:urlexacte

Ces manipulations vous permettent de voir combien de pages Google affiche pour le nom de domaine donné (1), ou si la page unique recherchée est détectée (2). La fiabilité de ces recherches n’est pas de 100 %.
Il est bien sûr plus facile de suivre le référencement d’un site dont on est propriétaire. Il faut alors s’inscrire gratuitement à la Google Search Console, y ajouter la propriété de son site. Cet outil permet de :

  • soumettre un site à l’inspection des robots en transmettant un fichier sitemap.xml,
  • déclarer les différentes pages qui y sont hébergées,
  • consulter l’état du site,
  • y mesurer ses performances en termes de trafic et qualité, grâce à diverses statistiques comme le nombre d’impressions, de clics ou la position moyenne des différentes pages d’un site.

Si votre Google Search Console ne vous transmet encore aucune donnée sur votre site, cela peut s’expliquer par le fait que votre site :

  • n’est pas suffisamment mentionné par d’autres sites
  • est trop neuf, donc pas encore détecté
  • conçu avec des technologies autres que HTML
  • déclaré comme non explorable (avec l’utilisation d’une balise Noindex ou en interdisant l’accès aux robots via le robots.txt)

De l’exploration au classement : les critères d’un bon référencement Google

Lorsqu’un site internet est publié et déclaré à la Google Search Console, certains robots Google, les crawlers, sont invités à venir parcourir les différentes pages. Cette exploration est la première étape de la vie du site sur Google. Les algorithmes, qui recueillent et trient ensuite les données collectées par les robots, favorisent l’indexation de certaines pages et en pénalisent d’autres. De nombreux critères entrent en jeu dans l’indexation des contenus web, nous allons y revenir plus en détail.
La somme de toutes les optimisations réalisées sur le site et dans son environnement contribue à augmenter naturellement sa visibilité, donc son trafic et sa notoriété. Cela a pour conséquence :

  • une élévation progressive de l’Autorité de Domaine
  • une amélioration de certaines métriques comme le Trust Flow et le Citation Flow

Faciliter l’exploration des pages par les robots

La première marche pour atteindre un bon référencement naturel : mettre tout en œuvre sur le plan technique et stratégique, pour que les robots puissent crawler facilement chaque page et, avec, l’ensemble du site. C’est le Googlebot version mobile qui est le programme principal chargé de l’exploration.
Son objectif : trouver les pages. Il s’agit donc de lui faciliter le chemin et de lui faire économiser du budget de crawl, avec :

  • des chemins d’url simplifiés
  • un maillage interne performant à partir de la page d’accueil
  • le moins de pages profondes possible
  • des redirections pour éviter les erreurs 404
  • l’envoi d’un sitemap.xml complet, référençant toutes les pages explorables du site
  • l’utilisation de balises particulières, comme la balise hreflang pour désigner des pages traduites et, si l’on cible un référencement international, la balise canonical pour désigner une page de référence, par opposition aux pages dupliquées créées à partir d’elle, ou encore la balise Noindex si l’on ne veut pas indexer la page
  • un chargement rapide (vérifiable avec des outils comme Signaux Web Essentiels sur la Google Search Console, ou Page Speed Insights), amélioré si possible par le format AMP
  • un affichage adapté à tous les navigateurs et tous les supports, en particulier le mobile
  • une navigation sécurisée (avec un certificat SSL à jour et un en-tête HTTPS)

Comment et pourquoi bloquer l’exploration ?

Certaines urls ne doivent pas se retrouver sur Google, comme les pages de login, les pages Panier, ou encore tout espace sécurisé qui utilise des données sensibles. Il peut arriver aussi qu’on souhaite garder une page sur son site sans la diffuser. Pour cela, vous pouvez utiliser le fichier robots.txt en interdisant l’accès à des utilisateurs anonymes, c’est-à-dire en refusant l’exploration.
Cette méthode n’est cependant pas infaillible ! En effet, si une page du site envoie un lien vers la page que l’on souhaite bloquer des robots, on ne pourra pas empêcher son indexation. Utiliser le robots.txt reste cependant une bonne pratique pour baliser le chemin de visite, et donc améliorer les performances du site internet.
La meilleure solution pour bloquer l’exploration d’une page reste l’application de la balise Noindex.

Être compris pour être indexé sur Google

La deuxième marche avant le fameux classement des sites sur les pages de résultats Google est l’indexation des pages. En effet, une fois explorée, chaque page est, ou non, indexée. Pour que l’indexation soit optimale, il est essentiel de s’appliquer à respecter un certain nombre de critères sur chaque page, afin que Google comprenne de quoi elle parle et à qui elle s’adresse, c’est-à-dire à quelle(s) requête(s) elle répond.
Lorsque la compréhension est bonne, la page se positionne alors de mieux en mieux sur les mots-clés. C’est là que Google tient compte du comportement des internautes sur le site :

  • départ trop précipité
  • durée de visite raccourcie
  • peu de pages visitées

Ces indicateurs l’alertent sur la qualité de la page. Plus les chiffres sont mauvais, plus Google déclasse le site. Au contraire, plus les internautes envoient des signaux de satisfaction, plus le moteur de recherche fait remonter la page dans les résultats.

Quelles optimisations sont préconisées pour une bonne indexation ?

Pour favoriser la compréhension du contenu, Google préconise de :

  • construire des URLS simples, sans symboles ni accentuation
  • donner des titres courts, descriptifs et pertinents, en rapport avec le contenu proposé
  • privilégier les textes, qu’il comprend mieux que les autres médias
  • fournir une sémantique connexe autour des images et vidéos, à l’aide du text alt, de la légende et de la description
  • renseigner des métadonnées uniques pour chaque page (metatitle, metadescription)
  • rédiger des contenus de qualité et uniques, à jour et utiles, orientés utilisateurs
  • mettre en place les données structurées, c’est-à-dire des balises spécifiques qui différencient les contenus par nature.

Voici quelques exemples de données structurées, qui font remonter certains de vos contenus en première page, et même, sur certaines pages de résultats, en première position :

  • avis de critiques
  • événement
  • FAQ
  • activités à domicile
  • how to (didacticiel)
  • offre d’emploi
  • établissement local
  • podcast
  • produit
  • Questions & Answers (forum)
  • recette
  • vidéo

Contrôler l’exploration et l’indexation

Une fois le sitemap.xml envoyé aux services de Google, le propriétaire du site se connecte à la Google Search Console pour :

  • obtenir des informations sur les derniers passages de Googlebot Mobile
  • inspecter l’URL de son choix et obtenir un rapport couverture de l’index, c’est-à-dire savoir si Google a décidé d’indexer ou non la page
  • utiliser l’outil de test d’optimisation mobile pour voir si la page est correctement lue des robots et ne présente pas de défauts majeurs qui pourraient empêcher l’indexation

Ces manipulations permettent de vérifier que le travail d’indexation est en cours ou réalisé, et que Google comprend bien le site.

Principal critère de référencement Google : l’utilisateur

En résumé, Google incite les créateurs et propriétaires de site internet à suivre certaines pratiques, en contrepartie desquelles il permet aux sites d’apparaître dans les résultats, si possible en première position.
L’analyse de tous les critères favorisant l’exploration et l’indexation montre déjà à quel point Google s’intéresse à l’utilisateur. Cela se confirme lorsqu’il diffuse et classe les sites : pour décider du référencement d’une page sur une requête, Google tient en effet compte de critères liés à l’internaute, comme :

  • sa zone géographique de connexion
  • sa langue de navigation
  • l’appareil qu’il utilise
  • les recherches déjà effectuées
  • tout un tas de données collectées lors de ses précédentes navigations

En bref : chaque page de résultats (SERP) est personnalisée en fonction du profil de l’utilisateur qui émet une requête, et Google sélectionne les sites qui correspondent le mieux à ces critères. Pour parvenir à un bon référencement, la meilleure stratégie est donc de construire un site pour une cible qui existe et qui sera au rendez-vous, si le site est agréable et intéressant.

Création de site internet & Référencement Google

Menu