SEO Technique

par Publié le 12 Aug 2019 | Mis à jour le 28 Oct 2019SEO0 commentaires

seo-technique SEO Technique

Le SEO technique est sans doute le volet le plus sous-estimé du SEO.

Si votre SEO technique n’est pas correct, votre site web aura beaucoup de mal à se positionner même si son contenu et ses liens sont de qualité.

Cet actuel article s’appuie essentiellement sur les consignes faites aux webmaster par Google. Nous compléterons par la suite avec les consignes des autres moteurs de recherche.

Les meilleurs résultats se produisent lorsque vous traitez tous les points du référencement naturel de votre site web :

L’expression de SEO technique désigne généralement les actions d’optimisation du référencement naturel qui visent à s’assurer que tous les éléments techniques nécessaires sont mis en place de manière globale pour assurer la meilleure indexation et le meilleur positionnement possible d’un site web au sein des pages de résultats d’un moteur de recherche (également connue sous l’acronyme SERP).

Les objectifs du SEO technique sont de :

  • Mettre en place une arborescence du site web « SEO friendly »
  • Mettre à disposition un sitemap aux moteurs de recherche
  • Optimiser le budget d’exploration (crawl budget)
  • Améliorer la vitesse de temps de chargement des pages du site.
  • Se servir d’un fichier robots.txt
  • Gérer les contenus en double (contenus dupliqués)

Si votre site est difficilement explorable ou n’applique pas les bonnes pratiques SEO, votre site rencontrera des difficultés à se positionner sur ses mots-clés face à un marché de plus en plus concurrentiel.

Nous souhaitons expliquer pourquoi et comment le SEO technique est une pratique fondamentale si vous cherchez à générer des résultats organiques (référencement naturel).

Arborescence de site Web

arborescence-site SEO Technique

Qu’est-ce que l’arborescence de site Web ?

L’arborescence de site Web (ou architecture de site) est la façon dont les pages d’un site Web sont structurées et liées entre elles. Une arborescence de site Web idéale aide les utilisateurs et les robots d’indexation des moteurs de recherche à trouver facilement ce qu’ils recherchent sur un site Web.

Pourquoi l’arborescence de votre site est-elle importante ?

1. Une arborescence de site optimisée aide les robots d’indexation (spiders) des moteurs de recherche à explorer et à indexer toutes les pages de votre site Web.

Si votre site contient des pages qui se trouvent à plusieurs clics de votre page d’accueil (ou qui ne sont pas liées à une autre page du tout), le robot d’indexation de Google, appelé « Googlebot » aura du mal à trouver et à indexer ces pages.

2. Une bonne arborescence de site Web permet aux visiteurs de trouver facilement ce dont ils ont besoin sur votre site.


 

Les bonnes pratiques

1. Mettre en place une arborescence de site « flat »
Une arborescence « flat » (plat en français) signifie que les utilisateurs (et les robots d’indexation des moteurs de recherche) peuvent accéder à n’importe quelle page de votre site en maximum 4 clics.

2. Simplifier votre arborescence de site
En déterminant dès le départ les catégories de pages, cela favorisera une bonne expérience utilisateur.

3. Se servir des catégories de pages
Sans structure de catégories, les pages sont ajoutées de manière aléatoire ce qui entraîne une arborescence non flat.

4. Structurer vos URL
Il est important que toutes vos URL suivent la même structure.

5.Organiser les liens internes
L’arborescence de votre site est déterminée par les liens entre vos pages. Les liens doivent être en HTML.

6.Exploiter un sitemap
Un sitemap est un excellent moyen d’accroître la «crawlabilité» de votre site Web.

7. Favoriser la création des liens sitelinks
Ces liens sitelinks sont générés automatiquement par Google. Ils augmentent la navigabilité de votre site. Ceci est un avantage supplémentaire procuré par une arborescence correcte de votre site.

Sitemaps

sitemap-xml-plan SEO Technique

Qu’est-ce qu’un Sitemap ?

Un sitemap est un plan de votre site Web qui aide les moteurs de recherche à analyser et indexer tout le contenu du site. Les Sitemaps indiquent également aux moteurs de recherche les pages les plus importantes de votre site.

Nous allons nous intéresser à un format de sitemap conforme au protocole sitemap standard :

  • Sitemap XML : il s’agit de loin du format de sitemap le plus courant. Il s’agit d’un fichier XML qui indique l’emplacement des pages de votre site Web

et à ces extensions :

  • Sitemap pour vidéos : Il représente un excellent moyen de s’assurer que l’intégralité du contenu vidéo de votre site a été capturée par Google .
  • Sitemap pour images : il augmente la probabilité que les internautes trouvent vos images dans les résultats de recherche d’images.
  • Sitemap Google Actualités : il permet de mieux contrôler le contenu que vous envoyez à Google Actualités.

 

Pourquoi les sitemaps sont-ils importants ?

Les moteurs de recherche tels que Google, Yahoo et Bing lisent ce fichier pour explorer plus intelligemment votre site.

Selon Google, à propos des sitemaps :

« Si les pages de votre site sont correctement reliées entre elles, nos robots d’exploration peuvent généralement découvrir la majeure partie de votre site. »

Leur utilisation se révèle généralement utile en SEO dans les cas suivants où le site :

  • est très volumineux
  • compte de nombreuses pages non reliées entre elles
  • est récent et peu de liens externes permettant d’y accéder
  • utilise un contenu média interactif (Rich Media), figurant dans Google Actualités ou utilisant d’autres annotations compatibles avec les sitemaps

 

Les bonnes pratiques

1. Créer vos sitemaps
Si vous utiliser un CMS, il existe plusieurs plugins sur le marché. Par exemple, les plugins sitemaps pour une intégration WordPress.

2. Envoyer votre sitemap aux moteurs de recherche
Pour soumettre vos sitemaps, il faut préalablement ouvrir un compte administrateur sur les plateformes des principaux moteurs de recherche. Par exemple, vous pouvez consulter la page explicative de comment envoyer un sitemap à Google.

3. Utiliser le rapport sur les sitemaps pour repérer les erreurs
Ces rapports indiquent le nombre d’URL et les erreurs trouvées par les robots d’exploration. Consulter le Guide de dépannage des sitemaps.

4. Se servir du rapport de couverture de l’indexation
Ce rapport permet d’identifier les pages indexées, ainsi que les problèmes rencontrés lors de l’indexation de votre site. Comprendre le rapport.

5. Tester votre fichier robots.txt
L’outil de test du fichier robots.txt vous indique si votre fichier robots.txt empêche googlebot d’explorer des URL spécifiques sur votre site.

6. Ne pas dépasser un poids de 50 mo par sitemap
C’est la limite de poids pour un sitemap autorisée par Bing et Google.

7. Créer un sitemap en HTML
Même si ce n’est pas nécessaire pour les moteurs de recherche, cela peut aider les internautes à visualiser l’arborescence de votre site Web. De plus, un sitemap HTML diffuse le « link juice » à l’intérieur du site web.

Budget d’exploration

budget-crawl SEO Technique

Qu’est-ce que le budget d’exploration ?

Le budget d’exploration (ou budget crawl) correspond au nombre de pages explorées et indexées par Googlebot sur un site Web au cours d’une période donnée.

Pourquoi le budget d’exploration est-il important ?

Si le nombre de pages de votre site Web dépasse le budget d’exploration alors certaines pages de votre site ne seront pas indexées.
A noter que cela ne concerne que les sites disposant de plus d’un millier d’URL.

Extrait des explications du budget d’exploration pour Googlebot

« la multiplication d’URL à faible valeur ajoutée peut nuire à l’exploration et à l’indexation d’un site. »

Les URL à faible valeur ajoutée entrant dans ces catégories, par ordre d’importance :

  • Navigation à facettes et identifiants de session
  • Contenu dupliqué sur le site
  • Erreurs de type « soft 404 »
  • Pages hackées
  • Espaces infinis et proxys
  • Contenu de mauvaise qualité et spam

 

Les bonnes pratiques

1. Améliorer la vitesse du site
L’amélioration de la vitesse de page de votre site peut amener Googlebot à parcourir davantage d’URL de votre site. Pour ce faire, nous vous invitons à consulter la section « Pagespeed » plus bas.

2. Faire des liens internes de façon naturelle et logique
Les liens internes sont des hyperliens qui pointent vers des pages du même domaine. Ces liens sont différents des liens externes, qui renvoient à des pages sur d’autres domaines.

3. Optimiser l’arborescence du site
Informations décrites plus haut. S’assurer que les pages les plus profondes peuvent être atteintes en maximum 4 clics.

4. Repérer et traiter les pages orphelines
Il arrive souvent que des pages d’un site deviennent orphelines, c’est-à-dire qu’il n’existe plus aucun lien interne permettant d’y accéder, même si les pages elles-mêmes sont encore en place, consultables.

5. Utiliser la balise rel=canonical pour éviter le contenu dupliqué
Chaque URL mène à un contenu unique, et chaque contenu ne peut être accessible que par une seule URL.

6. Corriger les erreurs serveur
Dans un premier temps, tester la connectivité du serveur. Ensuite, nous vous proposons de suivre ces conseils pour corriger les erreurs de connectivité du serveur.

7. Tester votre page à l’aide de l’outil de test du fichier robots.txt
Si vous avez envoyé une page pour qu’elle soit indexée, mais elle qu’elle est bloquée par le fichier robots.txt, vous devez utiliser cet outil de test du robot.txt.

vitesse du site avec Google

pagespeed SEO Technique

Qu’est-ce que la vitesse du site ?

La vitesse du site est un signal dans les algorithmes de classement de recherche de Google. La vitesse d’un site Web reflète la rapidité avec laquelle un site Web répond aux demandes du Web.

Pourquoi la vitesse du site est-elle importante ?

La vitesse de la page est un facteur de référencement de Google depuis 2010. L’accélération des sites Web est importante – non seulement pour les propriétaires de site, mais pour tous les utilisateurs d’Internet. Des sites plus rapides créent des utilisateurs heureux et nous avons vu dans nos études internes que lorsqu’un site répond lentement, les visiteurs y passent moins de temps.
Et depuis 2018, Google a renforcé l’importance de la vitesse de la page avec la mise à jour «Speed Update» qui devient un critère de pertinence.
Un site Web avec une vitesse lente de chargement pénalise votre classement sur Google.

Actuellement le service PageSpeed Insight API est à sa version 5.


 

Les bonnes pratiques

1. Éviter les redirections de pages de destination (landing page)
Cette règle se déclenche lorsque PageSpeed Insights détecte que vous avez plus d’une redirection de l’url donnée vers la page de destination finale.

2. Activer la compression
Cette règle se déclenche lorsque PageSpeed Insights détecte que des ressources compressibles ont été lancées sans compression gzip.

3. Améliorer le temps de réponse du serveur
Cette règle se déclenche lorsque PageSpeed Insights détecte que le temps de réponse de votre serveur est supérieur à 200 ms.

4. Tirer parti de la mise en cache du navigateur
Cette règle se déclenche lorsque PageSpeed Insights détecte que la réponse de votre serveur n’inclut pas les en-têtes de mise en cache ou si les ressources sont spécifiées pour être mises en cache pendant une courte période.

5. Minimiser les ressources (HTML, CSS et JavaScript)
Cette règle se déclenche lorsque PageSpeed Insights détecte que la taille de l’une de vos ressources peut être réduite par minification.

6. Optimiser les images
Cette règle se déclenche lorsque PageSpeed Insights détecte que les images sur la page peuvent être optimisées pour réduire leur taille de fichier sans affecter significativement leur qualité visuelle.

7. Optimisation de la diffusion du CSS
Cette règle se déclenche lorsque PageSpeed Insights détecte qu’une page comprend des feuilles de style externes bloquant le rendu, ce qui retarde le premier rendu.

8. Donner la priorité au contenu visible
Cette règle se déclenche lorsque PageSpeed Insights détecte que des réseaux supplémentaires sont nécessaires pour rendre le contenu de la page.

9. Supprimer le rendu bloquant de JavaScript
Cette règle se déclenche lorsque PageSpeed Insights détecte que votre HTML fait référence à un fichier JavaScript externe bloquant dans la partie supérieure de votre page.

Robots.txt

robots-txt SEO Technique

Qu’est-ce que Robots.txt ?

Un fichier robots.txt indique aux robots d’exploration des moteurs de recherche les pages ou les fichiers qu’ils peuvent ou ne peuvent pas demander à votre site. Son objectif principal est d’éviter de surcharger votre site de requêtes.

Pourquoi le fichier robot.txt est-il important ?

Le robots.txt est un protocole d’exclusion des robots qui est généralement utilisé pour empêcher les moteurs de recherche de  » voir  » certaines pages de votre site Web – soit parce que vous ne voulez pas que votre serveur soit submergé par l’exploration, soit parce qu’il cherche des pages sans importance ou dupliquées sur votre site.

Si vous souhaitez rendre confidentielles vos pages, leurs contenus aux yeux des moteurs de recherche, le fichier robots.txt n’est pas la bonne solution car ces pages cachées sont facilement explorées en contournant les instructions robots.txt.

Il est important d’avoir ce fichier et de savoir bien l’utiliser. Même si votre site fonctionne quand même sans lui, il est généralement parcouru et indexé même en l’absence de ses instructions.

Le classement de votre site sera affecté dans le cas d’une mauvaise utilisation du robots.txt.


 

Les bonnes pratiques

1. Comprendre les limites du fichier robots.txt

  • Les directives robots.txt ne sont pas forcément compatibles avec tous les moteurs de recherche.
  • Les robots d’exploration peuvent interpréter la syntaxe de différentes façons
  • Une page bloquée par un robot peut tout de même être indexée si d’autres sites renvoient vers elle

2. Créer un fichier Robots.txt

  • robots.txt doit être un fichier texte encodé en UTF-8 (qui inclut ASCII). L’utilisation d’autres jeux de caractères n’est pas possible.
  • Un fichier robots.txt est constitué d’un ou plusieurs groupes.
  • Chaque groupe se compose de plusieurs règles ou directives (instructions), une directive par ligne.
  • Les règles ont une sensibilité à la casse.
  • Consulter les consignes de base relatives aux fichiers robots.txt par Google

3. Rendre votre fichier Robots.txt facile à trouver
Le plus recommandé est de le placer sur l’URL suivante : https://exemple.com/robots.txt.

4. Vérifier et tester le fichier
Il est important bien tester et valider le robots.txt car une erreur peut entraîner la désindexation de votre site en entier.

5. Utiliser les balises meta noindex
Dans le cas d’un objectif de non-indexation de certaines de vos pages.

Contenu en double

contenu-double SEO Technique

Qu’est-ce que le contenu dupliqué ?

Le contenu en double (ou contenu dupliqué) se présente sous forme de blocs de contenu importants, appartenant à un même domaine ou répartis sur plusieurs domaines et qui sont identiques ou sensiblement similaires.

Quel est l’impact du contenu en double sur le référencement ?

Dans certains cas cependant, le contenu est délibérément dupliqué entre les domaines afin de manipuler le classement du site par les moteurs de recherche ou d’augmenter le trafic. Ce type de pratique trompeuse peut avoir des effets négatifs sur la navigation de l’internaute qui voit quasiment le même contenu se répéter dans un ensemble de résultats de recherche.

Ce que dit Google sur le contenu en double :

« Nous nous efforçons d’indexer et d’afficher des pages contenant des informations distinctes. »

Plus précisément, voici les trois principaux problèmes rencontrés par les sites contenant beaucoup de doublons.

  • Moins de trafic organique
  • Pénalité
  • Moins de pages indexées

 

Les bonnes pratiques

1. Utiliser les redirections 301
La redirection permanente des anciennes URL vers les nouvelles en utilisant les redirections 301 (« RedirectPermanent ») dans votre fichier .htaccess pour rediriger efficacement les internautes.

2. Être cohérent
Votre système de liens internes doit être cohérent. Par exemple, ne pas faire de lien vers https://www.exemple.com/page/, https://www.exemple.com/page ni https://www.exemple.com/page/index.html.

3. Utiliser des domaines de premier niveau
Les domaines de premier niveau sont plus adaptés pour du contenu spécifique à un pays donné. Il est plus aisé de détecter que le site https://www.exemple.re, par exemple, présente du contenu destiné à la Réunion, que https://www.exemple.com/re ou https://re.exemple.com.

4. Être prudent en diffusant votre contenu
Il est utile de s’assurer que chaque site sur lequel votre contenu est diffusé inclut un lien renvoyant vers votre article original. Il est recommandé de demander à ceux qui utilisent votre contenu diffusé d’utiliser la balise Meta noindex pour empêcher les moteurs de recherche d’indexer leur version du contenu.

5. Limiter les répétitions
L’outil de gestion des paramètres permet de définir la manière dont Google doit traiter les paramètres d’URL Voir quand et comment utiliser l’outil Paramètres d’URL.

6. Éviter la publication de pages incomplètes
Cela concerne les pages pour lesquelles vous ne disposez pas encore de contenu réel. Utilisez la balise Meta noindex pour bloquer leur indexation.

7. Apprendre à maîtriser votre système de gestion de contenu

Cela implique de maîtriser l’affichage du contenu sur votre site Web.

8. Limiter les contenus similaires
Il est recommandé de regrouper les pages similaires de votre site pour n’en faire qu’une.