SEO Technique

par Publié le 12 Aug 2019 | Mis à jour le 10 Sep 2019SEO0 commentaires

seo-technique SEO Technique

Le SEO technique est sans doute le volet le plus sous-estimé du SEO.

Si votre SEO technique n’est pas correct, votre site web aura beaucoup de mal à se positionner même si son contenu et ses liens sont de qualité.

Les meilleurs résultats se produisent lorsque vous traitez tous les points du référencement naturel de votre site web :

Dans le cadre d’une stratégie SEO, il est recommandé de travailler en priorité le SEO technique avant d’obtenir des backlinks.

Les objectifs du SEO technique sont :

  • Réaliser une arborescence de site web SEO friendly
  • Construire un sitemap et le mettre à la disposition des moteurs de recherche
  • Optimiser votre budget d’exploration
  • Réduire le temps de chargement des pages du site.
  • Créer un fichier robots.txt
  • Gérer les contenus dupliqués (contenus en double)

Ces six points illustrent les raisons d’aborder le SEO technique avant la création de liens.

Si votre site est difficilement explorable ou n’applique pas les bonnes pratiques SEO, vous pouvez souffrir de mauvaises performances du site.

L’article suivant explique pourquoi et comment vous devriez travailler le SEO technique avant de commencer une campagne de netlinking.

Arborescence de site Web

arborescence-site SEO Technique

Qu’est-ce que l’arborescence de site Web ?

L’arborescence de site Web (ou architecture de site) est la façon dont les pages d’un site Web sont structurées et liées entre elles. Une arborescence de site Web idéale aide les utilisateurs et les robots d’indexation des moteurs de recherche à trouver facilement ce qu’ils recherchent sur un site Web.

Pourquoi l’arborescence de votre site est-elle importante ?

1. Une arborescence de site optimisée aide les spiders des moteurs de recherche à explorer et à indexer toutes les pages de votre site Web.

Si votre site contient des pages qui se trouvent à plusieurs clics de votre page d’accueil (ou qui ne sont pas liées à une autre page du tout), Googlebot aura du mal à trouver et à indexer ces pages.

2. L’arborescence du site diffuse l’autorité de lien autour de votre site Web.

Lorsque vous créez un lien interne vers une page du site, le jus de lien est transmis à cette page. Ce qui aide à améliorer leur classement dans Google.

3. Une bonne arborescence de site Web permet aux visiteurs de trouver facilement ce dont ils ont besoin sur votre site.

Une meilleure expérience utilisateur (UX) améliore plusieurs indicateurs clés qui impactent positivement le référencement naturel.


Les bonnes pratiques

1. Utiliser une arborescence de site flat
Une arborescence « flat » signifie que les utilisateurs (et les robots d’indexation des moteurs de recherche) peuvent accéder à n’importe quelle page de votre site en maximum 4 clics.

2. Simplifier votre arborescence de site
En déterminant dès le départ les catégories de pages, cela favorisera une bonne expérience utilisateur.

3. Utiliser les catégories de pages
Sans structure de catégories, les pages sont ajoutées de manière aléatoire ce qui entraîne une arborescence non flat.

4. Structurer vos URL
Il est important que toutes vos URL suivent la même structure.

5. Utiliser des liens internes
L’arborescence de votre site est déterminée par les liens entre vos pages. Les liens doivent être en HTML.

6. Utiliser un sitemap
Un sitemap est un excellent moyen d’accroître la «crawlabilité» de votre site Web.

7. Favoriser la création des liens sitelinks
Les liens sitelinks générés automatiquement par Google et augmentent la navigabilité de votre site. Ceci est un avantage supplémentaire procuré par une arborescence correcte de votre site.

Sitemaps

sitemap-xml-plan SEO Technique

Qu’est-ce qu’un Sitemap ?

Un sitemap est un plan de votre site Web qui aide les moteurs de recherche à rechercher, analyser et indexer tout le contenu de votre site Web. Les Sitemaps indiquent également aux moteurs de recherche les pages les plus importantes de votre site.

Nous allons nous intéresser à un format de sitemap conforme au protocole sitemap standard :

  • Sitemap XML : il s’agit de loin du format de sitemap le plus courant. Il s’agit d’un fichier XML qui indique l’emplacement des pages de votre site Web

et à ces extensions :

  • Sitemap pour vidéos : Il représente un excellent moyen de s’assurer que l’intégralité du contenu vidéo de votre site a été capturée par Google .
  • Sitemap pour images : il augmente la probabilité que les internautes trouvent vos images dans les résultats de recherche d’images.
  • Sitemap Google Actualités : il permet de mieux contrôler le contenu que vous envoyez à Google Actualités.

Pourquoi les sitemaps sont-ils importants ?

Les moteurs de recherche tels que Google, Yahoo et Bing lisent ce fichier pour explorer plus intelligemment votre site.

Comme l’explique Google :

« Si les pages de votre site sont correctement reliées entre elles, nos robots d’exploration peuvent généralement découvrir la majeure partie de votre site »

Votre site n’a pas forcément besoin de sitemaps, toutefois, leur utilisation se révèle généralement utile en SEO dans les cas suivants :

  • site très volumineux
  • site comprenant de nombreuses pages non reliées entre elles
  • site récent et peu de liens externes permettant d’y accéder
  • site utilisant un contenu rich media, figurant dans Google Actualités ou utilisant d’autres annotations compatibles avec les sitemaps

Les bonnes pratiques

1. Créer vos sitemaps
Si vous utiliser WordPress ou un autre CMS, il existe des plugins free et premium.

2. Envoyez votre sitemap aux moteurs de recherche
Pour soumettre vos sitemaps, il faut préalablement ouvrir un compte administrateur sur les plateformes des principaux moteurs de recherche.

3. Utiliser les rapports Sitemap pour repérer les erreurs
Ces rapports indiquent le nombre d’URL et les erreurs trouvées par les robots d’exploration.

4. Utilisez les sitemaps pour rechercher les problèmes d’indexation
Ces informations sont utiles pour évaluer la quantité de contenu dupliqué et le budget Crawl.

5. Faire correspondre les sitemaps avec le fichier robots.txt
Il est important d’autoriser les accès lecture de vos URL aux moteurs de recherche.

6. Ne pas dépasser un poids de 50 mo par sitemap
C’est la limite de poids pour un sitemap autorisée par Google et Bing.

7. Créer un sitemap en HTML
Même si ce n’est pas nécessaire pour les moteurs de recherche, cela peut aider les internautes à visualiser l’arborescence de votre site Web.

Budget d’exploration

budget-crawl SEO Technique

Qu’est-ce que le budget d’exploration ?

Le budget d’exploration (ou budget crawl) correspond au nombre de pages explorées et indexées par Googlebot sur un site Web au cours d’une période donnée.

Pourquoi le budget d’exploration est-il important ?

En résumé : si Google n’indexe pas une page, il ne sera jamais classé.
Ainsi, si le nombre de pages de votre site Web dépasse le budget d’exploration alors certaines pages de votre site ne seront pas indexées.
Si le site dispose de moins de quelques milliers d’URL, il sera exploré correctement la plupart du temps.

Ce que dit Google :

« la multiplication d’URL à faible valeur ajoutée peut nuire à l’exploration et à l’indexation d’un site. »

Les URL à faible valeur ajoutée entrant dans ces catégories, par ordre d’importance :

  • Navigation à facettes et identifiants de session
  • Contenu dupliqué sur le site
  • Pages d’erreurs « soft 404 »
  • Pages hackées
  • Espaces infinis et proxys
  • Contenu de mauvaise qualité et spam

Les bonnes pratiques

1. Limiter le nombre d’erreurs serveur
Il est important de prêter attention aux rapports d’erreurs d’exploration de Google Bot et de les corriger.

2. Supprimer les chaînes de redirection longues
Une chaîne de redirection se produit lorsqu’une page de votre site redirige vers une page déjà redirigée.

3. Placer les informations relatives aux utilisateurs dans un cookie
En plaçant ces informations dans un cookie et en les redirigeant vers une URL « propre », vous conservez les informations et réduisez le nombre d’URLs pointant vers ce même contenu.

4. Supprimer les espaces infinis de vos URL
Ces espaces infinis sont généralement observés sur des calendriers et tout ce qui implique la pagination.

5. Utiliser les actions d’interdiction d’exploration dans votre robot.txt
Cela permet aux robots d’exploration de passer plus de temps à explorer le contenu qu’ils peuvent réellement utiliser.

6. Utiliser la balise rel=canonical pour éviter le contenu dupliqué
Chaque URL mène à un contenu unique, et chaque contenu ne peut être accessible que par une seule URL.

PageSpeed et SEO

pagespeed SEO Technique

Qu’est-ce que le PageSpeed ?

Le Page Speed indique le temps de chargement d’une page web.
La vitesse de chargement d’une page est déterminée par plusieurs facteurs, notamment le serveur, la taille de fichier et la compression d’image d’un site.

Il existe plusieurs façons différentes de mesurer la vitesse de la page, ci-dessous les trois principales :

  • Page entièrement chargée : indique le temps nécessaire au chargement de 100% des ressources d’une page. C’est le moyen le plus simple de déterminer la vitesse de chargement d’une page.
  • Time to First Byte (TTFB) : mesure le temps nécessaire pour qu’une page démarre le processus de chargement.
  • First Meaningful Paint : indique le temps nécessaire pour que le contenu principal d’une page s’affiche à l’écran.

Pourquoi le Page Speed est-il important ?

Google utilise la vitesse de la page comme facteur de classement depuis 2010 .
Et depuis 2018, Google a renforcé l’importance de la vitesse de la page avec la mise à jour «Speed Update» qui devient un critère de pertinence mobile.
Un site Web avec une vitesse lente de chargement pénalise votre classement sur Google.
La question est de savoir comment Google détermine la vitesse de chargement de votre site.
Est-ce qu’ils regardent combien de temps il faut pour charger 100% de la page ?
Ou TTFB ?
Il n’y a aucune déclaration officielle à ce sujet.

Mais étant donné que Google signale toutes ces mesures dans leur outil PageSpeed ​​Insights on peut supposer qu’une combinaison de ces mesures soit utilisée pour évaluer la vitesse de la page.


Les bonnes pratiques

1. Éviter les redirections de pages de destination (landing page)
Cette règle se déclenche lorsque PageSpeed Insights détecte que vous avez plus d’une redirection de l’url donnée vers la page de destination finale.

2. Activer la compression
Cette règle se déclenche lorsque PageSpeed Insights détecte que des ressources compressibles ont été lancées sans compression gzip.

3. Améliorer le temps de réponse du serveur
Cette règle se déclenche lorsque PageSpeed Insights détecte que le temps de réponse de votre serveur est supérieur à 200 ms.

4. Tirer parti de la mise en cache du navigateur
Cette règle se déclenche lorsque PageSpeed Insights détecte que la réponse de votre serveur n’inclut pas les en-têtes de mise en cache ou si les ressources sont spécifiées pour être mises en cache pendant une courte période.

5. Minimiser les ressources (HTML, CSS et JavaScript)
Cette règle se déclenche lorsque PageSpeed Insights détecte que la taille de l’une de vos ressources peut être réduite par minification.

6. Optimiser les images
Cette règle se déclenche lorsque PageSpeed Insights détecte que les images sur la page peuvent être optimisées pour réduire leur taille de fichier sans affecter significativement leur qualité visuelle.

7. Optimisation de la diffusion du CSS
Cette règle se déclenche lorsque PageSpeed Insights détecte qu’une page comprend des feuilles de style externes bloquant le rendu, ce qui retarde le premier rendu.

8. Donner la priorité au contenu visible
Cette règle se déclenche lorsque PageSpeed Insights détecte que des réseaux supplémentaires sont nécessaires pour rendre le contenu de la page.

9. Supprimer le rendu bloquant de JavaScript
Cette règle se déclenche lorsque PageSpeed Insights détecte que votre HTML fait référence à un fichier JavaScript externe bloquant dans la partie supérieure de votre page.

Robots.txt

robots-txt SEO Technique

Qu’est-ce que Robots.txt ?

Un fichier robots.txt indique aux robots d’exploration des moteurs de recherche les pages ou les fichiers qu’ils peuvent ou ne peuvent pas demander à votre site. Son objectif principal est d’éviter de surcharger votre site de requêtes.

Pourquoi le fichier robot.txt est-il important ?

Le robots.txt est généralement utilisé pour empêcher les moteurs de recherche comme Google de  » voir  » certaines pages de votre site Web – soit parce que vous ne voulez pas que votre serveur soit submergé par l’exploration de Google, soit parce qu’il cherche des pages sans importance ou dupliquées sur votre site.

Vous pensez peut-être que c’est aussi un bon moyen de cacher des pages ou des informations que vous préférez garder confidentielles et que vous ne voulez pas apparaître sur Google. Ce n’est pas la fonction du fichier robots.txt car ces pages cachées sont facilement explorées en contournant les instructions robots.txt.

Il est important d’avoir ce fichier et de savoir bien l’utiliser. Même si votre site fonctionnera quand même sans lui et sera généralement parcouru et indexé même en l’absence de ses instructions.

Le classement de votre site sera affecté dans le cas d’une mauvaise utilisation du robots.txt.


Les bonnes pratiques

1. Comprendre les limites du fichier robots.txt

  • Les directives robots.txt ne sont pas forcément compatibles avec tous les moteurs de recherche.
  • Les robots d’exploration peuvent interpréter la syntaxe de différentes façons
  • Une page bloquée par un robot peut tout de même être indexée si d’autres sites renvoient vers elle

2. Créer un fichier Robots.txt

  • robots.txt doit être un fichier texte encodé en UTF-8 (qui inclut ASCII). L’utilisation d’autres jeux de caractères n’est pas possible.
  • Un fichier robots.txt est constitué d’un ou plusieurs groupes.
  • Chaque groupe se compose de plusieurs règles ou directives (instructions), une directive par ligne.
  • Les règles ont une sensibilité à la casse.

3. Rendre votre fichier Robots.txt facile à trouver
Le plus recommandé est de le placer sur l’URL suivante : https://exemple.com/robots.txt.

4. Vérifier et tester le fichier
Il est important bien tester et valider le robots.txt car une erreur peut entraîner la désindexation de votre site en entier.

5. Utiliser les balises meta noindex
Dans le cas d’un objectif de non-indexation de certaines de vos pages.

Contenu en double

contenu-double SEO Technique

Qu’est-ce que le contenu dupliqué ?

Le contenu en double (ou contenu dupliqué) se présente sous forme de blocs de contenu importants, appartenant à un même domaine ou répartis sur plusieurs domaines et qui sont identiques ou sensiblement similaires.

Quel est l’impact du contenu en double sur le référencement ?

En général, Google ne veut pas classer les pages avec du contenu en double.

« Nous nous efforçons d’indexer et d’afficher des pages contenant des informations distinctes. »

Plus précisément, voici les trois principaux problèmes rencontrés par les sites contenant beaucoup de doublons.

  • Moins de trafic organique
  • Pénalité
  • Moins de pages indexées

Les bonnes pratiques

1. Utilisez les redirections 301
La redirection permanente des anciennes URL vers les nouvelles.

2. Soyez cohérent
Votre système de liens internes doit être cohérent.

3. Utilisez des domaines de premier niveau
Les domaines de premier niveau sont plus adaptés pour du contenu spécifique à un pays donné.

4. Soyez prudent en diffusant votre contenu
Il est utile de s’assurer que chaque site sur lequel votre contenu est diffusé inclut un lien renvoyant vers votre article original.

5. Limitez les répétitions
L’outil de gestion des paramètres permet de définir la manière dont Google doit traiter les paramètres d’URL

6. Évitez la publication de pages incomplètes
Cela concerne les pages pour lesquelles vous ne disposez pas encore de contenu réel

7. Apprenez à maîtriser votre système de gestion de contenu

Cela implique de maîtriser l’affichage du contenu sur votre site Web.

8. Limitez les contenus similaires
Il est recommandé de regrouper les pages similaires de votre site pour n’en faire qu’une.