Tél : 0643190737 | Email: contact@cleatis.fr

ON-SITE

Le référencement ON-SITE appelée aussi ON-PAGE comprend à la fois l’optimisation de la structure du site pour faciliter le passage des robots et la prise en compte des mots clés mis en avant, mais aussi l’optimisation du contenu présent et à venir.

Référencement on-site : de l'optimisation technique au contenu
Référencement on-site

Architecture

Une bonne architecture de site permet une meilleure navigation et indexation par les robots des moteurs.

–          Navigation

Créer un chemin de fer (fil d’ariane) et un menu navigable permet de faciliter le passage des robots entre les pages principales et les pages profondes.

Attention à ne pas laisser trainer des pages en erreur de type 404. Un fort volume de ces pages peut être pénalisant pour votre prise de positions. Une redirection permanente (301) de celles-ci réglera ce problème.

–          Sitemap

Une page plan HTML listant l’ensemble des pages de votre site reprenant les catégories existantes peut être mise en place et être accessible depuis le bas de page du site. A la base destinée aux utilisateurs pour leur permettre de se repérer dans un site à fort volume de pages, elle aide également les robots à contextualiser les différentes pages en fonction des catégories.

–          Landing Pages

Créer des pages dédiées à vos visiteurs et à vos conversions peuvent également avoir un intérêt pour le SEO. Souvent rédigées en parallèle des pages habituelles de votre site, ces pages présentent un intérêt pour le référencement car elles comportent souvent des termes différents, plus directs, que votre contenu habituel et peuvent convertir davantage.

N’hésitez pas à laisser en ligne sur votre site des landing pages récurrentes, que ce soit pour convertir des visiteurs que pour fidéliser.

 

Optimisation

 

Lorsqu’un robot de moteur de recherche analyse un site ou une page HTML, certains éléments ont plus d’importance que d’autres. C’est le cas des balises méta. Situées dans le header de la page, elles sont destinées aux robots pour les renseigner de façon synthétique sur le contenu de chaque page.

 

–          Balise méta

Ces balises sont également importantes parce qu’elles se trouvent reprises et affichées dans les pages de résultats des moteurs de recherche. La balise Title et Description sont donc à optimiser en mots clés mais aussi à bien rédiger car elles doivent inciter au clic.

Il en existe plusieurs. Voici les plus importantes :

o   La balise Title (Titre)

  •  Ex : < title>Titre de la page< /title>,
  •  60 à 65 caractères maxi, espaces compris,
  •  Pousser un seul mot clé par balise Title, à l’exception de la home,
  •  Eviter les mots Bienvenue, Accueil, etc sans intérêt pour le SEO,
  •  Eviter le sur-enrichissement en mots clés,
  •  Placer les mots clés les plus importants en début de balise,
  •  Une seule langue par balise/page,
  •  Une balise différente à chaque page.

o   La balise Description

  •  Ex : < meta name= »description » content= »Ceci est la description de la page de ce guide SEO » />,
  •  Balise à rédiger correctement et à renseigner en mots clés,
  •  160-165 caractères avec espaces sans être tronqué, 250 max.,
  •  Une balise unique par page,
  •  Une langue par balise.

 

–          Crawl

Le robot de Google (il y en a en fait plusieurs) s’appelle GoogleBot. Il peut être comptabilisé dans certains outils d’analyses de visites.

Le premier robot est le crawler correspondant au robot de téléchargement de votre contenu dans sa base de données (il y en a plusieurs aussi). Il va aspirer tout votre contenu (texte, image, PDF, etc).

Les autres robots de Google vont s’assurer de la présence ou non de mise à jour du site par rapport à sa version enregistrée. Le cas échéant, le crawler viendra repasser.

Concrètement, le robot enregistre chacune des pages en cliquant sur tous les liens qu’il va trouver. Un maillage de pages fonctionnel est donc crucial.

Comment faire venir les robots sur votre site ? Tout simplement en allant chercher des backlinks depuis des sites externes.

Googlebot simule plusieurs appareils pour se connecter et enregistrer votre site, en utilisant des noms d’applications Internet distincts (les champs http User-Agents) : il simule un navigateur Firefox PC et iPhone, un vieux modèle de téléphone portable et un équivalent Wap.

Le robot de Google consulte également les fichiers CSS, les images et le fichier robots.txt. En utilisant un rythme lent de téléchargement, Google fait attention à ne pas saturer votre site avec ses requêtes.

L’indexation (prise en compte de pages dans la base de données) par Google de nouvelles pages se fait de plus en plus rapidement. Suivant la fréquence de passage des robots, elles peuvent être dans l’index au bout de 4h.

Comment récupérer les traces du GoogleBot ? Soit par l’analyse de logs http du serveur web de votre site, soit en développant un programme en reverse lookup via le User-Agent de la requête http faite par le GoogleBot.

–          URL

En quoi les URL sont importantes pour le SEO ?

o   Le choix du NDD (nom de domaine) : s’il comporte un mot clé, c’est un plus, sans être obligatoire,

o   Plus l’URL est simple, plus sa notoriété sera renforcée,

o   Il est possible de faire de l’URL Rewriting (réécriture d’URL) : les URL longues avec beaucoup de paramètres dedans peuvent être réécrites proprement et automatiquement en incluant des mots clés.

 

Qu’est ce qu’une URL canonique ?

Cela correspond à une version considérée comme principale par le webmaster de pages présentant un contenu identique, évitant la duplication de contenus (duplicate content) et le risque de pénalité qui va avec.

En ajoutant une balise canonique à une page, on envoie à Google un signal indiquant que parmi tous les contenus potentiels seul cette page à considérer. Les autres pages ne seront pas visibles dans les résultats de Google.

Cette balise doit être présente dans la zone Head d’un fichier HTML.

<link rel= »canonical » href= »http://www.unexemple.com/ » />

–          Balises Hn

Ce balisage permet à l’origine de gérer les titres ou sous-titres d’une page HTML. Ces éléments servent à la fois à faciliter la lecture et la compréhension pour l’internaute mais aussi aux moteurs de recherche car ces sections sont souvent rédigées en synthétisant l’idée développée et riches en mots clés.

Chaque page ne doit avoir idéalement qu’une seule balise H1, et peut avoir plusieurs autres balises, allant de H2 jusqu’à H6. La balise H1 est la plus importante pour le SEO. Les mots clés qui la composent doivent être sélectionnés avec soin.

A noter qu’il est important de respecter l’ordre des balises Hn et qu’une balise H2 aura plus de poids qu’un H6. Bien sûr, évitez les balises sur-densifiées en mots clés.

 

–          Balises Open Graph

Le protocole Open Graph créé par Facebook géré par l’Open Web Fondation permet à une page internet dans un réseau social de se transformer en objet riche.

Composé d’un ensemble de balises, ce protocole permet à un webmaster de donner aux réseaux sociaux type Facebook des informations liées aux pages qui seront mises en avant sur leur interface.

L’impact sur le SEO est léger car il est à la base destiné pour les réseaux sociaux. Toutefois, les robots des moteurs savent lire ces balises et peuvent les aider à mieux comprendre ou structurer le contenu analysé.

Pour en savoir plus : http://ogp.me/

–          Référencement images

Comment optimiser les images pour le SEO ?

  • Des images légères : <200Ko,
  • Nom d’image riche en mot clé (ex: basket-nike-femme-modele.jpg),
  • Balise “alt” de l’image renseigné, avec un mot clé,
  • Entouré d’une balise Hn et d’un contenu,
  • Idéalement accompagné d’une légende.

 

–          Robots.txt

Ce fichier robots.txt permet à un webmaster les autorisations d’indexation de son site. Bien souvent, il est placé à la racine du site (ex. exemple.fr/robots.txt).

Les robots arrivent sur votre site et vont chercher ce fichier de consignes. En fonction de son contenu, telle page ou tel dossier seront ignorés lors de leur parcours.

Non obligatoire, il peut vous aider à désindexer du contenu qui peut être par exemple dupliqué. Ce fichier .txt peut être créé depuis un simple éditeur de texte.

Ce fichier peut être soumis à Google via la Search Console. Il peut être géré manuellement ou automatiquement via votre CMS ou via un générateur spécialisé.

 

–          Sitemap.xml

Ce fichier au format XML fournit aux moteurs des informations sur des URL internes. A l’instar du robots.txt, il est à déposé à la racine du site: monsite.fr/sitemap.xml.

Insérer une URL dans ce fichier ne signifiera pas qu’elle sera automatiquement indexée, mais au moins parcourue.

Il existe des sitemap de liens, sitemap de vidéos et sitemap d’images.

Chaque sitemap de liens comprend une URL, son niveau d’importance et son niveau de mise à jour.

Ce fichier peut être soumis à Google via la Search Console.

Il peut être géré manuellement ou automatiquement via votre CMS ou via un générateur spécialisé.

Micro-formats

Les microformats aident à structurer le contenu d’une page pour l’internaute mais aussi pour le SEO. Quelqu’un de ces éléments sont repris dans les pages de résultats comme les noms d’auteur d’article, des avis, l’arborescence.

Dans le cas de sites automatiques passant un CMS, il existe des modules vous aider à implémenter ces Rich Snippets. Pour une implantation manuelle, la consultation du site http://schema.org/ ou des générateurs en ligne vous aideront dans cette tâche.

Temps de chargement

Depuis peu, Google a officialisé l’importance de la performance du site ou d’une page dans le calcul des positions.

A ce titre, Google a développé un outil appelé PageSpeed pour analyser ce temps de chargement.

Ce temps de chargement dépend du type d’hébergement sélectionné (dédié ou mutualisé qui est souvent plus lent) mais aussi de la complexité de la structure du site (chargement de dépendances, construction visuelle du site, exécution de scripts,…).

Bien sûr, un temps de chargement allégé améliorera “l’expérience utilisateur”, ce qui fera baisser le taux de rebond, critère pris en compte également dans le calcul des positions, que ce soit sur PC mais aussi sur mobile.

En 2015, Google a établit une technologie appelée AMP (Accelerated Mobile Pages). Elle promet une accélération du temps de chargement, en interdisant notamment certaines fonctionnalités en Javascript et en se servant du cache de Google.

Le respect d’un standard mobile-friendly entraîne désormais un gain de visibilité.

Mis en place au départ pour Google News, le mode AMP sera généralisé à la recherche conventionnelle.

Outils

 

–          Google Search Console (Webmaster Tools)

Cette plateforme officielle de Google permet aux webmasters d’agir avec lui. Elle fournit quelques statistiques (fréquence de passage des robots, nombre de pages en erreur 404, taux de clics sur les mots clés positionnés,…).

Un webmaster peut soumettre à Google l’URL vos sitemap.xml, robots.txt, vos demandes de désindexation de pages, etc.

 

–          Screaming Frog SEO

Ce logiciel SEO vous fournira, après avoir renseigné une URL (nom de domaine ou URL d’une catégorie), des informations à propos de la structure des URL, des titres de pages, des balises Hn, des balises méta, du statut des pages notamment.

Disponible gratuitement pour un usage limité à 500 URL, il vous aidera à faire un rapide audit de votre site en identifiant d’éventuels facteurs bloquants ou des doublons. Ces données peuvent ensuite être exportées au format txt ou csv.

 

Analyse de logs

Les logs sont des fichiers journaux des serveurs web, tel un historique des requêtes adressées au serveur.

Chaque requête constitue une ligne qui comporte des informations telles que : l’adresse IP, la date, l’URL visité, le User Agent, le Referer ou le temps de chargement.

L’analyse de ces logs a pour ambition de comprendre le comportement des robots des moteurs de recherche sur votre site. Cette analyse peut se faire en one-shot ou régulièrement.

L’analyse de logs permet de savoir :

  • le taux de crawl global, et ce par niveau de profondeur (les pages les plus profondes sont les moins crawlées et les moins génératrices de trafic en SEO),
  • le taux de crawl par catégorie,
  • le taux de pages actives en global ou par catégorie, ayant généré une visite ou plus sur une période donnée (une page non crawlée est synonyme de problème (faible valeur ajoutée, mauvais linking)),
  • les codes retours (pages en erreur),
  • la fréquence de crawl de Googlebot,
  • le volume de pages connues des moteurs par rapport au volume réel,
  • le ratio crawl sur les visites SEO :
    • pour réorienter le cr,awl vers les pages les plus importantes pour le SEO
    • pour découvrir et agir sur les pages orphelines,
    • pour connaître les performance serveur.

 

Quelques outils d’analyse de fichiers logs : payants (Botify, Kelo.gs, Splunk, OnCrawl), opensource (Watussi).

 

En résumé, l’analyse de logs permet d’avoir une vue sur les pages d’un site (pages en erreur, découverte de nouvelles pages) et de déterminer des actions (maillage, pages inutiles).

 

Contenu

 

Après avoir réfléchi à une stratégie de mots clés et optimisé la lisibilité technique du site, il convient de renforcer le contenu du site.

Pour cela, plusieurs axes de travail :

 

  • Nombre de pages

Vous avez défini des mots clés prioritaires. Pour travailler votre positionnement sur ces expressions, rien de tel que de créer des pages pour chacun de ces termes.

En renforçant sa volumétrie, le site va montrer à Google qu’il se renforce en général et sur sa thématique, lui permettant de gagner en pertinence.

 

  • Densité des mots

Chaque page devra travailler un mot/thème unique. Pour cela, rien de tel que de densifier sa présence dans la page.

Tout d’abord, il faut soigner la densité brute, c’est à dire le nombre de fois que l’expression se retrouve dans la page. Mais aussi la densité pondérée, prenant en compte la position des mots dans le contenu. Son poids est renforcé s’il apparaît dans certaines zones : balise titre, balise description, balise Hn, dans les paragraphes et dans les balises alt des images.

Mais attention à ne pas tomber dans la sur-optimisation. Chaque mot clé sera à insérer dans du contenu intelligible, idéalement en utilisant des mots clés déclinés.

Un outil de calcul de densité de mot clé vous aidera à y voir plus clair (ex: http://alyze.info).

 

  • Longueur de contenu

Plus une page aura un contenu important, plus elle aura de la pertinence par rapport à des pages plus courtes vis à vis de Google. Dans l’idéal, il faut toujours chercher à dépasser les 250 mots (contenu moyen d’une page A4).

 

  • Richesse sémantique

Lors que vous cherchez à rédiger une page sur un thème, n’oubliez pas d’inclure les déclinaisons de ce même mot pour indiquer aux moteurs que vous connaissez le domaine que vous traitez et renforcer ainsi votre pertinence.

 

  • Content spinning

Dans le cadre d’un stratégie de création de contenus et de sites automatiques, le content spinning permet de produire une grande quantité de contenus différents à partir d’un texte enrichi en synonymes. Cette technique est officiellement qualifié de technique spammante et prohibée par Google.

 

  • Rédiger pour le web

Vous l’avez compris, rédiger pour le web nécessite une dose de rigueur sur le formalisme et sur l’inclusion de mots clés. Cependant, il ne faut pas perdre de vue les aspects liés à l’intérêt du contenu, à un éventuel tunnel de conversion, au maillage inter-articles et à la création ou au renforcement de la valeur et de l’image du site.