Organisez vos pages :

Vos pages doivent être clairement identifiées et organisées. Dans la mesure du possible, votre nom de domaine doit être explicite. Mais surtout, l’URL de chaque page doit contenir des mots-clés en rapport avec son contenu.

Exemple d’URL contenant des mots-clés :
http://www.tout-savoir-sur-le-chat.com/signes-particuliers/les-griffes-retractiles

La balise <title> permet de donner un titre à la page. Chaque page a son propre titre. Celui-ci ne doit pas excéder 70 caractères et doit également contenir des mots-clés, qui doivent apparaitre par ordre d’importance.

Exemple de code pour la balise <title> :
<title>Tout savoir sur le chat : les griffes rétractiles</title>

Enfin, faites communiquer vos pages entre elles avec des liens internes. Pour faire les liens, privilégiez le texte avec des mots-clés.

Exemple de texte utilisé pour créer des liens :
C'est un félin : ses griffes sont rétractiles.

Un fil d’Ariane en haut de chaque page, représentant sa place dans l’arborescence du site, peut aider l’internaute comme les moteurs.

Exemple de fil d’Ariane :
Accueil > Signes particuliers > Griffes rétractiles

Déclinez l’identité de vos pages

Les balises meta constituent la carte d’identité d’une page et sont donc très importantes pour son bon référencement.

La balise "description", comme son nom l’indique, permet de fournir une courte description de la page. Sa longueur optimale est d’environ 160 caractères. C’est souvent ce texte qui est affiché sous le lien dans les résultats de recherche.

Exemple de code pour la balise meta "description" :
<meta name="description" content="Tout savoir sur le chat domestique (Felis silvestris catus). Les griffes rétractiles sont un des signes particuliers de ce mammifère carnivore." />

La balise "keywords" permet de renseigner les mots-clés. Elle est paradoxalement devenue relativement obsolète car les moteurs préfèrent trouver les mots-clés dans la page. Mais cela ne fait pas de mal de renseigner les mots-clés principaux, en évitant les doublons et les excès : une dizaine maximum !

Exemple de code pour la balise meta "keywords" :
<meta name="keywords" content="chat, signe, particulier, griffes, rétractiles, félin" />

Structurez votre contenu :

Chaque page de votre site affiche du contenu… Parfois beaucoup de contenu… Pour que votre contenu soit compréhensible, il faut l’ordonner !

Les balises « Hn », également appelées titres éditoriaux, sont là pour ça. Cette structure sémantique rend vos pages plus accessibles aux internautes… mais aussi aux moteurs de recherche, en leur permettant de mieux interpréter et référencer votre contenu.

Vous définissez votre titre avec la balise « H1 », puis vos sous-titres avec les suivantes, dans l’ordre. Un même numéro de balise « Hn » correspondra toujours au même niveau d’information.

Exemple de code pour les balises « Hn » :
<h1> Titre principal (ex : L'Europe) «/h1»
<h2> Sous-titre (ex : La France) </h2>
<h3> Sous-titre éventuel de h2 (ex : Paris) </h3>
<h4> Sous-titre éventuel de h3 (ex : La Tour Eiffel) </h4>

Créez le plan de votre site :

Le fichier sitemap.xml est tout simplement le plan de votre site. Il en répertorie toutes les pages et permet ainsi aux moteurs de mieux les appréhender.

Pour chacune d’elle, des balises permettent de définir :

  • la date de leur dernière mise à jour
  • leur fréquence de mise à jour
  • ainsi que leur priorité, c’est-à-dire leur importance dans votre site.

Exemple de code pour le fichier sitemap.xml
<?xml version="1.0" encoding="UTF-8"?>

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">


<url>


<loc>http://www.nomdedomaine.com/url-dela-page</loc>

<lastmod>2012-01-01</lastmod>


<changefreq>monthly</changefreq>






<priority>0.8</priority>





</url>


</urlset>
Le sitemap commence par cette entête

Obligatoire, la balise <urlset> référence le standard de protocole actuel.

Obligatoire, la balise <url> est la balise parent de chaque entrée d’URL.

Obligatoire, la balise <loc> indique l’URL de la page.

Facultative, la balise <lastmod> indique la date de dernière modification de la page, au format AAAA-MM-JJ.

Facultative, la balise <changefreq> indique la fréquence probable de modification de la page, avec les valeurs suivantes : Les valeurs acceptées sont les suivantes : always, hourly, daily, weekly, monthly, yearly, never. « always » correspond à une page modifiée à chaque accès, et « never » à une page archivée.

Facultative, la balise <priority> permet de signaler les pages que vous jugez les plus importantes, avec des valeurs comprises entre 0,0 et 1,0. La priorité par défaut est 0,5. Il est recommandé de toujours mettre la priorité 1 pour la page d’accueil.

Ferme la balise <url>. Le bloc ainsi formé sera répété autant de fois qu’il y a de pages.

Ferme la balise <urlset>.

Parlez aux robots :

Afin de recenser les milliards de pages qui sont en ligne, les moteurs de recherche envoient des robots, aussi appelés crawlers ou spiders.

La première chose que ces robots consultent lorsqu’ils rencontrent un site est le fichier robots.txt. Ce fichier texte situé à la racine du site leur indique les pages qu’ils ont le droit d’indexer ou non, ainsi que le chemin d’accès au fichier sitemap.xml.

La commande « User-Agent » précise à quel robot l’on s’adresse. Une étoile permet de leur parler à tous en même temps !

La commande « Disallow » indique les pages qui ne doivent pas être indexées. Un slash aura pour effet d’exclure toutes les pages du site.

Exemples de code pour le fichier robots.txt
User-Agent: *
Disallow: /

User-Agent: *
Disallow:

User-Agent: nomDuRobot
Disallow :

User-Agent: *
Disallow: /

User-Agent: NomDuRobot
Disallow: /
User-Agent: *
Disallow:

User-Agent: *
Disallow: /repertoire/page.html

User-Agent: *
Disallow: /repertoire/page.html
Disallow: /repertoire/page2.html
Disallow: /repertoire/page3.html

User-Agent: *
Disallow: /repertoire/
Exclusion de toutes les pages auprès de tous les robots.


Exclusion d’aucune page, ce qui équivaut à l’absence de fichier robots.txt, toutes les pages étant visitées.

Autorisation d’un seul robot.


Toutes les pages sont exclues auprès des autres robots.


Exclusion d’un robot.
Pour les autres robots, toutes les pages sont visibles.



Exclusion d’une page.


Exclusion de plusieurs pages.




Exclusion de toutes les pages d'un répertoire et ses sous-dossiers.
 

Voici quelques exemples de User-Agents : Googlebot (Google), Bingbot (Bing), Scooter (AltaVista), Orangebot (Orange), T-Rex (Lycos), InfoSeek Sidewinder (InfoSeek)…

Vous trouverez des listes présentant la plupart des User-Agents sur des sites tels que www.robotstxt.org/db.html ou www.user-agents.org.

Télécharger ce contenu en pdf