(A lire http://zerodue-design.com/blog/seo-best-and-worst-practices/)

http://fr.openclassrooms.com/informatique/exportPdf/ameliorez-la-visibilite-de-votre-site-grace-au-referencement

Page 17 – Addon Chrome SEO Tools

Page 19 – Il faut veiller à mettre le site à jour régulièrement afin que le bot détecte que le site vit et il passera alors plus souvent

Page 21 – Il faut veiller à utiliser les tags <h1> jusqu’à <h6> car le bot se base sur ces tags pour déterminer l’information importante au sein de la page. Ne pas hésitez à styliser les tags pour qu’ils se fondent au mieux dans le rendu de la page.

Page 22 – Toujours avoir un tag <h1> dans la page.

Page 26 – Les 600 premiers pixels en hauteur de la page doivent contenir le max d’informations pertinenes. Les utilisateurs n’allant pas forcément plus bas; les bots donnent plus de poids également à ce qui apparait au sommet de la page; plutôt qu’au bas.

Plus la vitesse d’affichage est bonne, meilleur sera le positionnement dans le moteur de recherche.

Page 29 – La balise <title> doit être présente et le texte qui s’y trouve doit être unique au sein du site.

Page 30 – <title> doit reprendre un maximum de mots clefs, mots pertinents pour décrire le contenu de la page.

Page 32 – La balise est encore utilisée (de moins en moins); la balise ne l’est plus car c’est surtout le contenu de la page qui prime actuellement.

Page 35 – Toujours veiller à avoir un fichier /robots.txt à la racine du site. Si le site ne doit pas être indexé par les moteurs de recherche, il faut un fichier robots.txt avec ces deux lignes :

User-agent : *
Disallow :

Page 37 – Idéalement, le nom de domaine devrait au moins reprendre un mot clef

Page 39 – Choisir les alias des dossiers qui vont composer l’url avec précision. Les alias devraient correspondre à des mots clefs fréquemment utilisés dans les pages de ce dossier.

Page 40 – Google pénalise les sites qui ont des pages 404. Il faut donc faire la chasse aux 404. Pour cela : RedirectPermanent.

Page 49 – Tentez de respecter l’arborescence du site : la page d’accueil (/) ne devrait proposer des liens que vers des pages de second niveau (/dossier); les pages du second niveau (/dossier) vers les pages du troisième (/dossier/sous-dossier), etc. Evitez de faire un lien depuis la page d’acceuil vers un niveau bien plus bas (/dossier/sous-dossier/sous-dossier/page). C’est mauvais pour l’optimisation du référencement. Lire plus en page 49.

Page 54 – Utilisez les liens (<a>) avec parcimonie car cela division le “jus” de Google. La page d’accueil reçoit 100% du jus de Google. Si elle propose trois liens, chaque lien reçoit 33%. Si un de ces pages propose 10 liens, ils reçoivent chaque 3,3%. Plus il y a de liens, plus le “jus” est dillué ce qui n’est pas bon. Pour éviter de “perdre” du jus, il faut mentionner des liens en rel=nofollow.

Page 56 – Il y a des zones où il faut particulièrement veiller à mettre des mots clefs : la balise &lt;title>, les headings (&lt;h1> à &lt;h6>), les liens (&lt;a>keyword&lt;/a>). Les moteurs de recherche actuel donnent aussi de l’importance aux mots encadrés des tags <strong> et <em> et même <u> (surlignés). Il faut donc veiller à avoir de tels tags sur sa page.

Pages 56/57 – Google Insigths est un outil qui permet de suivre les tendances càd les recherches qui sont lancées dans le moteur de recherche et qui reprennent donc les mots clefs utilisés par les internautes ⇒ il faut tenter de se positionner sur ces mots-là.

Page 63 – Le Web 3.0 est dit sémantique car à la recherche, au sein d’une page web, de marqueurs (les tags) qui permettent d’identifier les informations (lieux, auteurs, keywords, vote, résumé de film, ...). Voir http://schema.org.

Page 65 – “rel=canonical” est un attribut à utiliser pour indiquer la source première de l’information dès lors que tout ou partie de la page est un contenu qui est dupliqué. Il faut indiquer aux moteurs de recherche que la page de référence, où l’information a été publiée premièrement est ... Cela permet de ne pas avoir du duplicate content.