Cours avec guide du référencement naturel

L’INDEXATION
L’INDEXATION,COMMENT ÇA MARCHE?
Les crawlers
La soumission manuelle
Dois-je soumettre toutes les pages de mon site web ?.
L’indexation naturelle
Comment me faire remarquer ?
L’indexation par le Google Toolbar
L’INDEXATION,OU VOTRE EXISTENCE SELON GOOGLE
Votre site web existe-t-il selon Google ?
Comment connaître le niveau d’indexation de mon site web ?
La commande « site: » de Google
La commande « site: » de Yahoo
VUE D’ENSEMBLE DES FACTEURS DECISIFS
Les facteurs bloquants l’indexation
Les facteurs favorisants l’indexation
LES FACTEURS BLOQUANTS
Les technologies à proscrire
Le format Flash
Le Javascript
Les Frames
Les facteurs bloquants au niveau du site.
Le maillage
La page d’accueil
Le plan du site
Les facteurs bloquants au niveau des pages
Le nombre de liens
Le type des liens
Le Javascript
L’url rewriting
Le gabarit des pages
LES FACTEURS FAVORISANTS
Le sitemap
Le sitemap, Kezako ?
Petit rappel sur les crawlers.
Le protocole sitemaps (avec un « s »)
Le fichier sitemap (sans « s »)
Les limites du sitemap.
Comment le fichier sitemap aide mon site web ?
Est-ce qu’un fichier sitemap est indispensable à unbon référencement ?.
Le fichier sitemap ne sert à rien, alors ?
Est-ce qu’un fichier sitemap améliore mon positionnement dans les moteurs de recherche ?
Le fichier sitemap en détail
Le sitemap, ça ressemble à quoi ?
Code XML :
Les différentes balises de votre fichier sitemap
Urlset
Url
Loc
Lastmod
Changefreq
Priority
Qu’est-ce que je fais de mon fichier sitemap ?
Code robots.txt
Le fichier robots.txt
Le fichier robots.txt, c’est quoi ?
« Robots Exclusion Protocol », kezako ?
Pourquoi s’embarrasser d’un fichier robots.txt ?
Mise en garde
Comment rédiger mon fichier robots.txt ?
La directive « User-agent »
La directive « Disallow »
Exemples
Code robots.txt
Code robots.txt
Code robots.txt
Code robots.txt
Les directives non standards.
Code robots.txt
Qu’est ce que je fais de mon fichier robots.txt ?
L’EFFET SANDBOX
La SandBox, kezako ?
A quoi sert la SandBox ?
Mon site est-il dans la SandBox ?
Quel impact a la SandBox sur mon site web ?
Comment sortir de la SandBox ?
Votre site web est récent
Votre site web est ancien
Quelles mesures concrètes pour sortir de la SandBox?
Mise en garde
LES MOTS-CLES
TYPOLOGIE DES MOTS-CLES
Un mot-clé concurrentiel, c’est quoi ?
Un mot-clé parasité, c’est quoi ?.
Un mot-clé délaissé, c’est quoi ?.
Un mot-clé de niche, c’est quoi ?
Comment faire concrètement pour déterminer le type d’un mot-clé ?
COMMENT CHOISIR DES MOTS-CLES EFFICACES?.
Ciblez des mots-clés liés à votre secteur d’activité

Avant-propos

Le contenu de cet ebook est en grande partie issu du blog du logiciel GRATUIT de  référencement GnoZtiK (http://blog.gnoztik.com). Le contenu a été revu, corrigé, mis à jour et  étoffé de sorte à en faire un manuel concret d’apprentissage des techniques de  référencement. Nous en sommes à la version 1.0. Des corrections, mises à jour,  compléments et d’éventuels remaniements sont à prévoir dans l’avenir. Vos remarques,  suggestions, corrections nous sont donc précieuses. N’hésitez pas à nous les communiquer à  l’adresse http://www.gnoztik.com/ebook/v1/feedback.php.

L’Indexation

Pas de bon référencement sans bonne indexation !
L’indexation vise à facilité le recensement de vos pages web par les moteurs de recherche. Si  celles-ci ne sont pas recensées, n’escomptez pas être bien positionné sur vos mots-clés.
Son action est défensive car elle a pour principale tâche de lever les obstacles susceptibles  de contrarier ce recensement. Elle s’articule autour de trois axes :   multiplier les points d’entrée sur votre site web,   faciliter la circulation entre les pages de votre site web (maillage interne), interdire l’accès à certaine partie de votre site web (partie privée, duplicate content,  etc.).
Le premier chapitre de cette partie s’efforce d’expliquer comment se déroule l’indexation de  vos pages web dans les moteurs de recherche. Une bonne connaissance de ces mécanismes  permet de comprendre la logique des actions à entreprendre pour être mieux indexé.
Le deuxième chapitre s’attardera sur le moyen de déterminer où en est votre indexation  dans les différents moteurs de recherche. Vous pourrez ainsi savoir si votre site web est  correctement indexé et éventuellement décider d’entreprendre quelques actions correctrices,  si ce n’est pas le cas.

LIRE AUSSI :  Liste des importants termes dans la rédaction de contenu et le SEO

Les crawlers

Un crawler est un robot (aussi appelé bot ou spider) qui parcourt le web et récupère  automatiquement les pages web visitées. Les moteurs de recherche ont des crawlers qui se  chargent du travail d’indexation des pages web.
Le crawler de Google s’appelle Google Botalors que celui de Yahoo s’appelle Yahoo Slurp.
A chaque fois qu’un crawler visite une page web, il en fait l’analyse, en extrait les liens vers  d’autres pages web et les indexe dans sa base de données.
Connaître leur fonctionnement, permet de lever les obstacles susceptibles de freiner  l’indexation de votre site web. Le but ici est de leur faciliter la tâche.

La soumission manuelle

La manière la plus conventionnelle de signaler votre site web à un moteur de recherche est  la soumission manuelle. Ci-dessous les adresses desformulaires de soumission pour :
Google http://www.google.fr/addurl/
Yahoo http://fr.docs.yahoo.com/info/ajouter.html
MSN http://beta.search.msn.fr/docs/submit.aspx
Il n’y a plus qu’à remplir les formulaires correspondant en y indiquant l’url des pages de  votre site web.

Dois-je soumettre toutes les pages de mon site web ?

Vous pouvez ne soumettre que votre page d’accueil (c’est ce que recommandent la plupart  des moteurs de recherche sur leur formulaire de soumission). Dans ce cas, vous devrez  compter sur le travail du moteur pour indexer le reste de vos pages web. En général, il ne  tarde pas à la visiter, à en faire l’analyse, à en extraire les liens qui pointent vers l’intérieur  (et également l’extérieur) de votre site web et à les indexer dans sa base. Si tout se passe  bien, quelque temps plus tard, il fait de même avec les liens indexés à l’étape précédente, et   ainsi de suite, jusqu’à crawler l’intégralité de votre site web. Avec un peu de patience,  l’intégralité de votre site web sera ainsi crawlée.

L’indexation naturelle

Rien ne vaut une indexation naturelle. Nous verrons plus loin que ce n’est pas tout à fait  vrai, qu’il est possible de parfaire l’indexation naturelle.
Le mieux reste d’être recommandé par un autre. Si un site web fait un lien vers le vôtre et  que celui-ci est indexé par les moteurs de recherche, l’indexation de votre site web ne  tardera pas à commencer. Il vous faut donc pour ce faire, vous faire remarquer par d’autres.

Comment me faire remarquer ?
En publiant, par exemple, des articles sur d’autres sites populaires. En faisant des échanges  de liens avec d’autres sites web thématiquement apparentés, en créant un buzz autour d’un  événement, etc. Il existe de multiples méthodes quine sont pas vraiment l’objet de ce  document. Ces méthodes relèvent souvent du web marketing.

L’indexation par le Google Toolbar
Google concentrant de nombreux intérêts, il est intéressant de noter le rôle particulier que  peut avoir la Google Toolbar. Lorsque celle-ci affiche le PageRank d’une page, elle envoie à  Google l’adresse de la page et la lui soumet indirectement par ce biais. En générant du trafic  sur votre site web, vous augmenterez la possibilité d’avoir des visiteurs ayant la fameuse Toolbar. Ils soumettront alors, une à une, les pages de votre site à Google à leur insu. Ce  n’est certes pas sa vocation première, néanmoins les spécialistes du référencement sont  plutôt de cet avis.

…..

référencement naturel

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *