Optimiser l'accès à toutes les pages de votre blog pour les moteurs de recherche

google_lunette Si vous êtes un habitué de ce blog, vous devez maintenant savoir que la monétisation de son espace web ne se résume pas uniquement à démarcher des sponsors ou à placer des encarts publicitaires contextuels partout. Monetiser correctement son blog (ou son site d’ailleurs) relève d’une stratégie globale dont fait notamment partie le référencement (ce n’est donc pas étonnant qu’une catégorie distincte lui soit consacrée sur Monetiweb).

Pour faire simple et rapide, puisque cela a déjà été expliqué, mieux vous serez référencé dans les moteurs de recherches et plus facilement les internautes pourront vous trouver suivant certains mots-clés spécifique, plus vous aurez donc de visites … et plus vous pourrez potentiellement monétiser.

Lorsqu’un robot de moteur passe chez vous il est donc important de lui faciliter la tâche en l’aidant à naviguer au sein de vos différentes pages afin qu’il les répertorie toutes comme il le faut. C’est à cela que sert le fichier sitemap (qui vous a déjà été détaillé dans un article sur Google Webmaster Tools) mais il est possible d’améliorer son maillage interne avec d’autres « facilitateurs » :

Les liens relatifs

Ce type de liens que l’on rencontre souvent à la fin d’un billet rend 2 services : non seulement ils permettent de proposer au lecteur d’élargir ses lectures autour d’un sujet particulier (les choix sont souvent basés sur des mots-clés commun) mais ils aident également les moteurs à passer de billet en billet et ainsi de continuer à prendre en considération des articles datant parfois de très longtemps.

L’auto linking

L’auto link est un système qui permet de créer directement dans un texte un lien vers une page précise sur un mot précis, sans pour cela devoir créer le lien manuellement chaque fois. Concrètement si votre blog propose une catégorie « cuisine », vous allez pouvoir décider qu’à chaque apparition de ce mot dans vos billets un lien soit créé automatiquement vers les archives de cette même catégorie. Il est bien sûr possible de renvoyer vers ce que vous voulez : une page statique, les archives d’un mois précis, les autres billets d’une même catégorie, ceux ayant un tag précis (on parlera alors d’auto-tags), … pas de limite. Ici sur Monetiweb vous êtes renvoyé vers le glossaire (exemple avec le mot WordPress).

Divers plugins peuvent très facilement vous aider sur ce point, c’est le cas avec le récent Keywords Autolink sur WordPress (je n’ai pas trouvé de similaire sur Dotclear mais je suppose que cela doit exister non ?).

Attention toutefois à ne pas en abuser. Comme toujours pensez que le contenu est avant tout proposé à des êtres humains pour qui des liens tous les 4 mots ou vers des résultats peu pertinent ne seront pas intéressants.

Le nuage de tags

L’omniprésence des nuages de tags n’est plus à démontrer à l’heure actuelle. Nous en mangeons à toutes les sauces : sur les blogs, sites, réseaux sociaux, applications diverses, etc … ils sont partout, parfois ajoutés par simple réflexe « 2.0″. Certaines études commencent à douter de leur utilité réelle (étude à laquelle j’adhère pour m’être rendu compte de la même chose via une campagne d’eye-tracking sur mon blog)… pour les visiteurs humains. D’un point de vue robot par contre c’est une belle section à posséder pour l’aider à crawler plusieurs dizaines de pages régulièrement.

Possibilités diverses

D’ordre général tout système proposant une série de liens vers d’autres billets pourra aider à améliorer ce maillage interne. Les possibilités sont multiples :

  • une page regroupant les statistiques de vos billets les plus vus, les plus commentés, les plus populaires, …
  • un pied de page dans lequel vous avez l’accès aux X derniers articles publiés
  • un article « best-of » listant une série de lien vers d’autres pages
  • etc.

Encore une fois, inutile de tout vouloir appliquer sans un minimum de réflexion. Si améliorer les interactions internes entre vos pages est une bonne chose, l’abus pourra être plus dommageable qu’autre chose. N’oubliez pas que tout lien (interne ou externe) est une possibilité pour le lecteur de « couper » son élan dans la lecture d’un de vos écrits.

Note : Merci Fred et Jeff pour cette tribune sur Monetiweb.

Découvrez aussi les sous-titres à télécharger

Le meilleur sous-titre pour Vikings saison 4. Le meilleur moteur de recherche de sous-titres disponibles en français et en anglais.
16 Commentaires (ajouter le vôtre)
  1. J’ai 2 remarques suite à cet intéressant article :

    - Dans quelle mesure l’internal linking doit-il être accompagné de rel nofollow ? Il y a les partisans du pour et du contre, quel est votre avis ? Il n’y en a pas un seul sur monetiweb, j’ai déjà un début de réponse.

    - Si un le plugin keyword autolink pour dotclear existe… Hmm merci de m’en informer ! Les plus gros blogs utilisent encore dotclear (presse-citron le premier), mais je n’ai jamais vu de telle chose sur un DC.

  2. Honnêtement, c’est un peu ridicule de mettre un lien vers une catégorie…. Et dire que le nuage « est une belle section à posséder pour l’aider à crawler plusieurs dizaines de pages régulièrement », c’est comme se tirer une balle dans le pied…

    Désolé HSI :) Mais je déconseille fortement au bloggeur ce que tu conseilles !!! OK, on peut mettre des liens (d’ailleurs, je suis d’accord avec toi là-dessus, les nuages et autres liens sont nécessaires pour créer sa « toile de liens » et augmenter l’intérêt d’une page par rapport à une autre, bref, un « must » – utiliser « follow ») mais autoriser les robots à indexer des pages doublon est totalement inutile et fait plus de mal que de bien.

    Rien que le titre de l’article, « optimiser l’accès à toutes les pages » m’a fait trembler de peur. Pour un meilleur référencement et optimiser vos chances, il faut « optimiser l’accès au plus petit nombre de page possible ».

    Pourquoi ??
    Google n’a pas envie de perdre son temps à crawler des pages par mot-clés ou catégorie qui retournent les mêmes articles… En faisant cela, Google va certes indexer et votre page aura plus de chance d’être en première page de Google pour vos belles pages à mots clés met il va en même temps se rendre compte que:
    – Vous avez trop de pages à indexer
    – Beaucoup de ces choses comportent le même contenu (et mêmes articles)
    Conséquence, il y a des chances d’être pénalisé pour doublon

    Bref, pour faire court et conclure (et donner quelques astuces), voici la règle d’or pour optimiser votre blog:

    A/ Le plus important… N’indexer que votre page d’accueil et vos pages par article (et surtout ne pas indexer les pages par article, mots clés, dates, auteur, etc.). Votre en-tête doit comporter quelques chose comme cela. Note remarquez que même si la page n’est pas indexée, on force le robot à faire un « follow » pour qu’il prenne connaissance des liens (internes et externes).
    // EVITER LES DOUBLE CONTENUS
    $name = get_query_var(‘name’);
    if( is_single() || (is_page() && ($name!= »archives » && $name!= »links »)) || (is_home() && $paged<= »1″ )) {echo  »;} else {echo  »;}

    B/ Pour encore plus optimiser, on fait en sorte que les articles sur la page d’acceuil soit différent de la page de l’article elle-même (encore le problème de doublon), pour cela deux moyens, le plus pratique le système d’extrait (on écrit un extrait de l’article qui sera publié sur la page d’accueil et qui est légèrement différent de l’article lui-même); le moins pratique, faire une coupe au niveau de l’article. Bref, si votre page d’accueil comporte des articles non modifié ou non coupé, alors il faut faire quelquechose.

    C/ Utiliser un fichier « robot.txt » optimisé pour Google Webmaster Tools. Voir mon fichier sur mon blog (http://www.peperuka.com/robots.txt) pour un modèle tout bête. On peut voir que l’on fait tout pour que les robots ne crawlent pas (et donc n’indexent pas) les pages « trackback » et autres doublons.

    D/ Bien s’assurer d’avoir un titre et une description dans les métatags différent pour chaque article.

    E/ Utiliser un simple sitemap en XML avec l’URL des articles.

    Si vous avez bien respecté ces cinq règles, alors, normalement, Google n’indexera que votre page d’acceuil et une page par article. Une recherche pour « site:www.votreBLOG.com » devrait retourner juste le nombre d’articles que vous avez plus la page d’acceuil. Si ce n’est pas le cas, alors à vous de voir quelles pages doublon Google a indexé et les enlever en utilisant « Google Webmaster Tools >> Tools >> Remove URL.

    Un peu long mon com… Désolé !!
    Voilà ma stratégie depuis le lancement de mon blog.

    ***************
    Pour répondre à la question au-dessus concernant le non-follow. Ne jamais utiliser nofollow !! Au contraire, comme cela le lien sera comptabilisé par les robots… Mais par contre, s’assurer que la page elle-même est le correct métatage d’indexation (« noindex, follow » pour une page catégorie, etc.) Conséquence, le robot comptabilisera les liens, ira sur la page « /catégorie/ » ou « /mot-clé/ » mais ne l’indexera pas pour éviter les doublons mais comme il y a un follow, il suivra les liens présents dans la page.

    Enfin, on peut utiliser le nofollow pour les coms (si on a beaucoup de coms et donc de liens) et les liens externes s’ils sont pas pertinents (genre infopublicité, site de positionnement, concours, etc.)

    Voilà…

  3. Oups !!! Mon HTML a été supprimé… Bon, pour voir l’HTML, regarder le code source de mon blog.

    Enfin, Google n’est pas parfait… Quelque fois, il ne respecte pas le robots.txt et vous indexera des pages que vous ne voulez pas…

    Genre, aujourd’hui, en faisant une recherche « site:www.votreBLOG.com », Google retourne 600 résultats alors que je n’ai écris que 150 articles… Quelque chose cloche !!

    Du coup, on fait la chose suivante :
    1/ On cherche les URLS qui sont indexés sur Google et que l’on ne veut pas voir
    2/ On va sur Google Webmaster Tools >> Tools >> Analyse Robots Text et on colle les URLs que l’on aura copié préalablement et on clique sur « CHECK ». Google dira si la page est bloqué ou non. Si oui, alors, il faut demander d’enlever l’URL. Si non, alors là, il faut modifier le robots.txt ou le métatags.

    J’espère que l’on me comprend :)

    TheBigBoss pour Peperuka

  4. Salut peperuka,

    comme tu le dis il faut créer des liaisons au sein de son blog. Le soucis du duplicate content pour un moteur de recherche est surtout relatif au fait que le contenu soit similaire sur des URL différentes. Or je ne pense pas que ce soit le cas dans les moyens que je donne :

    - l’URL de base est (imaginons) : http://www.blog.com/categorie/titre_du_billet
    - En suivant un lien du nuage de tags le moteur se retrouve sur : http://www.blog.com/tags/liste_articles
    - Ensuite il suit à nouveau els liens de la page … pour se retrouver chaque fois sur l’article http://www.blog.com/categorie/titre_du_billet

    Cela ne pose aucun problème, ce qui en poserai serait d’accèder au même contenu avec une URL différente or ici ce n’est pas du tout le cas.

    Comme mon titre l’indique j’expose les moyens d’amener un moteur vers toutes tes pages. On ne parle donc pas de faire indexer une article 3-4 fois par google (ou autre) mais de lui offrir 3-4 façon d’arriver sur cette page. Si c’est le même contenu sur une même URL ça ne pose pas de soucis, sinon une même page lue par google quotidiennement serait vite mal classée par ce dernier (or il passe plus d’une fois par jour sur chaque site/blog donc tout le monde serait assez mal classé). Je pense donc que tu te trompe de sujet ;)

  5. Mais en soit, quel intérêt d’avoir plusieurs liens vers une même page ?

    Google prend en compte chaque lien, alors pourquoi lui donner à manger ce qu’il a déjà goûté (et digéré ^^) ?

    J’ai trouvé des blogs (dans les plus lus) qui ne donnent qu’un lien par article, et mettent en nofollow le « x commentaires », par exemple. Je pense que cela donne plus de valeurs au lien déjà fait (anchor et title).
    A côté de ça, presse-citron donne un maximum de liens à gg, ce qui va dans le sens de l’article. Nuage de tags, catégories, etc. Le tout en « index, follow », aucun rel nofollow.
    Ceci dit, eric n’est pas forcément le meilleur référenceur (son talent ne réside pas là).
    Une vieille vidéo de Otto (dans ces débuts, c’en est d’ailleurs assez drôle) qui explique des notions de référencement assez intéressantes :
    -http://www.chauffeurdebuzz.com/screencast+1+accessoweb+de+philippe-725

  6. Salut Christophe !!!

    Personnellement, je pense qu’indexer une page du genre http://www.blog.com/tags/liste_articles, cela ne sert à rien… « Follow », oui mais « Index », non !!!
    Je pense que demander à Google d’indexer toutes les pages « tags », « catégorie », « date », etc… fait plus de mal que de bien (malgré le fait que cela favorise le positionnement sur Google pour certains mots clés) et cela fatigue le robot :)

    Sinon, on se comprend bien, le bon usage des liens et de l’attribut « follow » dans l’HTML () sert à offrir plusieurs façon d’arriver sur la page finale (celle de l’article). De plus, ils sont comptabilisés et donc pris en compte dans l’algo de Google.

    Par contre, on n’est pas d’accord sur le problème du double contenu. DEFINITION -comme tu le dis, c’est avoir le même contenu pour plusieurs URL. J’essayais juste d’expliquer que… euh… Disons que tu as 5 articles, tous classés sous la catégorie CatA et la catégorie CatB avec les mots-clés TagA et TagB – les url http://www.blog.com/categorie/catA/ et http://www.blog.com/categorie/catB/ et http://www.blog.com/tag/tagA/ et http://www.blog.com/tag/tagB/ auront donc un contenu [presque] similaire car ils contiennent les mêmes articles, c’est là que cela pose problème… C’est pour cela qu’il ne faut pas indexer ces pages.

    Bref !!!
    A débattre en tout cas… Qu’en pensent les autres ??

    Et puis, un coucou amical… On ne va pas s’engueuler quand même :)

    *****************
    Djoh >> Il ne faut confonre l’utilisation du nofollow dans le lien HTML et l’utilisation du follow/nofollow dans le métatag, c’est complétement différent.
    L’intérêt d’avoir plusieurs liens dans une page, c’est pour l’algo de Google (qui compte les liens sortant/entrant).

    Par contre, cela pose problème lorsque tu demande à Google d’indexer chaque page !!! Là, il perd son temps, tourne en rond pour crawler des pages inutiles (genre catégorie/date/tag) qui comprend des articles répétés au lieu d’aller directement sur la page de l’article lui-même.

  7. peperuka > Je ne confonds pas, j’utilise les 2 et pour des raisons bien précises. Le rel nofollow sur des liens externes évitent d’y faire partir le robot et de transmettre un peu de ton PR (c’est une image).
    Un rel nofollow en interne, par contre, permet de mieux orienter le robot. Si une page de tag doit bien être crawlée (pas de rel nofollow, pas de blocage par robots.txt), elle ne devrait pas forcément être indexée (robots:follow, noindex).

    Pour le duplicate, le débat reste ouvert. Si de gros sites utilisent le noindex ou n’affiche qu’un résumé, d’autres gros sites choisissent par contre de tout balancer à gg.

    Il ne faudrait pas non plus donner trop d’importances à ces techniques de référencement. Si plaire à google peut potentiellement avoir un intérêt, il n’empêche que le contenu reste roi. Les BL viennent en 2e position – il reste les techniques sus-citées en 3e position (par ordre d’importance).

  8. C’est un bon résumé Djoh, le « contenu reste roi »…

    Et toi, que fais-tu, tu indexes tout ou juste le minimum ??
    En tout cas, j’ai constaté après avoir lu quelques forums de pros que la méthode utilisée est d’indexer le strict minimum.

    Pour ma part, j’indexe le strict minimum mais je fais un follow quand même sur tout. Ensuite, je minimise quand même le nombre de lien externe par article, j’utilise parfois « nofollow » et j’évite de mettre le lien en début d’article (avant la coupe) pour pas que le lien apparaisse dans ma page d’acceuil. Et pas de « nofollow » pour les liens internes.

  9. @Djoh >> Mais en soit, quel intérêt d’avoir plusieurs liens vers une même page ?
    Parce que tu ne sais pas forcément par ou le robot arrive sur ton blog. Il pourra très bien arriver sur l’accueil comme directement sur un article précis, … et plus l’article est ancien moins le robot passera dessus (priorité à la fraicheur). Donc proposer des moyens d’accéder à de vieux billets (notamment via les billets similaires, …) pourra aider à ce que le moteur reprenne en compte cette page oubliée.

    @peperuka >> bien sûr que non on va pas s’engueuler héhé ;) Je ne prétend pas avoir la bonne solution non plus, c’est intéressant d’avoir tous les points de vue (je ne suis qu’un perpétuel étudiant comme tout le monde).

    Pour reprendre ton exemple : http://www.blog.com/tags/liste_articles ne sert en effet à rien telle quelle mais permet de proposer au moteur plusieurs articles à crawler. Prend l’exemple d’une page de tags sur Monetiweb (http://blog.cozic.fr/tag/referencement), tu propose ici 7 articles à aller lire. Clic sur l’un des articles et tu retombe bien sur l’url de base et non une URL incorporant un /tag/ quelque part ;)
    C’est comme les articles similaires sous un billet mais imagine comme ça pourra aller vite si tu utilise un nuage de tags d’une cinquantaine de terme par exemple.

    Or ça ne va pas jouer du tout sur le duplicate puisque seuls sont proposés des intro aux billets et que le billet complet n’est jamais accessible sous 2 URL différents .

    Quand à la fatigue du moteur j’avoue ne pas savoir, mais si ton blog n’est pas trop lourd, que ta vitesse de publication est honnête et que tu permet un maximum de points d’entrées comme ceux que je donne je ne pense pas que ce soit si dérangeant que cela et si c’était le cas il y a toujours moyen de forcer les moteurs à passer un peu plus souvent (mais c’est un autre débat).

  10. Puisqu’on parle d’Otto, qui est un pro en référencement, quasi toutes ses pages sont indexées, pas de nofollow sur les liens internes, et des tas de lien internes menant vers des billets, tags et catégories ….

    Donc on arrête la parano sur le duplicate content, car pour peu que vos pages de catégorie (ou tags) soit construitent différemment de la page du billet (court extrait, sujet relatif, etc …), google indexera les 2. Là où il y a problème, c’est pour las pages de catégorie (ou tags) qui n’ont que 1 ou 2 articles, là le risque de duplicate est plus grand …

    Après chacun fait comme il veut, perso je bloque l’indexation des pages de tags mais pas des catégories. Et je suis tout à fait d’accord sur le fait qu’il vaut mieux ne mettre qu’un extrait du billet sur les pages d’accueil, tags et catégories !

    Pour le rel noffolow en interne, là vraiment j’ai du mal à croire que ça ai un grand impact !

    Mais bon, si le référencement serait une science exact, on ne serait pas là à tergiverser ^^

    Ps: et merci pour le link vers mon plugin ^^

  11. (Je n’ai pas le temps de lire les autres commentaires maintenant, désolé si je répète quelque chose qui a déjà été dit)

    Mais cet article me fait penser à ma remarque concernant l’outil de recherche Google dans ce blog :
    http://blog.cozic.fr/forum/suggestions-remarques-ou-avis/champ-de-recherche-personnalise-google/page-1

    Référencer les pages de catégories n’est pas du tout une bonne idée :
    Il y a une certaine latence (cache google) entre le moment ou la page est indexé et la page qui s’affiche lorsque l’on clique sur le résultat de la recherche.

    Autrement dit : si ce que google avait indexé à un instant T n’est plus présent à un instant T’, parce que c’était une page de catégorie qui pointait sur un article, mais que d’autres articles ont été publié depuis (et que donc l’article voulu n’y est plus) : c’est foutu !

    La personne qui arrive sur cette page par la recherche s’attend à trouver la réponse, et nada ==> Expérience utilisateur == TRES MAUVAISE.

    Pour vous en convaincre tapez « related » dans l’espace de recherche de ce site…
    2e réponse :
    monetiweb.fr :: Tous les conseils pour monétiser intelligemment …
    LapinLove404 : Même si je click rarement dessus, je vote pour les “related post” dnas le flux (Ils y sont… ifeedgood ifeedgood : des solutions existent …
    monetiweb.fr/?p=webdeux

    On ouvre la page :
    http://blog.cozic.fr/?p=webdeux

    Et paf, la réponse n’y est pas…

    Autrement dit, le blog est mal optimisé pour les moteurs de recherche !

    CQFD : L’optimisation de l’accès à toutes les pages du blog pour les moteurs de recherche = 0

  12. sylvain

    surtout que pas mal de monde ne se soucis pas de tout ça, il installent wordpress et rouler jeunesse.

    il doit y avoir des blog qui cherchent pas l optimisation et qui sont bien référencés.

    Il y a rien a comprendre des fois :)

    • Et puis, sur creatins Digg-like de qualité, comme Eldiz, par exemple, il y a une charte extrêmement stricte et la modération est très forte.Quelques règles d’Eldiz :- Pas de flood : pas plus d’un lien vers son propre site ou blog tous les deux jours ;- Ouverture d’esprit : il est impératif de ne pas poster que vers son propre blog ou site, le partage de son ou ses univers est obligatoire ;- Exigence de qualité : tout ce qui est pur buzz est immédiatement effacé.C’est dur et ça fait souvent hésiter les membres à soumettre de l’info, mais ça plait, le nombre de participants croit régulièrement et la fidélité est forte.Pour en revenir au sujet précis de ton billet, je pense que soumettre à des Digg à tort et à travers ne peut pas être productif. C’est long et ça donne une image de floodeur.

  13. [...] Sur Monetiweb – Optimiser l’accès à toutes les pages de votre blog pour les moteurs de recherche [...]

  14. TeChn4K

    il va falloir arrêter avec les nofollow et noindex !
    Ça en devient paranoïaque !

    Si votre blog est varié, et traite de nombreux sujet, vous n’avez aucune crainte d’avoir du duplicate contente entre la home page et les archives
    En effet, si un même sujet est traité tous les 5 articles du blog. La rubrique de cet article n’aura pas de doublons avec la home page ! Pourquoi privé google et donc les visiteurs de ce nouveau contenu ! Cela fera 2 entrées potentielles vers vos billets :)

    Si en plus vous organisez bien vos tags pour qu’une même série d’articles n’apparaissent pas 2 fois sur le blog, c’est que du bénèf :)
    Moi j’ai 4 entrées sur mon blog : home page, archives, tag et billets. Parce que je n’aurai que rarement 2 billets cote a cote sur 2 pages différentes !

    je pense que ce raisonnement est facilement compréhensible et très bon pour le nombre de visiteurs.

  15. juste pour t’exprimer ma gratitude pour tes conseils que tu nous offres. je souhaite longue vie à ton blog.

© 2006-2017 Frédéric Cozic  
Propulsé par Wordpress sous licence Creative Commons