10 erreurs SEO à éviter

desaveu lien google
Désavouer des liens, efficace ou pas …
13 janvier 2015
robots-txt
Un fichier robots.txt pour votre CMS WordPress
19 janvier 2015

10 erreurs SEO à éviter

seo-erreurs

Le grand jour est enfin arrivé! Votre site flambant neuf est prêt à être mis en ligne et soumis au jugement des internautes, mais aussi et surtout, à celui de Google.

Êtes-vous sûr d’avoir mis toutes les chances de votre côté concernant le SEO de votre site ? Vraiment ? Regardons quand même de plus près les 10 erreurs SEO à éviter.

 

Erreur 1-Bloquer le crawl du site via le robots.txt

En phase de développement, il est recommandé de ne pas laisser Google accéder au site, ainsi il n’indexera pas des pages ayant vocation à disparaitre car elles ne sont au final que de simples tests.

 

Dans certains CMS comme WordPress notamment, il y a une case que l’on peut cocher ou décocher à loisir et qui empêche l’indexation de votre site par les robots crawlers.

bloquer robots wordpress

Plus généralement, si votre robots.txt contient les deux lignes suivantes :

User-agent: *
Disallow: /

Alors, il y a peu de chance que votre référencement soit particulièrement performant.

Erreur 2- Créer du contenu exclusivement pour l’internaute

Le flash, c’est magnifique! Et le JavaScript, c’est vraiment très pratique !

Google a certes fait de très gros progrès dans la façon dont il comprend et interprète les sites Internet. Sauf que … mieux vaut parler son langage et lui mâcher le travail au maximum. Le flash n’est pas lu par Google et le JavaScript n’est pas toujours correctement interprété même si Google a fait des progrès énormes sur ce dernier point.

Sauf cas exceptionnel, limitez l’usage du flash et du JavaScript. Une bonne solution pour se mettre à la place de Google est d’utiliser le plugin quick java pour Firefox et de désactiver le flash, le JS et les cookies.

Faire le choix de l’esthétisme pour votre site c’est bien, mais ne négligez jamais le SEO car ce sont des robots qui déterminent le classement votre site et il le font d’après un algorithme. Gardez bien à l’esprit qu’un crawler n’est pas un browser (navigateur) ! Et c’est d’autant plus vrai que le navigateur aura toutes les fonctions de compatibilité sur ON.

Erreur 3- Faire une refonte sans réaliser un plan de redirections 301

C’est hélas un grand classique … J’ai déjà récupéré un site qui venait de faire sa refonte, l’agence responsable de la refonte n’avait pas pris la peine de réaliser un plan de redirection avec les conséquences que je vous laisse imaginer.

La redirection 301 de la page A vers la page A’ est la seule façon de conserver l’historique et les liens pointant vers une page A lors d’une refonte de site et de les transférer à la page A’.

Si vous ne réalisez pas de plan de redirection lors d’une refonte et si vous ne le mettez pas en pratique via votre .htacess par exemple, votre SEO en pâtira.

Erreur 4- Indexer le domaine de test

La plupart des sites pro Internet fonctionnent avec un site test encore appelé preprod qui reprend le domaine principal sur un sous-domaine (text.example.com ou preprod.example.com) et qui, de fait, permet d’effectuer tous les tests et d’assurer la compatibilité des mises à jour avec l’existant.

Un développeur avisé n’en aurait pas fait moins. Sauf qu’il ne faut pas raisonner exclusivement comme un développeur pur et dur mais inclure Google dans l’équation et donc le SEO. En effet, Lapalisse vous l’aurait dit ainsi : »Dupliquer intégralement votre site va créer du duplicate content. » Imparable …

Et c’est d’ailleurs ce qui se passe trop souvent :

 

preprod

Pour ne pas indexer votre preprod, vous avez plusieurs options à votre disposition :

  1. Utiliser la balise NOINDEX sur l’ensemble des pages de la preprod. Solution efficace mais qui présente le risque de voir ces mêmes balises « glisser » sur le domaine principal lors d’une mise en production, avec des dégâts collatéraux qui seront d’autant plus grands que l’on mettra du temps à le retirer …(voir la suite)
  2. Restreindre l’accès à la preprod à une gamme d’IP, votre IP locale et celles de vos prestataires, Google crawlant toujours à partir d’une IP donnée, il lui sera impossible d’accéder à votre préprod et donc de l’indexer. C’est de loin la solution la plus efficace et la moins contraignante.

Le fait de bloquer le crawl du GoogleBot via le robots.txt ne garantit pas la non indexation de celle-ci car Google continuera à voir et indexer ces pages par le biais de son navigateur Chrome et de tous ceux qui utilisent une google tool bar ou autre « spyware » – je ne voyais pas de meilleur qualificatif ! – de Google.

Erreur 5- Désindexer les mauvaises parties de votre site

Le point 4 vous a montré comment une balise NOINDEX peut malencontreusement atterrir sur votre site. Mais il ne faut pas oublier que l’on peut aussi placer des balises NOINDEX sur des pages que l’on juge de faible qualité ou encore à destination exclusive de l’internaute et non des robots. Et c’est tout à fait louable, mais faites tout de même attention à ce que vous désindexez : j’ai ainsi le souvenir d’un article paru sur un site traitant de wordpress qui recommandait de désindexer les catégories pour ne garder que les produits ! Quand on sait que les pages de catégories ou pages de navigation sont fondamentales pour « ranker » sur les requêtes Middle Tail, il y a de quoi se poser des questions sur la pertinence de leur désindexation.

 Erreur 6- Acheter des blasts sur internet ( 100 000 liens pour 20 €) ou auprès de certaines agences, certains Freelance …

Ah les blasts … Tout ça fleure bon le SEO pré-penguin et d’une manière générale le SEO des années 2000-2010. Une époque totalement révolue, je le dis, quitte à me mettre à dos les nostalgiques de cette époque. Croire qu’en 2015, on peut encore « ranker » avec ces pratiques d’un autre temps est une erreur monumentale qui n’aura qu’une seule conséquence, la pénalisation par Google de votre site Internet.

Le SEO est devenu beaucoup plus complexe et aussi beaucoup plus couteux. Fuyez comme la peste ce genre de prestation low cost et surtout low quality …

Erreur 7- Voler le contenu d’un site à forte notoriété

En voilà une mauvaise idée! Google exècre le contenu dupliqué (duplicate content). Dupliquer le site d’un compte à forte notoriété, c’est prendre le risque d’une sanction de la part de Google et plus particulièrement de l’algorithme Penguin.

La solution est bien sûr d’éditer votre propre contenu afin d’assurer son unicité.

Si l’on s’intéresse au cas de voyagistes sur Internet, on s’aperçoit très rapidement qu’ils ont tous plus ou moins le même contenu de base, celui qui leur est fourni par les hôtels dans lesquels ils comptent envoyer leurs clients.

Comment se démarquent-ils ?

Il n’existe pas de solution miracle mais, à y regarder de plus près, les voyagistes soucieux de leur SEO proposent :

– des avis clients sur les séjours, croisières, vols, hôtels, etc… avec une notation (ou pas).

– un texte annexe qui apporte des informations sur les lieux, les tendances, le pays ou tout renseignement utile au séjour.

– un graphe d’évolution du prix selon la saison, un graphe d’évolution de la météo, etc …

Erreur 8- Ne pas gérer le cycle de vie du produit

Admettons que l’on soit en présence d’un site ayant environ 3 000 produits à présenter à ses internautes. Ces 3 000 articles ne vont pas rester indéfiniment en rayon.  La mode, l’obsolescence, un changement de nom sont autant de contraintes qui auront pour résultat une disparition de la page produit ou bien un changement d’url.

Ne pas gérer le phénomène de façon SEO c’est laisser le nombre de code retours 404 exploser!  A chaque passage du Googlebot sur le site, ce dernier ne pourra que constater le nombre croissant de 404 (pages non trouvées) avec pour conséquence de rendre le site moins pertinent à ses yeux.

Dans l’immense majorité des cas, une redirection 301 permet de résoudre le problème; rarement et dans des cas spécifiques, la 410 peut être envisagée.

Erreur 9- Créer une navigation infinie par le biais des facettes

La navigation par facette est particulièrement en vogue sur les sites e-commerce.

 

facettes

Pour l’utilisateur c’est sans doute un réel plus – notamment pour un site e-commerce vendant des chaussures – de pouvoir en quelques clics sélectionner la marque, le type de chaussure, la pointure, la couleur, etc…

Du point de vue du SEO, cela induit un certains nombre de problèmes à gérer car on peut très bien se retrouver avec une infinité d’url comme :

sitedevente.com/marque-%variable%/%modèle%/%pointure%/%couleur%/%etc%/…

sitedevente.com/marque-%variable%/%pointure%/%modèle%/%couleur%/%etc%/…

sitedevente.com/marque-%variable%/%couleur%/%pointure%/%modèle%/%etc%/…

 

Selon la séquence choisie par l’internaute, tout est possible. Ainsi on se retrouve avec une multitude d’url désignant une seule et même page et pour Google c’est loin d’être optimum. Ainsi un site disposant de 1500 références en magasin peut se retrouver avec plus de 300 000 urls pour la plupart dupliquées !

La solution passe le plus souvent par la mise en place d’un rel canonical ou encore un ordre imposé dans la génération de ce type d’url.

Il faut également noter que beaucoup de sites e-commerce n’ont pas « ouvert » leurs facettes au crawl de GoogleBot résolvant ainsi de façon drastique le problème. De même, vous n’êtes pas obligé d’ouvrir la totalité des facettes, à moduler selon vos besoins.

 Erreur 10- Ne pas investir dans des serveurs adaptés à votre trafic

Un serveur lent ou sous dimensionné c’est l’assurance d’avoir de très mauvais résultats en SEO. Certes, le volet performance ne peut pas vous faire gagner à lui seul la bataille du SEO mais il peut à coup sûr vous faire perdre. On sait que si l’internaute ne peut accéder au contenu en mois de 6 à 8 secondes alors il s’en va voir ailleurs. Un site rapide c’est un site qui génère plus de chiffre d’affaire.

Du point de vue du GoogleBot, plus le site est rapide et plus le Bot verra de pages lors d’un passage ce qui peut être déterminant pour un site à forte volumétrie. Si le serveur est réellement sous dimensionné, il risque de ne pouvoir satisfaire la demande et donc de renvoyer une erreur 500. Sachez qu’il n’existe pas de pire erreur pour le Googlebot! En effet, si  ce dernier voit que le serveur lui renvoie une erreur 500, alors il considèrera qu’il a « fait tomber » le serveur.En réaction, il viendra moins souvent, moins longtemps et crawlera moins de pages

 

Fabrice PEZOUS
Fabrice PEZOUS
Dans la vie, j'ai un métier et une passion : le SEO ou référencement de sites Internet que j'exerce en tant que Consultant Freelance SEO. J'ai travaillé pour des TPE, des PME, des Pure Players dans des domaines variés comme l'assurance, les loisirs (voyage,sport), la restauration, etc Si vous avez un site Internet avec des soucis de SEO, contactez moi, je peux vous aider.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *