Certaines pratiques peu scrupuleuses mettent à mal la notion de « pertinence des contenus », critère majeur de référencement. Les moteurs de recherche évoluent et mettent en place la riposte.
Pertinence des contenus et mine d’informations
Qui se soucie encore du champ « Méta keyword » ? Ce qui fut jadis une balise incontournable pour le SEO sombre dans l’oubli. Le bourrage de mots clefs (leur utilisation à tort et à travers pour générer du trafic), a été sanctionné par les moteurs de recherche. L’évolution des critères de référencement a fait émerger (entre autres) la notion de pertinence des contenus. D’un point de vue technique, l’optimisation des contenus se base sur l’exploration d’un large champ sémantique. Les balises H (titres et sous-titres) ainsi que des balises « strong » et méta-balises servent de point d’appui aux algorithmes de référencement. Ils sont la forme nouvelle que revêtent les fameux mots clefs et leurs déclinaisons. Objectif : offrir à l’internaute un contenu web pertinent, qui réponde au mieux à ses requêtes. Dans le domaine de l’E-commerce, cette multiplication des contenus a du sens : il faut bien s’appliquer à répondre aux nombreuses questions des acheteurs, pour réduire un peu plus l’écart entre commerce traditionnel (le vendeur répond face à face) et commerce en ligne. Cette anticipation des interrogations de l’internaute et de son besoin d’information ouvre d’intéressantes perspectives tant quantitatives que qualitatives, à condition d’y mettre les moyens et de ne pas tomber dans le piège de la facilité.
Rédaction optimisée à peu de frais
Du contenu web de qualité, bien balisé, non dupliqué, en permanence… La course s’est emballée. Blogs et rubriques doivent être alimentés en continu, pour retenir l’attention des moteurs de recherche et créer au passage des opportunités de netlinking. Mais le cercle vertueux subit déjà de nombreuses déformations : contenus pauvres voire bidons, rewriting à la limite du pastiche, rédaction automatisée…
Un contenu optimisé mais pauvre
« Recherche personne pour créer des commentaires », une dizaine d’euros pour un texte de 400 mots, des tarifs proches de 0,01 à 0,02 centimes d’euros par mot… l’écriture web se modèle avec souplesse et se monnaie âprement sur les plateformes en ligne, qui jouent le rôle d’interface entre prescripteurs et rédacteurs freelance. Un tel niveau de rémunération, pour un freelance français, implique fatalement une rédaction rapide, largement inspirée de textes existants et au final peu élaborée. Pour le client néanmoins, le texte existe et, s’il sonne creux, il répond bien aux critères d’optimisation. A ce prix, difficile d’exiger davantage. A moins que… On peut constater que la loi de l’offre et de la demande fait son œuvre, l’écriture web se délocalise, en Afrique du nord par exemple, ou à Madagascar… où les tarifs sont nettement plus compétitifs. Au bout du compte, c’est une véritable industrialisation des processus de rédaction qui se dessine, capable de générer une masse de contenus optimisés. La pratique du cocon sémantique (des centaines de textes sur un thème, pour en explorer tout le champ lexical) est symptomatique de la prééminence du quantitatif, bien souvent aux dépens du qualitatif.
Rewriting ou pastiche ?
Créer un contenu pertinent, de qualité et qui plus est authentique, demande du temps. Face aux publications des concurrents, il faut réagir vite. Dans l’urgence, une solution pratique et peu onéreuse, à défaut d’être originale, consiste à s’approprier les sujets déjà traités, on les réécrivant. Ce fameux rewriting s’apparente de plus en plus à une forme de « contrefaçon littéraire ». Le travail de compilation et de synthèse de multiples sources concordantes est de plus en plus souvent remplacé par la réécriture pure et simple d’un article, à grand renfort de synonymes et de tournures syntaxiques rectifiées.
Le pur SEO, sans valeur ajoutée, sanctionné
Face aux pratiques qui consistent à ajouter du contenu au contenu, sans valeur ajoutée, Google a déjà déployé des algorithmes spéciaux, qui permettent de sanctionner les contenus faibles. On connaît Google Panda, qui repère les textes dupliqués, hors sujet ou trop mal écrits. Certains sites évoquent aussi l’existence de Phantom, dont l’existence n’a pas été annoncée officiellement par Google. Comme Panda, il est conçu pour repérer les contenus de faible qualité. Les spécialistes du secteur rapportent également des faits de « pénalités manuelles », appliquées par une équipe de personnes (Google quality search team), chargées de vérifier d’une part la pertinence des résultats de recherche et, d’autre part, la bonne qualité des contenus web, avant d’appliquer d’éventuelles sanctions de déclassement. Cette pratique est encore sans doute marginale, mais elle manifeste la clairvoyance du moteur de recherche (en l’occurrence Google). De la pertinence des contenus dépend la crédibilité de ses pages de résultats. Le site officiel de Google, sur sa page dédiée aux actions manuelles fréquentes, vise clairement le « contenu peu informatif, qui ne présente que peu ou pas d’intérêt ». Dans ce cas, le moteur de recherche avise le webmaster du site incriminé, en quelques lignes, accompagnées d’une série de modifications à réaliser, avant de bénéficier d’un nouvel examen. Beaucoup de travail à reprendre et d’ennuis en perspective. La rédaction SEO en grande quantité et à peu de frais peut être profitable, mais à court terme seulement.