Dans mon précédent article, je présentais un Top 5 des titres d’articles les plus courants sur les blogs. Il faut maintenant expliquer pourquoi les mêmes titres reviennent toujours, et ce que cela traduit. Blogueurs d’horizons divers, sites de divertissement, webmarketeurs, sites spécialisés reconnus et, de plus en plus, les journaux en ligne utilisent des titres et des articles du même genre, réutilisant les mêmes structures éculées. Pourquoi ce consensus mou ? Les acteurs du web tombent-ils dans la facilité ? Est-ce une obligation ? Quels risques et quelles alternatives ?
Sans blâmer les pratiques et les acteurs (ou presque), tentons d’y voir clair.
La dictature du référencement naturel
La première et principale raison expliquant la redondance de structures de titres similaires, c’est bien sûr le référencement naturel. Et d’autant plus avec l’hégémonie quasi-totale de Google qui soumet tous les sites exactement aux mêmes critères.
J’ai pas trouvé mieux pour symboliser une balise title…
L’importance du titre dans le web sémantique
Explication simple pour ceux qui ne connaissent rien au SEO (car ce blog se veut didactique parfois, mais les autres peuvent passer ces 3 paragraphes) : pour être bien référencé sur Google et ressortir dans les premiers résultats sur un mot clé donné, il faut « optimiser » les pages de son site web en fonction des critères de l’algorithme de Google qui classifie automatiquement les pages. C’est une partie essentielle du travail des responsables SEO (Search Engine Optimization).
Le moteur de recherche repose sur des principes sémantiques. Ainsi, si le contenu de la page est jugé en accord avec les mots-clefs recherchés (grâce à son champ lexical, la pertinence des infos, la structure…), la page remonte dans les premiers résultats sur cette recherche. Ainsi, l’élément principal pour positionner la page, c’est le titre (la balise <Title> en HTML.). Forcément, on se fie toujours au titre pour indiquer le contenu d’un livre, d’un chapitre ou d’une page, Internet fonctionne de la même façon. Parfois le titre est trompeur ou les mot-clefs inclus de manière trop bourrin dedans, et si Google s’en rend compte (ce qu’il fait de mieux en mieux grâce à Google Penguin, améliorant l’algo du moteur), il pénalise la page concernée ou parfois l’ensemble du site.
Ce basique du référencement naturel posé, on comprend mieux pourquoi certaines structures de titres reviennent si souvent. Le but est de caser l’ensemble des mot-clefs importants sur lesquels on veut positionner la page dès le titre. Idem pour les sous-titres au sein de la page qui jouent un rôle important aussi (en HTML, les balises h1, h2 etc.), car évidemment on ne peut ni ne doit tout mettre dans le titre. Forcément, on en revient vite aux mêmes structures qui fonctionnent bien, même malgré soi. Les référenceurs s’appuient en outre sur une batterie d’outils pour être certains de se positionner sur les mot-clefs les plus recherchés par les internautes (Google Trends, Google Adwords) ainsi que différents outils de suivi pour vérifier les pages qui remontent bien sur les mots-clefs concurrentiels.
Ce phénomène d’uniformisation des titres est aussi renforcé par le fait que les rédacteurs d’articles et autres community managers font souvent partie d’un microcosme à l’intérieur de la toile. Ils appliquent donc les mêmes recettes déjà éprouvées. Même malgré eux. Chacun trouve son style d’écriture à la fois en lui-même et selon l’environnement dans lequel il évolue. On se copie donc parfois un peu, même sans s’en rendre compte. Et puis c’est plus facile et le temps presse, il y a encore 3 articles à boucler pour le soir même. (D’ailleurs, Google favorise une haute fréquence de nouveaux contenus ce qui pousse les sites à créer des articles un peu vides pour remplir les périodes de creux et ainsi capitaliser leur positionnement.)
On peut parler de dictature de Google… mais rien à voir avec Big Brother (pour cette fois).
Conséquences de la googlisation du web
Ce fonctionnement sémantique du web, aussi efficace qu’utile, ne l’était pas forcément avant l’avènement des moteurs de recherche. S’il semble naturel, peu de monde s’attarde à dénoter ses effets pervers.
Ainsi, si les titres deviennent toujours les mêmes pour le SEO, l’effet inverse a lieu sur les recherches des internautes. Une tendance globale de standardisation des recherches a lieu malgré nous. Les internautes comprennent, parfois inconsciemment, le fonctionnement de Google et effectuent leur recherche en fonction pour avoir le résultat qui leur semble le plus probant. C’est à la fois diablement efficace et une dictature de la masse, et tant pis pour la richesse du vocabulaire. Par exemple , si vous voulez acheter une belle étoffe, il sera plus efficace d’entrer le mot « tissu » que « étoffe » car les sites spécialisés se sont référencés sur le mot le plus souvent tapé. Mais il est évident que le fait de l’avoir fait renforce la dominance d’un terme sur l’autre. Ce phénomène favorise pratiquement toujours des termes simples et descriptifs, ou des anglicismes et autres expressions trop hype. Les recherches sur des termes concurrentiels sont donc remplies de sites e-commerce et/ou éditoraux d’un même groupe (coucou TripAdvisor) et les termes plus complexes souvent réduits à des propositions de définitions sur l’internaute ou wiktionnary. Et tant pis pour la sérendipité.
Un autre point important qu’il faut soulever, c’est que cette course au référencement dénature certains médias et certains contenus. Les journaux en ligne se concurrencent. Et ils vivent souvent du nombre de pages vues et des revenus publicitaires que cela génère, il devient obligatoire de réfléchir les titres, et même parfois les contenus, afin de ramener du clic. Au point d’en perdre de l’identité. Ainsi, les titres décalés qui faisaient l’identité de Libération ont dû disparaître pour permettre au site de vivre sur le web. Imaginez si les standards du SEO avaient été appliqués aux temps glorieux du journalisme : Zola n’aurait pas titré J’accuse… mais Emile Zola clash Félix Faure ! et le scandale du Watergate n’aurait pas éclaté, l’article du Washington Times ayant été déclassé par le robot de Google après avoir repéré les mots Deep Throat dans l’article.
… Bon OK, j’exagère un peu. N’empêche que ça dénature et appauvrit le travail journalistique. Et ça oblige en plus les journalistes à abandonner des sujets sous la pression du cyber-audimat (la rubrique Passage à l’acte sur Rue89 par exemple) ou à tourner autour des mêmes sujets sans intérêt informatif réel, dans le but de faire du fric et de survivre dans un monde très concurrentiel. Ainsi, Slate choisit de faire des dizaines et des dizaines d’articles sur Game of Thrones, tandis que les articles traitant de sexualité sur Rue69 en viennent à dépasser l’ensemble des autres sujets traités par Rue89.
Félix Faure aurait répondu : « La France, représente ! Nique la justice, Dreyfus tu peux pas test ! »
Ce tableau un peu sombre montre la prégnance des logiques SEO sur les titres d’articles et parfois sur les contenus. Le web étant grandement bâti autour de la sémantique, peu de chance de résister à cette entropie. D’autant plus avec la concurrence qui fait rage et oblige à créer toujours plus de contenu, plus vite et à épuiser ses « adversaires » dans la course au positionnement sur des mot-clefs importants.
Cependant, d’autres formes de titres existent, qui ne s’engluent pas forcément dans la structure parfois trop normative du SEO. Mais le besoin d’être lu étant le même, c’est alors la viralité qui est recherchée… comme on le verra dans le prochain article.