Oui, vous avez bien lu : « Une offre écoresponsable de référencement naturel » — moi aussi, si j’avais lu ces mots il y a quelques années encore, j’aurais ricané. Mais aujourd’hui après avoir vu les pratiques évoluer, la stratégie de netlinking(*) devenir prépondérante, la course aux contenus frais s’accélérer de plus en plus… Et, en parallèle, comme beaucoup, pris conscience de l’impact environnemental de NOS serveurs. Aujourd’hui, je me dis que ce n’est sans doute pas aussi idiot que ça et que peut-être quelques confrères bienveillants, amateurs éclairés, webmasters.... enfin tous ceux qui entendent les techniques SEO seraient peut être ouvert à en discuter, voire à compléter avec leurs bonnes pratiques ?  

Bien sûr le numérique, et le marketing digital ont un très mauvais bilan carbone, ce ne sera jamais une activité sans conséquence, mais, dans la mesure du possible l’on peut s’efforcer de ne pas inutilement charger le passif en réfléchissant un peu à l’impact de ce que nous publions et faisons.  

Alors, je me lance dans ce que pourrait être une offre de SEO écoresponsable. En listant un certain nombre de bonnes pratiques propres à limiter l’impact des actions d’optimisation de la visibilité.

(*) Qu’est-ce que le Netlinking ?
Le netlinking  ou tissage de lien est une stratégie consistant à mettre en place un maximum de liens depuis des domaines ayant autorité afin de gagner en positionnement.

Netlinking : Éviter les sites-usines à liens

Le plus flagrant sans doute de l’impact environnemental du référencement naturel est sans doute la profusion de « sites d’information » qui ne sont que des fermes de liens dans une claire optique d’amélioration du netlinking. Outre le peu d’intérêts utilisateurs, cette forêt de blogs wordpress truffés d’articles insipides, consomme une énergie dingue pour rien.

-> Nous privilégions, dans une stratégie de netlinking les contenus de vrais blogueurs, les partenariats avec la presse, les clients, les fournisseurs…  

Netlinking depuis les réseaux sociaux

Là encore l’algorithme de Google a, indirectement, un impact environnemental colossal. Un lien vers une page depuis un post populaire sur Twitter par exemple va bénéficier au positionnement de cette page dans les résultats de Google. De son côté Twitter accentue le mouvement en favorisant les contenus « aimés » ou « retwittés ». Alors, pour être sur d’être visible les comptes se reprennent se répondent, voire pire encore recours à un service de publication automatique qui arrosent les utilisateurs d’URL sans intérêt. Dans le pire des cas, l’on trouve encore des « accélérateurs de communauté » qui pilotent contre quelques dollars des flux d’utilisateurs fantômes souvent venus de pays à « bas coût ».

-> Choisir ses réseaux sociaux et les animer correctement dans un souci de pertinence sans multiplier les comptes.

Rapports Référencement naturel et Netlinking chaque matin

Il existe bon nombre de services en ligne comme Semrush, Majestic… qui propose de mesurer à intervalle régulier votre position dans les résultats de recherche et le nombre et la nature des liens entrants qui pointent vers vos pages. Quelques applications existent aussi pour aboutir peu ou prou au même résultat. Les deux solutions ont le même impact, elles déclenchent à chaque génération des appels en masse vers Google pour calculer la position des pages. Selon la technologie utilisée, un service de résolution de Captcha* est parfois utilisé créant des requêtes intermédiaires pour transmettre les informations au robot ou au pauvre bougre qui va se charger de résoudre le Captcha* ! Et bien sûr, lorsqu’il s’agit d’une application en ligne, les données sont stockées sur les serveurs du prestataire.

(*) Qu’est-ce qu’un Captcha ?
Test destiné à prouver que l’utilisateur est humain. Le captcha est basé sur les test de Turing ( cf : https://fr.wikipedia.org/wiki/CAPTCHA )

-> Réduire la fréquence des scripts de suivi SEO/SERP/Netlinking… et mesurer d’abord les résultats. Limiter le nombre de mots clefs surveillés.

Compresser, optimiser, purger, optimiser sans cesse le code… et en plus c’est bon pour le SEO !

Aujourd’hui, l’offre d’hébergement est telle que la tentation est grande de pallier les défaillances logicielles par une armée de serveurs. Les liaisons de bonne qualité se généralisant, là aussi la tentation est grande pour les graphistes et intégrateurs de faire l’impasse sur l’optimisation des médias. Beaucoup de versions archivées « au cas où » sont encore en ligne et affichent des contenus zombifiés. L’impact environnemental des contenus obsolète est d’autant plus important que totalement inutile.

L’aspect performance est aujourd’hui clairement indiqué comme un critère pris en compte par les moteurs de recherche alors pourquoi pas en profiter pour faire un peu de ménage dans les données en ligne ?

Rien de révolutionnaire dans ces pratiques qui vont même dans le sens des recommandations généralement entendues quand il s'agit de "bonnes pratiques" (ou "white hat SEO"). Rien qui ne changera le monde non plus, mais dans l'esprit des colibris la communauté des professionnels du référencement peut prendre sa part.