Knowledge Based Trust : vers un nouveau système de classement SEO ?

SEO
Par aboussajra
07 septembre 2015
knowledge based trust

En termes de référencement naturel, Google dispose d’un algorithme permettant d’analyser les sites web et de les classer dans ses pages de résultats de recherches (SERP). Désireux de lutter contre les mauvaises techniques de référencement et de s’adapter aux besoins des internautes, cet algorithme est très souvent mis à jour et amélioré à l’aide de nouveaux moyens de classement (Mobile-Friendly).

Système de positionnement SEO

Les résultats qui apparaissent dans les pages de Google lorsqu’une requête est entrée sont classés selon un système de positionnement définit par un algorithme. Pour définir la place d’une page web dans ces résultats, l’algorithme se base sur des critères spécifiques.

PageRank et backlinks : système de classement actuel

Le système qu’utilise actuellement Google pour positionner les pages web dans ses résultats de recherche se base sur les backlinks (liens entrants). Le concept est simple : Nous avons un lien hypertexte placé sur une page d’un site web B qui pointe vers une page du site web A. Lorsqu’une page web est citée par plusieurs autres sites via un backlink, Google le considère comme une forme de vote ce qui améliore le positionnement de la page dans les SERP (PageRank). Il s’agit donc d’un classement basé selon la popularité de la page web. Cependant, voulant à tout prix améliorer leur positionnement, certains utilisent un nombre beaucoup trop important de backlinks engendrant ainsi un spam massif qui fausse les résultats des algorithmes. De ce fait, Google est en pleine réflexion quant au déploiement d’un nouveau système de classement.

TrustRank : système de confiance

En mars 2005, Google a déposé une idée inspirée d’un article de deux chercheurs de l’université de Standford qui proposaient une technique découlant du PageRank permettant d’attribuer une note de confiance à chaque site web. Le principe est simple, il s’agit d’identifier manuellement :

  • Des sites irréprochables tels que les sites gouvernementaux ou d’université.
  • Des sites dits « pirates » tels que des spammeurs ou voleurs de contenu.

Puis, en se basant sur les liens entrants et sortants de ces deux groupes, il s’agit de définir deux parties : sites recommandables et sites non recommandables. La proximité d’un site web avec l’une ou l’autre partie permettra de lui attribuer une note de confiance : TrustRank.

Knowledge Based Trust : futur système de classement ?

Et si on classait les pages web selon leur fiabilité plutôt que sur leur popularité ? Une question que se pose Google suite à la remise en cause de l’importance de la popularité des pages acquise via les backlinks. Knowledge Based Trust serait le nom de cet algorithme capable de déceler si un contenu apporte une information véridique ou, au contraire, une information erronée ou sans intérêt. Pour ce faire, l’algorithme est basé sur une KnowledgeBase (base de connaissances) nommée Knowledge Vault. Cette base de connaissances contient 2,8 milliards de faits répertoriés par Google comme étant « fiables » (sources utilisées : Wikipédia, Freebase, CIA). Google a donc l’intention de comparer tous les sites avec les faits présents dans la base de données de l’algorithme.
Ceci génère alors un score de pertinence (tel que le score PageRank pour la popularité), qui, plus il sera élevé, plus le site apparaitra en haut des résultats de recherche.

Vers un contenu de qualité

Cette idée de Google de proposer un contenu de qualité correspond au principe de base du marketing de contenu. Ce nouveau classement serait donc une bonne chose pour les entreprises qui appliquent ce type de marketing en publiant des contenus de qualité pour leurs clients. Pour générer du bon contenu, il s’agit de :

  • Se concentrer sur l’originalité et montrer ses sources : inclure des liens vers des sources réputées. Mais, attention à ne pas dupliquer le contenu car Google sanctionne ce genre de pratique par une chute dans le classement de ses SERP.
  • Optimiser son référencement SEO et soigner le code HTML : l’algorithme cherche le contenu dans le site, de ce fait, si le code n’est pas clair, le site sera défavorisé. À l’inverse, une bonne architecture et un code HTML soigné rendront le contenu plus facilement vérifiable.

Si on résume ces deux points, pour prétendre à publier du contenu de bonne qualité, il faut être fiable et construire un site clair.

Si cet élément de classement venait à être adopté par Google, il serait alors utilisé en complément du PageRank et non en substitution car il est difficile de déployer cette fonctionnalité à l’ensemble des sites web. En effet, qu’en serait-il des contenus qui ne reposent pas sur des faits reconnus ? Google pourrait avoir du mal à les traiter pour déterminer s’il s’agit de contenus fiables ou non. Le Knowledge Based Trust rendrait cependant l’optimisation SEO encore plus importante et sérieuse qu’elle ne l’est déjà. Il ne sera plus possible de tricher pour positionner son site à l’aide d’une utilisation abusive des backlinks. Ainsi, cela obligera les propriétaires de sites web à publier des contenus pertinents de qualité et à user des bonnes techniques de référencement.

Audit SEO et référencement naturel

Le SEO est un métier impliquant expertise et expérience. Notre agence audite votre site, son positionnement et met en place les stratégies et actions, pour lui donner la visibilité dont il a besoin. Pour en savoir plus, consultez-nous.

Ajouter un commentaire

Articles similaires