État du référencement naturel (SEO) en 2016

État du référencement naturel (SEO) en 2016 - EXIT Studio

Pour le moteur de recherche Google, un seul mot d’ordre : améliorer encore et toujours l’expérience utilisateur (UX) des internautes qui réalisent des recherches sur son moteur, et ce, en travaillant continuellement sur l’optimisation des algorithmes, garants de la qualité et de la pertinence des résultats.

En ce début d’année 2016, on fait le point et on récapitule l’état du référencement naturel (SEO), après une année 2015 pleine de mises à jour des filtres et algorithmes de Google.

État du référencement naturel (SEO) en 2016 - EXIT Studio

Qu’est ce que le référencement naturel (SEO) ?

« Le terme ‘référencement’ (en anglais « SEO » pour Search Engine Optimization, pour Optimisation des moteurs de recherche) désigne l’ensemble des techniques permettant d’améliorer la visibilité d’un site web, à savoir la soumission consistant à faire connaître le site auprès des outils de recherche ; et le positionnement (en anglais « ranking ») consistant à positionner les pages d’un site en bonne position dans les pages de résultat pour certaines requêtes » — commentçamarche.net

 

Comment fonctionne le référencement naturel (SEO) ?

Dans un précédent article intitulé : « Le pourquoi et comment de l’optimisation ergonomique et de l’accessibilité des sites web », j’expliquais que le positionnement sur les moteurs de recherche est le fruit d’une collaboration entre le « bot » du moteur (lequel scanne le contenu de votre site) et son algorithme qui, sur base d’une série de facteurs, définira son positionnement pour chaque recherche spécifique d’un internaute lambda.

État du référencement naturel (SEO) en 2016 - EXIT Studio

Pour être plus clair, ce « bot » parcours votre site pour en « scanner » le contenu. Le terme anglophone « Web » signifiant « Toile », ce « bot » est souvent également considéré comme une « araignée ». Cette dernière « rampe » (crawl en anglais) et « scanne » le contenu (texte et code de votre site) en utilisant les « fils » (l’équivalent des liens entrants et sortants / hyperliens ou hyperlinks en anglais) pour se déplacer de site en site et de page en page, sur cette gigantesque « toile » que constitue le World Wide Web. Mais cette araignée est aveugle. Elle ne percevra pas votre design ni vos images. La seule manière qu’elle a de se repérer est donc de lire le contenu (texte et code) de votre site (d’où sa si grande importance). Une fois votre site ainsi « scanné », il se trouve indexé dans le moteur de recherche.

Il est à noter que les résultats qui en ressortiront pourront différer d’un internaute à un autre. Les facteurs qui influencent cette différentiation peuvent-être liés à l’historique de navigation, aux cookies (ayant préenregistrés nos habitudes et préférences), ou encore aux informations de configuration du navigateur (qui indique notre langue et notre localisation).

État du référencement naturel (SEO) en 2016 - EXIT Studio

Qu’est-ce qu’un algorithme de Google ?

Dans un précédent article, intitulé : « guide des dernières mises à jour de l’algorithme de Google », j’expliquais ce qu’est un algorithme de Google :

L’algorithme principal de Google a pour tâche de déterminer quelles pages web doivent apparaître dans ses résultats, dans quel ordre (classement), pour une requête donnée (mots-clés encodés par l’internaute dans la barre de recherche du moteur).

Au moment où un internaute encode une requête (qu’il s’agisse d’un ou d’une série de mots-clés, ou d’une question, dite « requête conversationnelle »), l’algorithme principal de Google se met à fonctionner. Sur base d’une série de critères, principalement liés à la qualité et à la pertinence du site et de son contenu, Google renvoie des résultats qui apparaitront listés sur ses pages.

Au départ, cet algorithme était assez simple et il suffisait aux développeurs d’encoder une série de mots-clés dans les balises correspondantes, pour que celui-ci apparaisse suite à n’importe quelle requête. Mais de trop nombreux abus (mise en place de techniques ayant pour but d’améliorer artificiellement le classement d’un site) ont amenés Google à revoir la complexité de son algorithme au fil des ans.

Aujourd’hui, Google prend en compte jusqu’à 200 facteurs différents pour calculer le positionnement de votre site au sein de ses résultats de recherche. Lorsqu’il ne met pas à jour son algorithme, Google en crée de nouveaux, lesquels ont pour but d’adapter l’algorithme principal aux nouveaux comportements d’internautes. Ainsi, l’algorithme Hummingbird (Colibri) fut créé dans le but d’apporter une réponse à des requêtes de plus en plus souvent réalisées sous la forme de questions (par exemple : « où trouver une boutique vegan à Liège / Comment cuisiner du canard à l’orange / etc. »).

Ainsi, on parle de « mise à jour » de l’algorithme lorsque Google effectue un changement pouvant affecter le niveau d’influence de l’un de ces 200 facteurs. Lorsque cette modification est importante, Google le baptise (Panda, Penguin, Hummingbird, etc.), sinon il n’en fait rien (et vous observez de légères variations de trafic dans vos statistiques Google Analytics). Ces mises à jour de l’algorithme sont d’une importance capitale, car selon le facteur visé, votre site peut considérablement en pâtir.

État du référencement naturel (SEO) en 2016 - EXIT Studio

Les algorithmes de Google : récapitulatif et explications

Google Panda

Google Panda a pour but de s’assurer que les sites qui publient des contenus de mauvaise qualité soient mal positionnés dans les résultats de recherche de Google. Ainsi, Google Panda permet de soumettre aux internautes réalisant une recherche sur le moteur, des résultats de meilleure qualité, avec un contenu pertinent par rapport à leur requête.

Qu’est-ce que Google considère comme du contenu de mauvaise qualité :
Lorsqu’il y a peu de contenu et/ou que celui-ci n’apporte aucune plus-value au sujet qu’il traite ;

  • Les contenus prétendument nouveaux qui sont en réalités des versions modifiées d’un article existant ;
  • Les contenus illisibles car uniquement composés de mots-clés ;
  • Les contenus dupliqués ;

Conseil : évitez de dupliquer du contenu et assurez-vous que le contenu de votre site est intéressant pour vos internautes (et réponde correctement à une question posée / une requête donnée).

Qu’est-ce que Google entend par « contenu dupliqué » exactement ?

« On parle de contenu dupliqué dès lors qu’un même contenu est accessible à plusieurs endroits sur le web. L’unité de base des documents étant la page, définie précisément par son URL, on parle de contenu dupliqué quand une même page est accessible à plusieurs URL » – WebRankInfo.com

Si vous indexez un contenu identique plusieurs fois, vous faites « crawler» (scanner) à Google plus de pages que nécessaire. Votre quota de pages « scannées » étant limité par jour, il est préférable de ne lui faire « crawler » que le nécessaire.
Si un contenu est indexé plusieurs fois, Google ne sélectionnera pas toujours le bon lien pour l’afficher dans les résultats. L’expérience utilisateur (UX) sera donc moins bonne, ce qui est mauvais pour le référencement naturel.
Si un contenu est accessible à plusieurs URL, certains internautes utiliseront une URL et d’autres une autre. Chaque page aura peu de « backlinks» (liens pointant vers cette page), ce qui est moins efficace en référencement naturel que de concentrer les efforts au même endroit.

Google Panda désormais intégré à l’algorithme principal de Google
Tout récemment (la semaine du 11 janvier 2016), Google Panda a été intégré dans l’algorithme principal de Google. Cela signifie que l’algorithme est suffisamment constant pour ne pas devoir subir de modifications et de mises à jour à répétition. Il peut donc fonctionner de manière libre et autonome. Il s’agit donc désormais d’un algorithme potentiellement en fonctionnement pour une longue durée, sans que l’on ait à s’en occuper, en opposition à un algorithme expérimental qui fonctionne pour une durée incertaine et subit des modifications. Pour Google, c’est plus pratique de le laisser fonctionner librement sans devoir s’en préoccuper, mais au final, rien n’a vraiment changé (et l’impact de Google Panda reste le même).

État du référencement naturel (SEO) en 2016 - EXIT Studio
Source : https://www.simplilearn.com/seo-strategy-in-tune-with-google-algorithm-updates-article

Google Phantom

L’algorithme Google Phantom vise (comme Panda) les sites proposant du contenu de faible qualité.

« Plusieurs types de pages ont été pénalisés. C’est notamment le cas des pages avec des contenus trop courts et des propositions de contenu additionnel de mauvaise qualité : par exemple, certains sites e-commerce avec beaucoup de visuels mais peu de contenu se sont trouvés pénalisés. Il en est de même pour les pages de listing vidéo ou à scroll sans thématique précise qui aura également un impact négatif puisqu’elles produisent par définition très peu de contenu textuel » — Journaldunet.com

Conseil : pour Google, « content is king » (le contenu est roi). Enrichissez vos contenus, offrez une analyse approfondie à vos internautes, montrez que vous maîtrisez votre sujet. Cela passe par un contenu sémantique riche et une attention particulière portée aux mots (en veillant à leurs pertinences par rapport au texte global).

État du référencement naturel (SEO) en 2016 - EXIT Studio

Google Penguin

Google Pingouin dévalue les sites dont les liens – vers d’autres sites – ont été acquis artificiellement, dans le seul but d’améliorer leur positionnement dans les résultats de recherche. Google Penguin a ainsi pour objectif de décourager les pratiques non-éthiques en matière de référencement.

Qu’est-ce que Google considère comme des liens acquis artificiellement :

  • Lorsqu’on achète et/ou échange des liens (proposer de mettre un lien vers un autre site, en échange que ce dernier accepte d’également mettre un lien vers notre site) avec un site n’ayant aucune pertinence (au niveau de la thématique) avec son propre site ;
  • Lorsqu’on s’inscrit dans une « ferme / pépinière de liens » (link farm) dont le principe est de créer des dizaines de sites qui pointent les uns vers les autres afin d’améliorer leur positionnement dans le moteur, lequel juge la qualité d’une page en fonction du nombre de liens pointant vers elle. Cette technique s’apparente à du spamdexing, en français « référencement abusif », un ensemble de techniques consistant à tromper les moteurs de recherche sur la qualité d’une page ou d’un site afin d’obtenir, pour un mot-clé donné, un bon classement dans les résultats des moteurs.

Conseil : évitez l’utilisation frauduleuse de liens (liens achetés, échangés, sans pertinence, …).

État du référencement naturel (SEO) en 2016 - EXIT Studio
https://www.simplilearn.com/seo-strategy-in-tune-with-google-algorithm-updates-article

Google Hummingbird

Google Hummingbird (ou Colibri) favorise les sites qui fournissent des réponses aux questions des internautes. Il tente ainsi d’améliorer encore davantage la pertinence des résultats fournis (principalement pour les requêtes de plusieurs mots-clés qui prennent la forme de questions) avec une meilleure compréhension de l’intention de l’internaute.

Tandis que Panda et Penguin ciblent des éléments spécifiques (le contenu et les liens), Colibri redéfinit la façon dont Google fonctionne dans son ensemble. Auparavant, Google n’avait aucun moyen de répondre à une question « conversationnelle » telle que : « Où se trouve la pizzeria la plus proche de la Place Cathédrale à Liège ? ». Les seuls éléments que Google parvenait à prendre en compte étaient les termes isolés : « Pizzeria », « Place Cathédrale » et « Liège ». Désormais, grâce à Hummingbird, Google a une meilleure compréhension des éléments qui composent une requête. Il cherchera à répondre à un problème plutôt que d’afficher des résultats pour un ensemble de mots clés.

« Parmi les autres éléments qui font partie de l’algorithme général Hummingbird, on trouve des filtres antispam bien connus des spécialistes en référencement naturel comme Google Panda, Google Penguin ou Google Payday Loan (comme les requêtes concernant les payday loan, c’est-à-dire des prêts sur salaires proposés par des organismes de crédit) » –Référenceur.be

Conseil : adaptez votre contenu et vos mots-clés à des recherches « conversationnelles » formulées en langage naturel. Assurez-vous que le contenu de votre site cherche à résoudre de vrais problèmes, à répondre à de vrais interrogations.

État du référencement naturel (SEO) en 2016 - EXIT Studio
https://www.simplilearn.com/seo-strategy-in-tune-with-google-algorithm-updates-article

Google Pigeon propose aux internautes un résultat plus pertinent et plus précis pour les recherches ciblées géographiquement. Google cherche ainsi à améliorer les paramètres de classement liés à la géolocalisation et à la distance.

« Pigeon est le nom d’une mise à jour importante de l’algorithme de Google qui a modifié ce qu’on appelle le référencement local, c’est-à-dire les résultats que remonte le moteur pour les requêtes associées à un lieu. […] Le nom Pigeon a été donné par un spécialiste américain bien connu des SEO, en clin d’œil aux pigeons qui ont la faculté de pouvoir retrouver certains lieux » – Journaldunet.com

Google Pigeon impacte les résultats obtenus sur Google Maps, mais aussi les résultats obtenus suite à une recherche classique sur le moteur de recherche (à travers, notamment, les résultats qui regroupent de 2 à 7 lieux épinglés sur une map).

État du référencement naturel (SEO) en 2016 - EXIT Studio

Les conséquences de Google Pigeon sur les résultats de recherche :

  • Pigeon a considérablement fait baisser le nombre de requêtes faisant remonter des résultats liés à une Google Map. Les groupes de 4, 5, ou 6 résultats sont toujours aussi rares. Mais le nombre de groupes de 3 résultats a augmenté considérablement, alors que le nombre de groupes de 7 résultats a baissé ;
  • La carte sur laquelle se trouvent les résultats s’est rétrécie ;
  • Certains commerces qui apparaissaient après une recherche locale ont donc pu sortir de la liste des résultats les plus visibles, Google faisant ainsi perdre beaucoup de visibilité à certains commerces ;
  • Les annuaires qui listent des entreprises et leur adresse ont gagné en visibilité sur les résultats remontés par Google. La mise à jour Pigeon a, par exemple, pu profiter à des sites comme Yelp, ou TripAdvisor, voire même Hotels.com sur certaines requêtes.

Conseil : mentionnez vos références géographiques, tentez d’accumuler les commentaires et citations positifs de la part de vos clients, enfin, inscrivez-vous sur les sites et les annuaires déjà positionnés.

État du référencement naturel (SEO) en 2016 - EXIT Studio
https://www.simplilearn.com/seo-strategy-in-tune-with-google-algorithm-updates-article

Google Mobile-Friendly

Google Mobile-Friendly (ou Mobilegeddon) a pour but premier de favoriser les sites optimisés pour les appareils mobiles (tablettes et smartphones).

Comme j’en avais fait l’analyse dans l’article « Responsive Web Design et Google Mobile-Friendly : le design adaptatif au service du référencement », le 21 avril 2015, Google a sorti la mise à jour, « mobile-friendly », laquelle pénalise les sites non « responsive » au sein des résultats de recherche sur mobile (soit tout de même près de 50% des requêtes traitées chaque jour par Google). La mise à jour fut mise en place sur une base « page par page » et non pour l’ensemble du site. Les pages « mobile-friendly » sont donc boostées mais pas les autres.

Les sites adaptés pour la consultation sur tablettes et smartphones, non content de bénéficier d’un avantage sur les sites qui ne le sont pas, bénéficient également d’un label « site mobile » (ou « mobile-friendly » en anglais) qui apparait en gris, juste à côté des résultats mobiles. Bing, le moteur de recherche de Microsoft, n’aura pas tardé à suivre son homologue et affiche également un label « Mobile-Friendly » (Pour mobile) à côté de ses résultats de recherche.

Conseil : assurez-vous que votre site soit « responsive » et ainsi, accessible sur tablettes et smartphones.

État du référencement naturel (SEO) en 2016 - EXIT Studio
https://www.simplilearn.com/seo-strategy-in-tune-with-google-algorithm-updates-article

Le filtre PayDay Loan (que l’on pourrait traduire par « rachat de crédit ») a été conçu pour combattre le spam sur les requêtes très concurrentielles. Le filtre s’intéresse aux requêtes spammées, et non aux sites « spammy ». Les secteurs les plus visés sont les sites pornographiques, les ventes de médicaments de type Viagra, le rachat de crédit ou encore les casinos, par exemple (connus comme présentant typiquement de nombreuses requêtes spammées).

[traduit de l’anglais] : « Le filtre cible spécifiquement les secteurs « spammy » où les liens et les techniques de spam sont plus extrêmes. Les techniques visées sont souvent considérées comme illégales. Par exemple, il y a des internautes qui se sont plaint de recherches telles que « prêts sur salaire / crédit » sur le moteur Google.co.uk. Nous avons donc cherché à nous attaquer (de différentes manières) à ce type de requête « spammy » (c’est-à-dire des requêtes qui amènent à obtenir des résultats très spammés). Nous allons passer de « résultats généraux » a des résultats un peu plus « propres » dans ces domaines d’activité qui, jusqu’alors, sont connus pour amener plus de « spam » dans les résultats. » — seroundtable.com

Google Pirate

Le filtre Google Pirate a été introduit au sein de l’algorithme de Google pour la première fois durant l’été 2012 afin de pénaliser les sites internet qui enfreignent le droit d’auteur ainsi que les sites pirates. Parmi les sites principalement visés par Google Pirate, on trouve ceux qui figure dans le système DMCA (Digital Millenium Copyricht Act).

État du référencement naturel (SEO) en 2016 - EXIT Studio

Google RankBrain

RankBrain est le nom donné par Google à un système d’intelligence artificielle et d’apprentissage automatique (machine-learning artificial intelligence system), utilisé pour offrir aux internautes des résultats pertinents. Ce système permet à une machine de s’ordonner lui-même certaines tâches (plutôt que commandées par un humain ou en suivant un programme détaillé). Les machines peuvent ainsi accomplir des tâches impossibles à remplir par des moyens algorithmiques plus classiques. Une « très grande proportion » des résultats de recherche sont gérés par RankBrain.

RankBrain est donc une énième surcouche de l’algorithme principal de Google, mais une surcouche particulièrement importante puisqu’elle vise à analyser et à comprendre les contenus avec plus de pertinence.

« Il semblerait que RankBrain fasse partie de l’algorithme général Hummingbird (et ne constitue donc pas un nouvel algorithme). […] RankBrain ne gère pas toutes les recherches et il ne s’agit que ‘d’un des signaux inclus dans l’algorithme pour déterminer les résultats qui apparaissent sur le moteur de recherche de Google ainsi que leur positionnement’ » – Référenceur.be

État du référencement naturel (SEO) en 2016 - EXIT Studio

En conclusion – qualité et pertinence des contenus au cœur de la stratégie de référencement de Google

Pour Google, l’internaute qui réalise une recherche à l’aide de son moteur, constitue sa clientèle (son public cible). Pas étonnant donc que l’objectif de la firme soit de lui apporter pleine satisfaction, à travers des résultats pertinents et de qualités, renvoyés pour une requête donnée. Un internaute satisfait par les résultats d’une recherche réutilisera ce moteur, confirmant ainsi l’hégémonie actuelle de Google. Qui plus est, il devient alors indispensable d’être présent (et surtout visible) sur le moteur, lequel pourra alors bénéficier de rentrées financières supplémentaires, à travers Google Adwords et la publicité payante.

On remarque que l’évolution des algorithmes existants, comme la création de nouveaux algorithmes, coïncide (et est grandement déterminé) avec l’évolution des comportements et habitudes des internautes eux-mêmes. C’est ainsi que la création de l’algorithme Colibri permit au moteur de s’adapter à cette nouvelle tendance des requêtes « conversationnelles » (qui prennent la forme de questions plutôt que de mots-clés).

« Parmi les éléments qui font partie de l’algorithme général de Google, on trouve des filtres anti-spam comme Google Panda, Google Penguin ou Google Payday Loan, des éléments qui ont pour but d’améliorer la pertinence des résultats locaux (Google Pigeon), des éléments qui récompensent les sites mobile-friendly (Google Mobile-Friendly) ou encore des éléments qui visent à lutter contre la violation des droits d’auteur (Google Pirate) » – Référenceur.be

Mots-clés

  • Référencement
  • SEO
  • Google
  • Algorithme
  • Google Pinguin
  • Google Panda
  • Google Colibri
  • Google Mobile-Friendly
  • Google Pirate
  • Google PayDay Loan
  • Google RankBrain

Sources

Plus d'articles pouvant vous intéresser

Voir tous les articles

Envie de faire partie de l’aventure EXIT Studio ?

Envie d’un site attractif et performant, tant optimisé pour le référencement qu’accessible sur tablettes et smartphones ?

Demander un devis