Le Web, vu par des experts du référencement et du développement
Catégorie : 2 – Référencement naturel
Cette rubrique de VuduWeb propose des articles, actualités et problématiques liées au référencement naturel sur les principaux moteurs de recherche : Google, Yahoo, Live, Exalead, …
Bonjour Daniel. Tout d’abord merci beaucoup d’avoir accepté de répondre à quelques questions pour VuDuWeb, le blog de l’agence Kelcible. Tu es aujourd’hui une référence en matière de SEO sur WordPress, c’est donc un grand plaisir de pouvoir échanger avec toi.
Plutôt que de m’engager à présenter ton CV et parce qu’il paraît qu’on n’est jamais mieux servi (ou présenté) que par soi-même… nous pourrions peut-être commencer cet interview avec quelques questions pour mieux te connaître ?
Le référencement naturel, également appelé SEO (search engine optimisation) en anglais englobe l’ensemble des techniques visant à améliorer le classement d’un site dans les moteurs de recherche (Google, Bing, Yahoo). Pour résumer : Comment être 1er dans Google sur la requête : « rachat de crédit » ? (ndlr : Vous comprendrez alors tout l’intérêt du SEO).
Nous le savons tous, l’âge d’or du SEO est bel et bien fini ! Terminé les blogrolls, les longues pages partenaires indigestes au possible, les ancres sur optimisées sur notre mot clé vache à lait ! Et oui, l’heure est à la raison, et 2015 ne rime en aucun point avec Spamco…
Tour d’horizon sur la stratégie à adopter en 2015 pour un SEO gourmand et croquant durable et non jetable…
Après Big Brother, Caffeine, les Pandas et les Penguins, quoi de neuf dans le « Google Zoo » ?
Google a décidé de fêter son anniversaire (15 ans) en déployant un nouvel algorithme baptisé « Google Colibri », ou « Hummingbird » pour les bilingues ! Décryptage de cette mise à jour…
Mise à jour Google Colibri ou Google Hummingbird
Première approche de l’algorithme Colibri
Google Colibri est à proprement parler un « outil d’expansion de requêtes ». C’est à dire qu’il analyse les phrases et expressions de recherche dans leur globalité au lieu de s’attacher aux mots-clés. C’est une mise à jour qui est entièrement conçue pour répondre aux questions des utilisateurs de Google.
A la différence des autres mises à jour majeures d’algo comme Panda ou Penguin, Colibri semble toucher l’architecture et le fonctionnement de base du moteur de recherche, elle modifierait la façon dont l’information est extraite des bases de données de Google.
A ce jour, Colibri impacterait 90% des requêtes dans le monde.
Depuis quand l’algorithme Hummingbird est-il déployé ?
Annoncée par Google dans une conférence de presse le 26 septembre 2013, l’algorithme Hummingbird a en réalité été lancé il y a plus d’un mois selon Amit Singhal, Vice Président Senior du Search chez Google. Comme beaucoup d’autres algorithmes, il est probable que le déploiement se fasse sur plusieurs semaines ou plusieurs mois.
Qu’est-ce qui change avec cet algorithme ?
Avec Colibri, Google vise la rapidité et la précision des résultats de recherche. L’objectif est ici de fournir une réponse plus ciblée et plus pertinente aux internautes faisant des recherches longues ou des requêtes en langage naturel.
En effet, la multiplication des supports mobiles (smartphones & tablettes) et l’évolution de leur usage à poussé Google a s’intéresser aux requêtes complexes, notamment celles liées à la recherche vocale (Voice Search) et à la recherche conversationnelle (Conversational Search), un mode de recherche sous forme de questions / réponses en langage courant entre une personne et une machine, démocratisé par Apple et son application « Siri ».
Evolution de la façon de rechercher sur Internet
Le contexte de la requête devient plus important que les mots tapés
Depuis sa création en 1998, Google a toujours évolué pour améliorer la pertinence des résultats de recherche, et donner la meilleure réponse possible à une recherche. Aujourd’hui, tout le monde est habitué à renseigner des mots-clés pour trouver ce qu’il cherche sur Internet, mais effectivement, une même expression peut amener à des résultats très différents en fonction du contexte dans laquelle la recherche est effectuée.
Avec Hummingbird, Google pourrait modifier la recherche de l’internaute en conservant l’intention originale afin de fournir une réponse plus pertinente. Google irait donc chercher, non seulement les résultats qui contiennent les mots clés de la recherche, mais également les résultats qui traitent des concepts identifiés après l’analyse du contexte de la recherche.
En résumé, avec cette mise à jour Colibri, Google sera capable de :
Reconnaître les mots porteurs de sens et leur associer un ou plusieurs concepts
Déterminer un éventuel synonyme pour un terme de recherche en fonction du contexte grâce à une autre expression dans la recherche originale
Evaluer un certain nombre de synonymes selon une tendance ou une fréquence de recherche
Attribuer une valeur de confiance pour savoir si un terme de recherche peut-être substituable ou remplacé par un synonyme en fonction du contexte.
Google : un portail de réponses à vos questions
La vision du fondateur de Google, Sergueï Brin, nous montre bien ce que sera la recherche de demain. Google ne sera plus un moteur de recherche mais un moteur de réponses permettant d’accéder directement / très rapidement à l’information désirée sans même consulter un seul résultat.
« My vision when we started Google 15 years ago was that eventually you would’nt have to have a search query at all. You’d just have information come to you as you needed it. »
En français : « Ma vision quand nous avons lancé Google il y a 15 ans, était que finalement il ne soit pas question de recherche du tout. Les informations viendraient à vous au moment où vous en avez besoin. »
C’est ce que la firme de Mountain View a débuté avec le Google Knowledge Graph qui intègre déjà depuis quelques temps directement les réponses sur certaines requêtes précises dans ses résultats de recherche (exemple « Quelle est la taille de la tour Eiffel ? »).
Avec Colibri, Google extrait maintenant directement les réponses à des questions plus complexes (exemple : Quels sont les symptômes du SIDA ?)
Dans quelques mois et années, Google affinera les données segmentées des millions de sites web pour associer d’autres séries d’expressions et de mots-clés, à des concepts pour améliorer encore la pertinence, étayer ses réponses, voire anticiper les recherches et les besoins des internautes.
Impacts sur la visibilité
« Google Colibri » est donc un algorithme qui ne change pas directement les règles du référencement naturel, comme Panda ou Penguin ont pu le faire par le passé. C’est une mise à jour qui confirme la tendance de la personnalisation des résultats de recherche et la mise à disposition directe de l’information aux internautes, comme cela avait été entamé avec la mise en place de la géolocalisation et le déploiement du Knowledge Graph.
En fonction de leur comportement, de leur localité, de leur historique, et de leur usage d’Internet (au sens large), les internautes n’ont pas exactement les mêmes résultats de recherche pour la même requête.
Néanmoins, même si la recherche est de plus en plus orientée vers l’utilisateur, et que ces nouveaux encarts de réponses viennent se placer au niveau des publicités sponsorisées Adwords, les bases restent intactes pour être visible sur le web sur la partie « résultats naturels » dans les thématiques qui vous intéressent : contenu organisé, pertinence, autorité et popularité.
Un site internet a toujours été visible dans Google, au sens propre du terme, grâce à 3 choses :
– son positionnement naturel
– la fiche Google Adresses
– les liens sponsorisés Google Adwords
« Mais ça, c’était avant ! »
De plus en plus de sémantique sur le Web
On a souvent parlé de « Web 3.0 » en le définissant comme un Internet plus intelligent, accessible, et universel.
Plusieurs hypothèses avaient été évoquées pour définir le futur et les évolutions du Web 2.0, comme la réalité augmentée ou encore le commerce ubiquitaire, pour fournir davantage d’informations aux internautes quelque soit leurs supports.
La plupart de ces prédictions se sont plus ou moins réalisées avec la généralisation des QRcodes, la multiplication des appli web comme Goggles par exemple, les nouvelles applications du RFID, ou encore l’actuelle mise en place du NFC.
Mais concernant le web de tous les jours, c’est davantage l’aspect sémantique qui a pris de l’importance avec le temps. L’organisation des informations et la structure des contenus est aujourd’hui au coeur du débat avec la mise en place progressive des normes HTML5 et les améliorations apportées par Google.
Évolution dans la structure de l’information
Le HTML 5
En proposant une nouvelle forme de structure de code, le HTML5 multiplie les possibilités.
Pour rappel, ce qui différencie principalement le HTML5 des versions précédentes, c’est la création de nouvelles balises sémantiques. En effet, au lieu d’avoir une page organisée avec <head> et <body>, le HTML5 introduit des balises comme <header>, <article>, ou encore <footer> pour indiquer aux robots d’indexation & aux moteurs de recherche quelle est la typologie de contenu. La balise <header> permettra par exemple de définir le header de votre page ou section de votre site.
On retrouvera également différents attributs sympa comme « draggable » pour utiliser le glisser-déposer directement sur la page web.
Les principaux avantages de cette version du HTML sont :
Structurer l’information d’une façon plus claire
Faciliter l’accessibilité du contenu via différentes techniques & supports
Éliminer les soucis d’interopérabilité et compatibilité avec les anciens navigateurs et les plateformes propriétaires comme Flash par exemple.
Les Rich Snippets
Les « rich snippets » ou « extraits de données enrichies » en français, sont des données (ou plutôt microdonnées) issues du site web pour :
Le rich snippet rel="author" est aujourd’hui de plus en plus utilisé par les blogueurs, car elle permet de :
Identifier le créateur du contenu (programme de paternité Google)
Relier vos articles directement à votre compte Google+
Augmenter le niveau de confiance du contenu
Améliorer la visibilité de votre article/blog dans les résultats de recherche
C’est ce dernier point qui est vraiment intéressant. Dans l’exemple ci-dessous, votre positionnement n’est finalement plus déterminant dans les résultats, car un blog qui utilise les rich snippets et la balise author de Google est bien plus attrayant visuellement que le premier résultat.
Visibilité grâce à la balise rel= »author »
Un autre exemple avec une recherche concernant une recette de cuisine : le site attire tout de suite l’oeil de l’internaute grâce aux rich snippets.
L’application de ce système de microdonnées/microformats à un site e-commerce est donc recommandé afin de se démarquer de ses concurrents.
L’arrivée de Google Knowlegde Graph
Qu’est ce que le Knowledge Graph ?
Google a dévoilé récemment sa dernière innovation concernant les résultats de recherche : le « Knowledge Graph » (« Graph du Savoir » en français). Concrètement, c’est un encart supplémentaire qui vient s’ajouter à droite des résultats naturels permettant d’obtenir en un coup d’oeil les principales informations sur une personne, un film, une entreprise, ou une zone géographique.
Illustration du Google Knowledge Graph avec « Samuel Jackson »
La mise en valeur des données sémantiques
Avec cette nouvelle fonctionnalité, Google fait un pas de plus vers le web sémantique. Si pour le moment le Knowlegde Graph récupère les données de Wikipédia, de Google Images, Google Maps, et plus généralement d’une base de données de plus de 500 millions d’entités, uniquement pour certaines expressions ; on pourrait très bien imaginer la prise en compte de l’ensemble des données sémantiques pour toutes les recherches dans un avenir à court ou moyen terme.
Le contenu : un élément central
L’élément qui reste le plus important aujourd’hui pour un blog, un site vitrine, ou une boutique en ligne, est de fournir un contenu intéressant, écrit pour les internautes et non uniquement dans un objectif de référencement et d’optimisation pour les moteurs de recherche.
Même si énormément d’actions de netlinking sont nécessaires derrière pour bien positionner un site Internet sur une thématique concurrentielle, le contenu reste la base de tout.
Pour conclure cet article sur les évolutions du web 2.0 et la mise en place progressive de la sémantique, je dirais que la notion de visibilité est en train d’évoluer. Peut-être que demain être premier sur ses mots-clés ne suffira plus pour être visible au sens propre du terme. Personnellement, je pense qu’il faudra suivre de près toutes ces histoires de sémantique et peut-être se tourner vers d’autres leviers en complément du référencement.
Qu’en pensez-vous ? Comment voyez-vous ces évolutions ?
Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considérerons que vous acceptez l'utilisation des cookies.Ok