Interview de Daniel Roch, spécialiste WordPress et SEO !

Bonjour Daniel. Tout d’abord merci beaucoup d’avoir accepté de répondre à quelques questions pour VuDuWeb, le blog de l’agence Kelcible. Tu es aujourd’hui une référence en matière de SEO sur WordPress, c’est donc un grand plaisir de pouvoir échanger avec toi.

Plutôt que de m’engager à présenter ton CV et parce qu’il paraît qu’on n’est jamais mieux servi (ou présenté) que par soi-même… nous pourrions peut-être commencer cet interview avec quelques questions pour mieux te connaître ?

Continuer la lecture de Interview de Daniel Roch, spécialiste WordPress et SEO !

Référencement naturel, enjeux et solutions

Qu’est-ce que le référencement naturel (SEO) ?

Le référencement naturel, également appelé SEO (search engine optimisation) en anglais englobe l’ensemble des techniques visant à améliorer le classement d’un site dans les moteurs de recherche (Google, Bing, Yahoo). Pour résumer : Comment être 1er dans Google sur la requête : « rachat de crédit » ? (ndlr : Vous comprendrez alors tout l’intérêt du SEO).

Continuer la lecture de Référencement naturel, enjeux et solutions

Quelle stratégie de référencement adopter en 2015 ?

Nous le savons tous, l’âge d’or du SEO est bel et bien fini ! Terminé les blogrolls, les longues pages partenaires indigestes au possible, les ancres sur optimisées sur notre mot clé vache à lait ! Et oui, l’heure est à la raison, et 2015 ne rime en aucun point avec Spamco…

Tour d’horizon sur la stratégie à adopter en 2015 pour un SEO gourmand et croquant durable et non jetable…

Continuer la lecture de Quelle stratégie de référencement adopter en 2015 ?

Google Colibri : pour mieux répondre à vos questions

Après Big Brother, Caffeine, les Pandas et les Penguins, quoi de neuf dans le « Google Zoo » ?
Google a décidé de fêter son anniversaire (15 ans) en déployant un nouvel algorithme baptisé « Google Colibri », ou « Hummingbird » pour les bilingues ! Décryptage de cette mise à jour…

 

Mise à jour Google Colibri ou Google Hummingbird

Google Hummingbird

Première approche de l’algorithme Colibri

Google Colibri est à proprement parler un « outil d’expansion de requêtes ». C’est à dire qu’il analyse les phrases et expressions de recherche dans leur globalité au lieu de s’attacher aux mots-clés. C’est une mise à jour qui est entièrement conçue pour répondre aux questions des utilisateurs de Google.

A la différence des autres mises à jour majeures d’algo comme Panda ou Penguin, Colibri semble toucher l’architecture et le fonctionnement de base du moteur de recherche, elle modifierait la façon dont l’information est extraite des bases de données de Google.
A ce jour, Colibri impacterait 90% des requêtes dans le monde.

 

Depuis quand l’algorithme Hummingbird est-il déployé ?

Annoncée par Google dans une conférence de presse le 26 septembre 2013, l’algorithme Hummingbird a en réalité été lancé il y a plus d’un mois selon Amit Singhal, Vice Président Senior du Search chez Google. Comme beaucoup d’autres algorithmes, il est probable que le déploiement se fasse sur plusieurs semaines ou plusieurs mois.

 

Qu’est-ce qui change avec cet algorithme ?

Avec Colibri, Google vise la rapidité et la précision des résultats de recherche. L’objectif est ici de fournir une réponse plus ciblée et plus pertinente aux internautes faisant des recherches longues ou des requêtes en langage naturel.

En effet, la multiplication des supports mobiles (smartphones & tablettes) et l’évolution de leur usage à poussé Google a s’intéresser aux requêtes complexes, notamment celles liées à la recherche vocale (Voice Search) et à la recherche conversationnelle (Conversational Search), un mode de recherche sous forme de questions / réponses en langage courant entre une personne et une machine, démocratisé par Apple et son application « Siri ».

 Google Colibri

Evolution de la façon de rechercher sur Internet

Le contexte de la requête devient plus important que les mots tapés

Depuis sa création en 1998, Google a toujours évolué pour améliorer la pertinence des résultats de recherche, et donner la meilleure réponse possible à une recherche. Aujourd’hui, tout le monde est habitué à renseigner des mots-clés pour trouver ce qu’il cherche sur Internet, mais effectivement, une même expression peut amener à des résultats très différents en fonction du contexte dans laquelle la recherche est effectuée.

Avec Hummingbird, Google pourrait modifier la recherche de l’internaute en conservant l’intention originale afin de fournir une réponse plus pertinente. Google irait donc chercher, non seulement les résultats qui contiennent les mots clés de la recherche, mais également les résultats qui traitent des concepts identifiés après l’analyse du contexte de la recherche.

En résumé, avec cette mise à jour Colibri, Google sera capable de :

  • Reconnaître les mots porteurs de sens et leur associer un ou plusieurs concepts
  • Déterminer un éventuel synonyme pour un terme de recherche en fonction du contexte grâce à une autre expression dans la recherche originale
  • Evaluer un certain nombre de synonymes selon une tendance ou une fréquence de recherche
  • Attribuer une valeur de confiance pour savoir si un terme de recherche peut-être substituable ou remplacé par un synonyme en fonction du contexte.

 

Google : un portail de réponses à vos questions

La vision du fondateur de Google, Sergueï Brin, nous montre bien ce que sera la recherche de demain. Google ne sera plus un moteur de recherche mais un moteur de réponses permettant d’accéder directement / très rapidement à l’information désirée sans même consulter un seul résultat.

« My vision when we started Google 15 years ago was that eventually you would’nt have to have a search query at all. You’d just have information come to you as you needed it. »

En français : « Ma vision quand nous avons lancé Google il y a 15 ans, était que finalement il ne soit pas question de recherche du tout. Les informations viendraient à vous au moment où vous en avez besoin. »

 

C’est ce que la firme de Mountain View a débuté avec le Google Knowledge Graph qui intègre déjà depuis quelques temps directement les réponses sur certaines requêtes précises dans ses résultats de recherche (exemple « Quelle est la taille de la tour Eiffel ? »).
Google Tour Eiffel
Avec Colibri, Google extrait maintenant directement les réponses à des questions plus complexes (exemple : Quels sont les symptômes du SIDA ?)

Google Hummingbird exemple SIDA

Dans quelques mois et années, Google affinera les données segmentées des millions de sites web pour associer d’autres séries d’expressions et de mots-clés, à des concepts pour améliorer encore la pertinence, étayer ses réponses, voire anticiper les recherches et les besoins des internautes.

Impacts sur la visibilité

« Google Colibri » est donc un algorithme qui ne change pas directement les règles du référencement naturel, comme Panda ou Penguin ont pu le faire par le passé. C’est une mise à jour qui confirme la tendance de la personnalisation des résultats de recherche et la mise à disposition directe de l’information aux internautes, comme cela avait été entamé avec la mise en place de la géolocalisation et le déploiement du Knowledge Graph.
En fonction de leur comportement, de leur localité, de leur historique, et de leur usage d’Internet (au sens large), les internautes n’ont pas exactement les mêmes résultats de recherche pour la même requête.

Néanmoins, même si la recherche est de plus en plus orientée vers l’utilisateur, et que ces nouveaux encarts de réponses viennent se placer au niveau des publicités sponsorisées Adwords, les bases restent intactes pour être visible sur le web sur la partie « résultats naturels » dans les thématiques qui vous intéressent : contenu organisé, pertinence, autorité et popularité.

Développer sa visibilité grâce à la sémantique

Un site internet a toujours été visible dans Google, au sens propre du terme, grâce à 3 choses :
– son positionnement naturel
– la fiche Google Adresses
– les liens sponsorisés Google Adwords

« Mais ça, c’était avant ! »

De plus en plus de sémantique sur le Web

On a souvent parlé de « Web 3.0 » en le définissant comme un Internet plus intelligent, accessible, et universel.
Plusieurs hypothèses avaient été évoquées pour définir le futur et les évolutions du Web 2.0, comme la réalité augmentée ou encore le commerce ubiquitaire, pour fournir davantage d’informations aux internautes quelque soit leurs supports.

La plupart de ces prédictions se sont plus ou moins réalisées avec la généralisation des QRcodes, la multiplication des appli web comme Goggles par exemple, les nouvelles applications du RFID, ou encore l’actuelle mise en place du NFC.

Mais concernant le web de tous les jours, c’est davantage l’aspect sémantique qui a pris de l’importance avec le temps. L’organisation des informations et la structure des contenus est aujourd’hui au coeur du débat avec la mise en place progressive des normes HTML5 et les améliorations apportées par Google.

 

Évolution dans la structure de l’information

Le HTML 5

En proposant une nouvelle forme de structure de code, le HTML5 multiplie les possibilités.

Pour rappel, ce qui différencie principalement le HTML5 des versions précédentes, c’est la création de nouvelles balises sémantiques. En effet, au lieu d’avoir une page organisée avec <head> et <body>, le HTML5 introduit des balises comme <header><article>, ou encore <footer> pour indiquer aux robots d’indexation & aux moteurs de recherche quelle est la typologie de contenu. La balise <header> permettra par exemple de définir le header de votre page ou section de votre site.
On retrouvera également différents attributs sympa comme « draggable » pour utiliser le glisser-déposer directement sur la page web.La nouvelle norme HTML5

Les principaux avantages de cette version du HTML sont :

  1. Structurer l’information d’une façon plus claire
  2. Faciliter l’accessibilité du contenu via différentes techniques & supports
  3. Éliminer les soucis d’interopérabilité et compatibilité avec les anciens navigateurs et les plateformes propriétaires comme Flash par exemple.

 

Les Rich Snippets

Les « rich snippets » ou « extraits de données enrichies » en français, sont des données (ou plutôt microdonnées) issues du site web pour :

« donner aux internautes un aperçu du contenu de la page et leur montrer la pertinence du résultat par rapport à leur requête »

Le rich snippet rel="author" est aujourd’hui de plus en plus utilisé par les blogueurs, car elle permet de :

  • Identifier le créateur du contenu (programme de paternité Google)
  • Relier vos articles directement à votre compte Google+
  • Augmenter le niveau de confiance du contenu
  • Améliorer la visibilité de votre article/blog dans les résultats de recherche

C’est ce dernier point qui est vraiment intéressant. Dans l’exemple ci-dessous, votre positionnement n’est finalement plus déterminant dans les résultats, car un blog qui utilise les rich snippets et la balise author de Google est bien plus attrayant visuellement que le premier résultat.

Visibilité grâce à la balise rel="author"
Visibilité grâce à la balise rel= »author »

Un autre exemple avec une recherche concernant une recette de cuisine : le site attire tout de suite l’oeil de l’internaute grâce aux rich snippets.

exemple rich snippets

L’application de ce système de microdonnées/microformats à un site e-commerce est donc recommandé afin de se démarquer de ses concurrents.

 

L’arrivée de Google Knowlegde Graph

Qu’est ce que le Knowledge Graph ?

Google a dévoilé récemment sa dernière innovation concernant les résultats de recherche : le « Knowledge Graph » (« Graph du Savoir » en français). Concrètement, c’est un encart supplémentaire qui vient s’ajouter à droite des résultats naturels permettant d’obtenir en un coup d’oeil les principales informations sur une personne, un film, une entreprise, ou une zone géographique.

Google Knowledge Graph Samuel Jackson
Illustration du Google Knowledge Graph avec « Samuel Jackson »

La mise en valeur des données sémantiques

Avec cette nouvelle fonctionnalité, Google fait un pas de plus vers le web sémantique. Si pour le moment le Knowlegde Graph récupère les données de Wikipédia, de Google Images, Google Maps, et plus généralement d’une base de données de plus de 500 millions d’entités, uniquement  pour certaines expressions ; on pourrait très bien imaginer la prise en compte de l’ensemble des données sémantiques pour toutes les recherches dans un avenir à court ou moyen terme.

Le contenu : un élément central

L’élément qui reste le plus important aujourd’hui pour un blog, un site vitrine, ou une boutique en ligne, est de fournir un contenu intéressant, écrit pour les internautes et non uniquement dans un objectif de référencement et d’optimisation pour les moteurs de recherche.
Même si énormément d’actions de netlinking sont nécessaires derrière pour bien positionner un site Internet sur une thématique concurrentielle, le contenu reste la base de tout.

 

Pour conclure cet article sur les évolutions du web 2.0 et la mise en place progressive de la sémantique, je dirais que la notion de visibilité est en train d’évoluer. Peut-être que demain être premier sur ses mots-clés ne suffira plus pour être visible au sens propre du terme. Personnellement, je pense qu’il faudra suivre de près toutes ces histoires de sémantique et peut-être se tourner vers d’autres leviers en complément du référencement.

Qu’en pensez-vous ? Comment voyez-vous ces évolutions ?