SEO : Comment se préparer à la disparition des moteurs de recherche traditionnels

SEO : Comment se préparer à la disparition des moteurs de recherche traditionnels

Dans cet article, découvrez pourquoi : 

  • Le SEO ne va pas disparaitre : il va même revenir à la logique de ses origines : une optimisation pensée pour la machine et non pour l'être humain
  • Les moteurs de recherche ne vont plus être utilisés majoritairement par des humains, mais par des robots
  • Pour continuer à exister sur internet, il faudra adapter ses contenus aux intelligences artificielles, en structurant davantage les données disponibles et en adoptant une logique d’API
  • Il faut comprendre aujourd’hui les évolutions pour se préparer à faire évoluer sa stratégie

La disparition du SEO : une marotte depuis les années 2010

Il est de coutume d’annoncer la fin du référencement naturel, en raison de l’évolution des moteurs de recherche, qui seraient eux-mêmes amenés à disparaître et à prendre une autre forme. A chaque révolution dans les pratiques du webmarketing, de nouvelles raisons s’ajoutent pour annoncer la fin du référencement naturel. Quelques exemples d'annonces qui se sont révélées particulièrement peu clairvoyantes :

2011 : "Google va tuer le référencement naturel pour le remplacer par du référencement payant quasi intégral" : http://seonul.blogspot.fr/2011/12/google-est-devenu-un-spammeur.html. 6 ans plus tard, le SEO reste la source n°1 de trafic devant toutes les autres, loin devant le référencement payant.

2012 : "Vers la fin du référencement naturel ?" (Le référencement devient social) : http://blog.reputationsquad.com/2012/01/vers-la-fin-du-referencement-naturel/ De nombreuses études ont été publiées à cette époque pour savoir si les réseaux sociaux allaient remplacer les moteurs de recherche traditionnels. Il n’en a rien été.
2013 : "Le SEO va-t-il disparaître au profit de l’inbound marketing ? "http://blog-marketing-btob.open2leads.com/seo-doit-il-disparaitre-au-profit-de-inbound-marketing/. On a vu que l’inbound marketing est en fait devenu une composante essentielle du SEO et a donc renforcé l’importance de la rédaction de contenus performants orientés ROI et de l’étude des mots-clés de longue traine.

La révolution en marche : l'arrivée de "l'ère de l’assistance"

Néanmoins, il faut garder à l’esprit que ce n’est pas parce que le SEO a souvent été annoncé comme mort qu’il ne mourra jamais.

Lors du salon professionnel E-commerce One To One 2017, Google a surpris l’assistance en annonçant la disparition des moteurs de recherche au profit de « l’âge de l’assistance » . L’idée générale est que les assistants personnels, qui ont commencés à fleurir aux Etats-Unis, vont changer la façon dont les recherches sont effectuées sur internet. Siri, Google Home, Alexa, sont la première génération de cette intelligence artificielle, qui va s’imposer au cœur des foyers et du quotidien de l’humanité dans les années qui viennent.

Les exemples d’usages sont multiples :
« Dis Siri, c’est l’anniversaire de mon frère demain, peux-tu me faire une sélection de cadeaux qui vont lui plaire ? »

« Ok Google, peux-tu me dire quel âge a le président Donald Trump » ?

« Ok Google, commande moi 4 pizzas pour ce midi, livraison vers 19h au taff »

« Ok Google, envoie à Mathieu l’itinéraire pour me rejoindre au restaurant, et réserve le restaurant au passage. Et que ça saute ! » (oui, parce qu’on peut se faire le plaisir de lui parler comme un chien, c’est l’aspect positif).

Que nous enseignent ces usages ? Comme de nombreux spécialistes SEO l’ont signalé depuis déjà plusieurs années, la première conséquence est la nature des requêtes tapées, qui sont données en langage naturel : au lieu de taper « âge Trump », je demande à mon robot de taper « quel est l’âge de Donald Trump ».
Cette différence est, certes, une nouvelle donne, mais elle ne révolutionne pas réellement les bonnes pratiques du SEO, puisque depuis plusieurs années déjà, les référenceurs ont pris l’habitude de viser des requête longues (longue traine »), les utilisateurs de Google ayant déjà tendance à utiliser le moteur comme un système de question-réponse, en écrivant de façon littérale leurs pensées :

recherche en langage naturel

De plus, il est tout à fait possible, avec la même page, de ranker à la fois sur « nom habitants Douai» et « comment appelle-t-on les habitants de Douai». D’ailleurs, Google ne positionne pas obligatoirement en 1er la page qui a repris exactement l’expression dictée par la personne dans son texte ou dans une zone chaude, comme on peut le constater ici :

Dans l'exemple ci-dessus, le résultat reprenant exactement l’expression « comment sont appelés les habitants de Douai » n’est pas positionné en 1er : on retrouve avant cela des pages qui se contentent d’aborder le sujet des noms d’habitants (2ème résultat :« habitants.fr »), ou le sujet de « douai » (1er résultat), ou encore le sujet du nom des habitants de Douai (2ème résultat).

En effet, depuis déjà plusieurs années, en particulier avec l’algorithme Hummingbird, Google est capable de s’extraire des mots exactement utilisés par la personne pour s’attacher au sens que ces mots peuvent avoir lorsqu'ils sont ensemble. La spécialisation sémantique de la page est alors le meilleur moyen de générer du trafic sur une grande variété de requêtes, sans forcément avoir recours à un keyword stuffing consistant à insérer dans le texte l’ensemble des formes interrogatives possibles pour aborder le sujet donné.

La vraie révolution n’est pas la recherche vocale

Aussi, la formulation naturelle des requêtes n’est-elle pas une révolution fondamentale en SEO. Tout au plus change-t-elle la nature des requêtes que l’on va tracker pour mesurer nos positions sur Google, avec une quantité plus importante qu’autrefois de termes de longue traine comportant un volume de recherche significatif.

En réalité, la vraie rupture se situe dans l’opérateur de la question posée au moteur de recherche. Jusqu’ici, l’opérateur, c’est-à-dire la personne qui tapait les mots-clés sur Google, a toujours été l’internaute lui-même. Qu’il dicte à son smartphone la requête à taper ou qu’il la tape lui-même, le résultat est identique : Google propose une liste de réponses et l’utilisateur choisi parmi ces réponses celle qui convient le mieux.
Avec l’ère de l’assistance, l’opérateur va changer : l’humain va simplement exprimer une demande, et c’est le robot qui va chercher les réponses possibles et en sélectionner une qui soit convenable, non pas dans l’absolu, mais pour l’humain qui a exprimé la demande. L’idée de fond est que l’intelligence artificielle sera en mesure de mieux connaitre nos goûts, nos choix et nos envies, mieux encore que nous-même. Le fait que cela vous fasse peur est logique, mais l’objet de cet article est de se demander quelles seront les conséquences sur votre travail en tant que SEO…

Le robot cherche ET sélectionne l’information
Ce changement d’opérateur va radicalement modifier la façon dont les sites internet sont optimisés pour les moteurs de recherche.

Infographie SEO l'avenir des moteurs de recherche
Avenir des moteurs de recherche

Le retour d’une optimisation «  robot first » et non « user first » ?

Eh oui, la première chose que l’on peut imaginer, c’est que nous devrons désormais adresser nos textes, nos backlinks et nos signaux sociaux à une intelligence artificielle, qui choisira elle-même de présenter ou non notre contenu à son « client". On peut donc présager du retour de l’optimisation pensée pour les robots avant tout. Cela n’implique pas le retour des pratiques anciennes de keyword stuffing, de sur-optimisation des backlinks ou même de cloaking. Néanmoins, il est certain que la structuration des contenus (et surtout du code HTML) va redevenir un enjeu prioritaire, peut-être même au détriment des enjeux UX et UI qui étaient devenus, depuis 5 ans, primordiaux dans toute stratégie SEO.
À l’ère de l’assistance, l’humain peut bénéficier du résultat d’une recherche sans visualiser le moindre élément graphique. Attardons-nous quelques minutes sur ce point fondamental :

Actuellement, l’expérience de recherche se décompose de la façon suivante :
1. L’humain dicte ou tape un mot-clé sur Google.
2. La machine (le moteur de recherche) Google classe les résultats
3. L’humain parcourt les résultats et choisit celui qui lui semble intéressant
4. L’humain arrive sur un contenu et évalue si celui-ci est aussi prometteur que l’étape précédente le laissait présager
5. L’humain effectue une action (lire pour avoir la réponse à sa question, prendre contact, commenter, acheter, etc…)
L’humain est satisfait ou non, mais garde pour lui cette information. La machine peut éventuellement déduire de son comportement (rebond, abandon de panier, temps de visite) le niveau de satisfaction de l’humain par rapport à son expérience.

A l’ère de l’assistance, l’expérience de recherche se décomposera d’une façon différente :
1. L’humain exprime à l’oral une intention à la machine. Voire, il n‘exprime aucune intention mais la machine devance ses besoins en fonction des circonstances : « c’est bientôt l’anniversaire de votre sœur, voulez-vous que je cherche un cadeau » ?

2. La machine recherche dans une ou plusieurs bases de données les informations dont elle a besoin.

3. La machine sélectionne l’information la plus pertinente par rapport aux habitudes et au profil de l’humain qui lui a demandé d’agir.

4. La machine prend la décision et informe l’humain. Elle peut éventuellement demander confirmation si elle n’est pas sure. Par exemple, elle peut rechercher un restaurant italien parce qu’elle sait que c’est ce qui plaira le mieux à cet humain là, dans un quartier dans lequel il a ses habitudes.

Quelles seront les sources d’information des Intelligences Artificielles ?

La grande difficulté des IA à l’heure actuelle est leur capacité encore limitée à effectuer des recherches d’« objets» lorsque le corpus de recherche ne comporte pas de système d’annotation. En clair, lorsqu’une IA indexe dans une page web, il lui est encore difficile de savoir ce qui est le prix d’un produit, sa description (et non celle des produits relatifs proposés sur la même page, par exemple), sa couleur et ses déclinaisons possibles, etc… Google essaie de régler cette difficulté via plusieurs moyens :
- L’enrichissement des textes via des systèmes d’annotation tels que les rich snippet. L’idée est que le propriétaire du contenu indique à la machine à quoi correspondent certains éléments clés du contenu (avis d’utilisateurs, prix, date d’un événement, etc…)

rich snippet

- L’amélioration de son moteur d’analyse sémantique. De façon générale, les IA font des progrès extraordinaires dans la compréhension des demandes des humains. Il est néanmoins plus facile pour un robot de comprendre une demande formulée à l’orale, que de comprendre un texte sur une page web, pour 2 raisons essentielles : tout d’abord, le texte n’a pas été écrit spécifiquement pour que la machine le comprenne : il est donc composé de nombreux éléments qui peuvent se ressembler (comme par exemple plusieurs chiffres exprimés en euros, dont il est difficile de savoir lequel est le prix du produit (on peut avoir le prix des frais de port, le prix des produits relatifs, le prix du produit situé juste au-dessus ou juste au-dessous dans une liste, le montant d’une réduction, etc…) . Deuxièmement, les textes sont tout simplement longs et écrits pour des êtres humains. Ils peuvent comporter de l’ironie, du second degré et des nuances très difficiles à comprendre par les IA.
- Cette difficulté entrainera, quoi qu’il arrive, la nécessité de devoir réadapter les contenus présentés aux machines pour qu’ils soient les plus compréhensibles possibles par les intelligences artificielles.

L’historique de l'utilisateur et le fonctionnement par analogie : éléments essentiels de l’analyse de l’IA

L’objectif de l’IA est de satisfaire l’humain. Pour cela, elle va beaucoup se fier aux habitudes de l’humain, en lui assignant un historique. Le fait de reproduire les expériences passées réussies et d’éviter les expériences passées désagréables sera au cœur du fonctionnement des IA.

Il est aussi probable que les algorithmes des IA procéderont, en partie, par analogie. Par exemple, l’IA pourra rechercher, parmi les avis concernant un hôtel, ceux qui sont laissés par des personnes ayant le même profil que l’humain pour lequel la recherche est effectuée : même page, mêmes pays visités, même situation familiale, profession proche (par exemple en recoupant avec le profil LinkedIn).

Il sera donc toujours plus essentiel, pour séduire les IA, de créer des contenus les plus précis et pléthoriques possibles. Contrairement aux humains qui ont des capacités de lecture limitées, l’IA peut lire une quantité immense d’informations. Pourvu que les données soient relativement structurées, il sera donc stratégique de disposer d’une data la plus complète possible, afin de faire matcher les informations dont on dispose avec les historiques des IA qui les analyseront. Par exemple, en tant que e-commerçant, si je dispose d’une grande base d’avis avec des informations précises sur les profils des personnes ayant laissé ces avis, j’aurai davantage de chance que ces avis matchent avec le profil de la personne pour qui une IA est en train d’effectuer une recherche parmi mes produits. En clair : la quantité et la précision de la data, en 2020-2025, sera une des clés d’un bon référencement naturel et surtout d’un bon taux de conversion.

Les API : la clef de voûte des recherches à l’ère de l’assistance

Les Api sont une source de données beaucoup plus fiable et immédiatement utilisable par les IA. L’API consiste à rendre accessible à tout opérateur des informations contenues dans une base de données. Elle est spécifiquement conçue pour permettre l’inter-opérabilité des machines entre-elles. Un site e-commerce devra donc très probablement être conçu directement avec une API permettant aux robots de dialoguer facilement en « lecture » et en « écriture ».

L’IA demandera à l’API de lui fournir les informations permettant de décider si le contenu proposé est pertinent ou non. Par exemple, l’IA peut demander à l’API de fournir la liste des produits correspondant au mot-clé « guitare nylon ». Une fois le contenu obtenu, si l’IA considère qu’un des produits proposé est le bon et compare ce produit à ceux obtenus via d’autres API concurrentes, elle demandera au site e-commerce de déclencher l’achat et la livraison.

La façon la plus simple sera de le faire via l’API, en créant automatiquement un compte et en indiquant l’adresse de livraison. L’IA pourra même demander ultérieurement à l’humain si la guitare lui convient bien et éventuellement, organiser un retour du produit ou la création d’un avis sur le site, là encore en dialoguant avec l’API.

Quand les IA dialoguent entre elles : la fin de la notion de site internet "à visiter"?

Evidemment, l’étape suivante sera celle de la coordination des IA. Plutôt que de passer par une simple API, l’Intelligence artificielle effectuant la recherche pourra tout simplement demander à l’intelligence artificielle s’occupant de votre site e-commerce de lui fournir les informations dont elle a besoin.

La notion même de site internet "à visiter" risque de s’effacer derrière un ensemble de contenus normés, parcourus essentiellement par des IA, à qui il faudra faciliter le travail pour qu’elles puissent identifier facilement les informations demandées. Par exemple, si vous avez une activité de restaurateur à Nantes, vous aurez simplement besoin de donner accès (peut-être via le fichier robots.txt, qui sait ?), à une IA capable de fournir à d’autres IA ou à de vrais humains (via un chat par exemple) les informations et actions relatives à votre business (horaires d’ouverture, possibilité de réserver, etc…).

Via ce système d’API intégrées entre-elles avec les autres, les calendriers des uns pourront être synchronisés avec les services des autres. On pourra par exemple aboutir au type de situation suivant : « Mathieu, j’ai vu que vous étiez sorti plus tard que prévu de votre réunion. Votre prochain rendez-vous est dans 20 minutes, selon vos habitudes, j’ai commandé une Google car pour vous y rendre, elle vous attend, vous arriverez à 16 : 02. J’ai prévenu Mme Micheline Bernard que vous auriez 5 minutes de retard et je lui ai fait servir un café".

Comment se préparer à ces évolutions ?

1ère piste : Utilisez toutes les données structurées possibles, telles que les rich snippet
2ème piste : Familiarisez vous avec la notion d’API et leur interconnexion. Par exemple, découvrez Zappier et travaillez sur des automations pour bien comprendre comment des API dialoguent entre elles
3ème piste : Utilisez des IA, chez vous ou dans le cadre de votre activité professionnelle : chatbot, assistants personnels, assistants mobiles.
4ème piste : Continuez à bosser les fondamentaux du SEO : la machine aura toujours besoin de classifier les informations en fonction de critères de pertinence. L’analyse sémantique est encore plus que jamais pertinente et la notoriété sera toujours au cœur des algorithmes des IA, d’où la nécessité de conserver des signaux statiques (backlinks) et sociaux (twitter facebook etc…).
5ème piste : Décrivez le plus précisément possible tous les objets existants sur votre site (un objet au sens informatique du terme, c’est- dire une notion).
6ème piste : Utilisez des CMS disposant d'une vaste communauté : les API de ces CMS se développeront plus vite que ceux ayant une communauté réduite. Si vous avez une technologie propriétaire, créez votre API en prévision de l’arrivée massive de ces IA dans les années à venir.

✌️Lire un article de blog c'est bien, apprendre les savoirs-faire du SEO c'est mieux !

On a préparé pour vous une formation gratuite pour vous apprendre les 10 actions simples qui vont booster votre SEO.

Garantie 100% pratique - avec des bonus incroyables !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous aussi vous voulez être en 1ère page de Google ?

Laissez nous vos coordonnées, nous vous contactons dans les 2 heures pour discuter de votre projet.

Prendre un rendez-vous commercial
25 Partages
Partagez87
Tweetez37
Partagez25
+1
Enregistrer
25 Partages