[ BLOG ]

Retour sur l’intervention de Google au SEO CAMP’US

SEO Camp'us Paris 2019 - Retour sur la conférence de Google

Le SEO Camp’us Paris, événement SEO de référence en France et rendez-vous majeur de l’association SEO Camp (qui organise également des SEO Camp Day un peu partout en France : Lille, Lyon, Marseille, et Nice pour 2019), a eu lieu la semaine dernière, les 28 et 29 Mars, à Saint-Denis.

SEO Camp’us, l’événement SEO de référence en France

Pour sa 10ème édition, l’événement s’est ouvert sur l’ensemble de l’écosystème webmarketing avec notamment un cycle entier dédié aux conférences sur les leviers qui complètent le SEO. Une manière, selon Julie Chamton, responsable du comité éditorial 2019, de « Pouvoir accueillir un public plus large et lui permettre de s’initier en douceur au monde merveilleux du SEO ».

C’est ainsi que plus de 50 conférences, animées par des intervenants confirmés (Olivier Andrieu, Sylvain Peyronnet, Olivier Duffez, Vincent Terrasi et Rémi Bacha pour ne citer qu’eux) se sont déroulées sur ces 2 jours. Au programme : les techniques qui fonctionnent, les dernières tendances, l’évolution des métiers du référencement ainsi que des retours d’expériences sur des problématiques SEO précises.

Nous avons choisi de vous partager notre retour sur une conférence un peu particulière : une session de Questions et Réponses avec Vincent Courson, le porte-parole de Google pour les webmasters-référenceurs français.

People Also Ask, avec Vincent Courson

Animée par Olivier Andrieu, la conférence s’est déroulée en 2 temps : Vincent Courson abordant d’abord des questions sélectionnées lors des semaines précédentes, puis répondant aux questions posées par l’audience.

Utilisation des balises rel=prev/next

Ces balises créées pour indiquer les relations entre les différentes pages dans un menu pagination sont utilisées depuis leur création en 2011.

Elles ont longtemps été considérées comme importantes et donc recommandées dans le cadre d’une optimisation SEO.
Cependant, le 21 Mars dernier, John Mueller (Webmaster Trends Analyst pour Google) a indiqué sur Twitter que le moteur de recherche ne prenait pas du tout en compte ces balises.
Le format de cette annonce a parfois été perçu comme un manque de considération de Google envers le monde du SEO ; les consultants et agences s’efforçant notamment de prioriser les actions à mettre en place sur les sites de leurs clients.

Vincent Courson a précisé l’information en indiquant que ces balises n’étaient plus prises en compte pour l’indexation des pages mais qu’elles restaient utiles dans certains cas : accessibilité, explorations. Il ne faut donc pas les retirer, et leur mise en place est toujours conseillée.

Est-il préjudiciable de réduire le nombre de pages à indexer, dans une optique d’optimisation de crawl et de satisfaction utilisateur ?

L’exemple évoqué s’est porté sur un site de grande taille, son nombre de pages proposées à l’indexation passant de 800000 à 200000.
Pour des sites avec de tels volumes de pages, Vincent Courson estime que l’impact peut être important. Il n’est pas préjudiciable de le faire à condition de maîtriser totalement ses actions, ce qui nécessite une fine sélection des pages à indexer ainsi qu’une grande réactivité en cas de mauvais signaux.
Sans cette maîtrise, ces actions lui paraissent trop risquées par rapport aux gains espérés.

Quid de l’indexation des pages CGV, CGU, ou Mentions légales ?

Y-aurait-il un gain à les désindexer ? Pas selon le spécialiste Search de Google, pour qui la désindexation de ces pages ne serait utile qu’en cas de crawl trop fréquent, ce qui ne devrait arriver que très rarement.

Ces pages à faible valeur ajoutée ne nuiraient pas à l’ensemble du site car très spécifiques et éloignées de la thématique des autres pages.

Il ajouta plus tard dans la conférence, suite à une interrogation de l’audience, que le moteur de recherche ne porterait pas moins de considération et de confiance à un site ne souhaitant pas faire indexer ces pages.

Vitesse de chargement et UX : critères de pertinence ?

Ce sont 2 points fortement discutés que Vincent Courson a tenté d’éclaircir.
Il a ainsi annoncé d’une part que Google ne regardait pas au niveau individuel les Taux de Clic et les Taux de Rebond pour établir le positionnement.
D’autre part, que le temps de chargement était bien un critère de classement, annoncé comme “mineur”, mais qui ferait la différence entre deux pages strictement égales par ailleurs.

Le temps de chargement influe directement sur l’expérience utilisateur et la performance est au centre de l’attention des référenceurs, encore plus depuis l’avènement du mobile et du mobile-first index. Nos recommandations SEO continueront d’inclure la performance des sites web comme point d’intérêt majeur.

Google et les concours SEO

> Les concours SEO existent depuis que le SEO est né. Ils consistent à mettre en concurrence des webmasters sur leur capacité à placer leur site à la meilleure position sur une requête définie à l’occasion de ce concours.

Vincent Courson a expliqué que Google suivait bien entendu ces concours SEO.
Il a souligné le caractère sain de l’intérêt des référenceurs pour l’apprentissage et le challenge, mais a cependant nuancé son propos en distinguant 2 approches :

  • Les concours sur une requête inventée pour l’occasion
  • Les concours sur une requête existante, populaire ou potentiellement populaire.

C’est dans le 2ème cas qu’une problématique est soulevée : les requêtes représentent des vrais besoins d’utilisateurs et ceux-ci pourraient être influencés et prendre des décisions suite à la consultation d’un site créé uniquement pour le concours. Il a ajouté ne pas soutenir ce type de concours en indiquant que l’échelon de responsabilité était bien plus (trop ?) important.

Le fonctionnement du rapport de spam a aussi été évoqué : il est bien utilisé par Google pour perfectionner sa solution, sans toutefois être une priorité absolue.

Un même site référencé plusieurs fois sur une requête : régulation des inégalités ?

Vincent Courson a indiqué qu’il n’y avait pas de mise à jour envisagée pour réguler ce qui n’est en fait pas un problème ni un favoritisme : si plusieurs pages d’un même site sont proposées sur une requête, c’est bel et bien que Google considère que ces pages, individuellement, sont les plus à même de répondre au besoin de l’internaute et donc les plus pertinentes.

Ainsi, si plusieurs pages d’un même site répondent bien à la requête utilisateur, elles pourraient toutes être proposées dans les pages de résultats. Une différenciation sur l’intention de l’utilisateur est un axe à développer.

Nous abordons régulièrement ce sujet avec nos clients concernés par cette problématique. Le gain en visibilité dans le cas où plusieurs pages seraient référencées sur une requête n’étant pas négligeable.

Faut-il ainsi privilégier 2 pages séparées ou 1 page complète pour 2 intentions identifiées ?

Le test étape par étape est conseillé, les cas pouvant être très particuliers.

Par exemple, pour un nouveau contenu, il est suggéré d’opter pour la création de 2 pages. Si les 2 sont positionnées, pas de soucis. Si une seule est positionnée, il sera judicieux de fusionner les 2.

Le risque de cannibalisation

Pour les requêtes larges, sur lesquelles l’intention de l’utilisateur est difficilement définie, le risque de cannibalisation entre ces pages existe bel et bien.
Plus la requête est précise, moins le risque de cannibalisation existe.

Le désaveu de liens non désirés est-il encore utile ?

Pas selon Vincent Courson, qui indique que l’outil dédié est à utiliser en cas de pénalité manuelle du site.

Florida 2 et consignes particulières pour les SEO

Vincent Courson a indiqué qu’il n’y avait aucune consigne particulière à donner, ajoutant que des milliers de mises à jours étaient réalisées chaque année.
Cette mise à jour officialisée va dans le sens de l’amélioration des services Google, et les guidelines restent les mêmes.

Google et le Javascript

Un autre point souvent discuté : l’interprétation du Javascript des sites par les robots de Google.
Si les robots l’assimilent de mieux en mieux, le chargé de la communication Technique de Google a tout de même indiqué qu’ils génèrent un premier rendu sans Javascript pour optimiser l’usage des ressources et la vitesse du crawl. Dans un second temps, le Javascript est chargé pour obtenir une interprétation plus proche de l’expérience utilisateur.

Le cloaking a été abordé au même titre que la technique controversée d’obfuscation de liens : annoncées comme non pénalisantes si le but est de permettre une meilleure compréhension du site par Google, Vincent Courson a précisé son propos plus tard par un tweet, indiquant que cette recommandation n’était valable que pour les sites full-JS et en suivant les recommandations du dynamic rendering.

Le négative SEO et les liens factices

Vincent Courson a annoncé que les liens détectés comme abusifs et/ou artificiels ne sont plus pris en compte, même s’ils sont affichés dans la Search Console.

L’échange de liens

Considérée comme une création de liens artificielle, la technique est pénalisable. Il a tout de même été indiqué que Google était capable de faire la distinction entre des liens réciproques naturels et un échange artificiel.

Une conférence précise et interactive, qui ouvre des perspectives sur le futur du SEO

En répondant à des questions précises, Vincent Courson a éclairci des sujets parfois incompris ou mal interprétés, renforçant une nouvelle fois le lien entre Google et l’écosystème SEO, stratégie adoptée depuis quelques années maintenant.

Ce lien renforcé permet un travail SEO plus précis et plus efficace, permettant l’amélioration des services Google tout comme l’optimisation des sites web.
Il représente une belle opportunité pour les consultants et les agences comme Wimersion de continuer à améliorer leurs services pour le SEO des sites clients.

Partagez l'article :

Partager sur facebook
Partager sur twitter
Partager sur linkedin