A l’occasion du SEO Campus, le 28 mars, Vincent Courson s’est prêté à l’exercice du Q&A aux côtés d’Olivier Andrieu, auteur du blog Abondance. L’objectif : revenir sur les dernières annonces de Google et clarifier certains points autour du comportement du moteur de recherche. 5 questions ont retenu notre attention : l’obsolescence annoncée des balises rel next/prev, les évolutions imminentes de la Search Console, la prise en compte de critères ux dans l’indexation et l’utilité de la link detox.
Les balises rel next/prev sont-elles devenues inutiles ?
Vincent Courson opère une clarification bienvenue après la vague de mécontentement ayant suivi l’annonce de Google Webmaster :
Spring cleaning!
As we evaluated our indexing signals, we decided to retire rel=prev/next.
Studies show that users love single-page content, aim for that when possible, but multi-part is also fine for Google Search. Know and do what’s best for *your* users! #springiscoming pic.twitter.com/hCODPoKgKp
— Google Webmasters (@googlewmc) 21 mars 2019
La communauté SEO n’avait pas forcément bien accueilli la nouvelle :
Yesterday, Google announced that it doesn’t use the pagination markup rel=prev/next at all and hasn’t for years. Curious, because they’ve been advocating it until recently. Here’s what it means for working with paginated content, including our view on it.https://t.co/s5EsN9C44e
— Yoast (@yoast) 22 mars 2019
Vincent Courson s’est donc excusé de la mauvaise communication puis a confirmé la nouvelle : le perfectionnement de l’exploration rend obsolètes les balises rel rext/prev car Google est capable de repérer le contenu paginé seul. Aussi, faut-il s’en débarrasser ? Pour Vincent Courson, il serait fâcheux de ne plus les utiliser. En effet, elles continuent de faciliter l’exploration et le crawl auprès des Google Bot. Les balises rel netx prev sont également utiles aux autres moteurs de recherche -notamment Bing – aux navigateurs et à l’accessibilité.
Réponse : on les garde !
Les évolutions de la Search Console
La Search Console va être modifiée à compter du 10 mars. Vincent Courson nous a donné un petit aperçu des évolutions auxquelles s’attendre.
La consolidation des domaines
Annoncée le 25 mars et effective le 10 avril, la consolidation des domaines réunira l’ensemble des variantes (http, https, etc.) d’un domaine au sein d’une même interface. A la clé, un suivi des données simplifié.
Avec les Propriétés de Domaines dans la #SearchConsole, les données peuvent désormais être aggrégées facilement pout TOUTES les URLs d’un domaine, quelque soit:
▶ le protocole
▶ l’absence ou non de www.
▶ le sous-domaine ou chemin d’accèshttps://t.co/tBarxQY3S9
— Vincent Courson (@VincentCourson) 25 mars 2019
Cette consolidation se mettra en place automatiquement le 10 avril si vous avez déjà mis en place une validation DNS.
La consolidation de l’outil Performance
Cette mise à jour, annoncée fin mars, est plus problématique : les données de trafic seront reportées sur les URLs canoniques alors qu’auparavant elles étaient attribuées à l’URL exacte, présentée à l’internaute.
L’outil d’inspection d’URL de la #SearchConsole peut maintenant indiquer quelle est l’URL canonique d’une page pour n’importe quel site, pas seulement les vôtres.
Du coup, l’opérateur de recherche « info: » tire sa révérence car peu utilisé.https://t.co/Qvbk6eotRz
— Vincent Courson (@VincentCourson) 26 mars 2019
Cette évolution impacte le suivi des pages mobiles ainsi que des pages AMP, toutes deux canonicalisées. Leurs données propres seront toujours accessibles mais il faudra utiliser les filtres de dimension de recherche.
Le désaveu des liens toxiques, une pratique obsolète ?
Vincent Courson affirme que le désaveu des liens toxiques n’a pas d’intérêt. L’algorithme de Google est dorénavant en mesure de les discriminer lors du calcul du Page Rank. Aussi, si un site malhonnête faisait un lien vers votre site, ledit lien ne serait pas pris en compte et n’aurait aucun impact sur l’autorité du site ciblé.
Choké déçu ? Cette mise à jour de #pingouin n’est pas forcément une mauvaise nouvelle : elle permet notamment de neutraliser les tactiques de #negativeseo #blackhat pour .@VincentCourson#SEOCAMP
— Search Foresight (@S4sight) 28 mars 2019
Interviewé par JDN, il précise que la seule utilité qu’il voit dans un fichier de désaveu s’inscrit dans le cadre d’une pénalité manuelle :
« [le fichier de désaveu dans ce cas précis permet de ] donner une opportunité à un webmaster qui essaie de nettoyer son profil de backlinks d’indiquer à Google qu’il n’arrive pas à faire supprimer certains liens. »
L’UX impacte-t-il les résultats de recherche ?
Alors que les experts SEO n’ont de cesse de s’interroger sur l’utilisation éventuelle dans l’algorithme de classement de critères d’usage comme le taux de clics dans les pages de résultats, le dwelling time ou l’analyse du pogo sticking, Vincent Courson réaffirme que Google ne prend pas en compte ces données UX au niveau d’une page individuelle. En revanche, l’algorithme fait emploi des données comportementales au niveau de la requête. Sur les modalités de cet usage, malheureusement, Vincent Courson reste flou… Pour plus de détails, nous vous invitons à lire l’article de Philippe Yonnet sur l’utilisation du CTR dans l’algorithme de Google.
Si ce Q&A n’a pas donner lieu à des révélations fracassantes, cet exercice illustre un pas de Google vers une politique de transparence et une meilleure prise en compte de la communauté des experts SEO. Cette intervention au SEO Campus a permis de clarifier certains éléments liés à l’actualité du secteur.