Google Webmaster Hangout du 5 juin

Trois jours après le Hangout des Webmasters (anglophones) du 2 juin, John Mueller s’y remet ce vendredi 5, avec un collègue. Les interrogations des participants étaient souvent autour du délai de prise en compte des modifications de leur site par Google.

Voici ce qui s’est dit ce vendredi 5 juin 2015 :

Données structurées et temps d’actualisation par Google

google-hangout-open-office-hoursBeaucoup de questions autour des Rich Snippets : une première angoisse pour un site où le markup schema.org n’affichait rien, le webmaster craignait une mauvaise intégration de sa part (possible), mais surtout que cela impacte ses positionnements. Evidemment, le référencement naturel n’est pas favorisé par les données enrichies, John Mueller l’a rappelé. En creusant le sujet, on peut considérer qu’ils augmentent le Taux de Clic (CTR), et qu’un bon CTR serait un facteur de positionnement. Ca fait débat. John rappelle également que Google affiche ces données enrichies dans les résultats de recherche lorsque ça lui semble pertinent : ce n’est pas systématique. Ainsi, même avec une intégration parfaite depuis un bon laps de temps (où le GoogleBot est forcément venu crawler et donner la page à l’index), on ne verra pas toujours le résultat de son travail, éventuellement plus tard, peut-être jamais. Le conseil donné aux webmasters est plutôt d’améliorer le reste de son site (UX, contenu) plutôt que de se focaliser sur l’apparition des Rich Snippets. Personnellement, j’ai constaté un affichage très tardif des Ratings (étoiles + notes dans les SERP) après leur intégration sur un site e-commerce de 5 000 pages, environ un an complet.

Rétrogradation des sitelinks et noindex

questions-hangout-webmasters

En bleu, les questions traitées en direct

Dans ces mêmes préoccupations par rapport au crawl, un webmaster avait rétrogradé des Sitelinks (Liens de site dans la Search Console) et s’étonnait de les voir toujours apparaître après plusieurs semaines. La réponse de Google était que cette modification prend du temps à s’afficher dans les SERP, et qu’ils ne garantissent pas que “les URL rétrogradées ne réapparaîtront pas. Nous ferons cependant de notre mieux pour en tenir compte au moment de générer les Sitelinks” (Extrait de la documentation sur la Search Console). Autre point de vigilance, ces pages rétrogradées devraient réapparaître après 90 jours… Si c’est un vrai problème pour un site, le John conseille d’en parler sur les Forums Google (ce sont parfois les vrais employés de Google qui vous répondent, souvent Zineb Ait Bahajji). Et si les pages problématiques sont vraiment néfastes, désindexez-les (noindex).

A propos du noindex, attention à ne pas faire une combinaison Disallow + balise noindex. Google doit repasser sur la page où la balise noindex a été ajoutée, ce qu’il ne peut pas faire si on lui a interdit le crawl sur cette page par une commande Disallow dans le fichier Robots.txt… Pour accélérer les choses, ou au moins surveiller la désindexation d’un certain volume de pages, un fichier sitemap spécifique peut aider à l’exploration (pour les gros sites).

Backlinks, désaveu et algorithmes Penguin et Panda

Dans un autre genre de Disallow : le Désaveu de liens par les Webmaster Tools (Search Console). Un participant s’interroge à propos d’une étude où un site a réalisé le test de désavouer l’intégralité de ses liens. Aucun changement constaté, jusqu’au passage de Penguin 2.0 (le 23/05/2013) où une chute conséquente est constatée dans les positions du site. Le site a ensuite retiré le fichier de désaveu, mais ni le passage de Penguin 2.1  (le 4/10/2013) ni du 3.0 (le 18/10/2014) n’a rétabli ses positions. Le jugement de John Mueller est que c’est un comportement exceptionnel pour un site, donc suspect, pas un bon test du fonctionnement de l’algorithme.

Concernant les backlinks, un webmaster demande si leur valeur marginale est décroissante. Pour les  non-matheux ou économistes, ce serait l’idée qu’à partir d’un certain palier de liens, Google ne considérerait plus les nouveaux comme un facteur de santé du site. La réponse dans le Hangout est bien vague (bien que pas fausse) : tout dépend du domaine du site concerné, la concurrence pour la requête, entre autres facteurs.

Pour l’animal noir et blanc asiatique, un anxieux voulait savoir jusqu’à quelle date Google prenait en compte les modifications faites sur un site avant que Panda le juge. John rappelle que le passage de ces filtres n’est pas annoncé avant la date, mais qu’un site web doit être crawlé et réindexé. Ainsi, il est trop tard quelques jours avant et devrait être bon pour une partie du site 1 semaine avant. De toute manière, pourquoi attendre le passage des algorithmes avant d’améliorer son site ?

Mentions légales et Images

Une page de Mentions Légales est-elle nuisible au site ? Etant linkée de partout, surtout avec le développement des lois d’informations sur les Cookies de tracking, la question doit se poser chez pas mal de monde. John informe que Google comprend que ces pages font partie de la structure du site, pas besoin de les mettre en noindex, nofollow. Un débat tourne dans la communauté SEO : est-ce que la présence de Mentions Légales détaillées est considérée comme un gage de confiance pour Google, donc donnerait un avantage en référencement naturel ?

Un webmaster travaillant dans l’immobilier s’interrogeait sur comment optimiser les sites dans son domaine, sachant qu’ils sont principalement composés d’images. La réponse (connue) est que l’information textuelle est essentielle pour comprendre l’image, elle a besoin d’un contenu pour la contextualiser (sa balise ALT n’est pas suffisante).

Pour le reste des sujets abordés, je vous laisse regarder la vidéo.

[Total : 0    Moyenne : 0/5]
Pour marque-pages : Permaliens.

Les commentaires sont fermés