Google sur la corrélation signalée des mauvais liens et la perte de trafic de 50%
Google sur la corrélation signalée des liens incorrects et la perte de trafic de 50%. John Mueller de Google commente la question des webmasters sur les mauvais liens de parrainage et la baisse du trafic.
Un éditeur a déclaré à John Mueller de Google que Google Search Console (GSC) a signalé plus de cinq cents pages de référence provenant de deux domaines. Ces références étaient en corrélation avec une baisse de trafic de 50%. John Mueller de Google a commenté la corrélation entre les liens de parrainage et la baisse du trafic.
L’éditeur a rapporté que GSC a montré des références de deux domaines totalisant jusqu’à quatre liens vers chaque page de leur site. En visitant ces pages, l’éditeur a vu qu’elles étaient vides, il n’y avait aucun contenu sur ces pages.
Ils ont déclaré que l’apparition de ces liens référents était corrélée à une baisse de 50% du trafic.
L’éditeur a demandé:
« … Est-ce un scénario où l’outil de désaveu a du sens ou Google les détecte-t-il comme non naturels et les ignorera comme signal de classement? »
John Mueller de Google a commenté le mystère des pages «vides» et ce que cela pourrait être:
« Il est vraiment difficile de dire ce que vous voyez ici. Il est certainement possible qu’il y ait des pages qui montrent une page vide aux utilisateurs, puis ils montrent une page complète à Googlebot. «
C’est une référence à une page qui montre une page à Google et une autre page à tout le monde. Cette pratique s’appelle le camouflage.
Mueller explique que la possibilité que la page soit masquée. Il s’agit d’une explication de ce que l’éditeur pourrait voir et ne pas aborder le deuxième problème du classement.
Mueller continue de rejeter les pages de référence comme des erreurs techniques plutôt que comme une tentative malveillante de saboter le classement de l’éditeur.
Il a dit:
« De ce point de vue, je voudrais simplement ignorer ces pages. »
Il a ensuite suggéré d’inspecter les pages avec le test Google Mobile Friendly pour voir à quoi ressemble la page lorsque GoogleBot les voit. C’est un test de dissimulation, Référencement internet Lille pour voir si une page montre une page à Google et une autre page aux visiteurs non Googlebot.
Mueller a ensuite commenté la corrélation entre les liens de parrainage et la baisse de 50% du trafic:
« Je ne pense pas que ce soit quelque chose que vous devez désavouer.
Cela semble probablement bizarre dans le rapport sur les liens, mais je ne m’inquiéterais vraiment pas de cela.
En ce qui concerne la baisse du trafic que vous voyez, de mon point de vue, cela ne serait probablement pas lié à ces liens.
Il n’ya pas de situation réelle… où j’imagine que des pages essentiellement vides poseraient un problème de liens.
Je voudrais donc simplement ignorer cela.
Si vous décidez de les mettre dans le fichier de désaveu de toute façon… gardez à l’esprit que cela n’affectera pas la façon dont nous affichons les données dans la console de recherche. Le rapport sur les liens continuerait donc de les montrer.
Je ne pense pas qu’il y ait de raison d’utiliser un fichier de désaveu dans ce cas particulier. Je les laisserais donc tranquilles. »
Qu’est-ce que l’éditeur a vu?
Ce que l’éditeur a vu est un phénomène ancien et commun appelé spam de référence. La raison initiale du spam de référence était qu’au début des années 2000, certains programmes d’analyse gratuits publié des listes de référents sous forme de liens.
Cela a créé l’opportunité de spammer un site avec de fausses références du site de spam vers un autre site afin de créer un lien à partir de la page d’analyse publique.
Cette page d’analyse n’était liée à aucune autre page d’un site. Il existait simplement sur une URL générée automatiquement.
La plupart des sites n’ont plus ces pages d’analyse. Mais la pratique se poursuit, peut-être dans l’espoir que si suffisamment d’éditeurs cliquent sur les liens, Google le verra comme une forme de popularité qui aiderait leur classement.
L’éditeur de ce hangout était probablement en train de regarder une référence fabriquée.
Le référent n’était pas réel. Même le lien n’existait pas. C’est généralement le cas du spam référent. Le spam référent nuit-il au classement?
En vingt ans de création de sites Internet, je n’ai jamais publié de site qui n’attirait pas le spam référent. Le spam référent et les liens fantômes vers mes sites n’ont eu aucun effet sur mon classement.
Le spam référent est très courant. C’est vraiment un problème.
La raison pour laquelle le site de l’éditeur a perdu cinquante pour cent de son classement réside dans une autre explication.