Google Robot Police

Google : l'application de la politique en matière d'abus de réputation de site n'est pas encore algorithmique

Google a une fois de plus déclaré que l'application de la politique en matière d'abus de réputation du site se faisait toujours uniquement par le biais d'actions manuelles et non de manière algorithmique. Danny Sullivan, responsable de la liaison de recherche de Google, a déclaré hier sur X : « Nous n'avons pas lancé d'actions algorithmiques concernant l'abus de réputation de site. »

Sullivan a ajouté que « lorsque nous le ferons, nous serons très clairs à ce sujet ». Cela signifie que lorsque Google commencera à appliquer la politique d’abus de réputation du site par des moyens algorithmiques, Google l’annoncera quelque part. Probablement sur sa page d'état de recherche.

Pour rappel, Sullivan a dit cela le 6 mai sur X, comme nous l'avions couvert à l'époque. Il écrivait alors : « nous ne faisons que des actions manuelles pour le moment. Le composant algorithmique viendra effectivement, comme nous l'avons dit, mais ce n'est pas encore opérationnel. » Ainsi, 18 jours plus tard, le composant algorithmique n’est toujours pas opérationnel.

Sullivan a ajouté :

Les éditeurs constatent des changements et pensent que c'est le cas – ce n'est pas le cas – les résultats changent tout le temps pour toutes sortes de raisons. Actuellement, les actions n'ont également d'impact que sur le contenu des actions, et non sur l'ensemble du site, comme le montrent clairement les avis d'action, je crois.

C'était en réponse à certains référenceurs affirmant que la politique en matière d'abus de réputation du site est désormais algorithmique. Google dit non, ce n'est pas le cas.

Voici ce message :

Google a déclaré que la politique en matière d'abus de réputation du site serait appliquée à la fois par des algorithmes et par des actions manuelles, mais lorsqu'elle a été mise en ligne pour la première fois, elle n'a été appliquée qu'à l'aide d'actions manuelles.

Pour rappel, l'abus de réputation d'un site « se produit lorsque des pages tierces sont publiées avec peu ou pas de surveillance ou d'implication de la part de la première partie, dans le but de manipuler les classements de recherche en tirant parti des signaux de classement du site propriétaire », Chris Nelson. de l'équipe Google Search Quality a écrit. Cela inclut les pages sponsorisées, publicitaires, partenaires ou autres pages tierces qui sont généralement indépendantes de l'objectif principal d'un site hôte ou produites sans surveillance ni implication étroite du site hôte, et qui n'apportent que peu ou pas de valeur aux utilisateurs, a-t-il expliqué.

Voici d'autres commentaires sur ce sujet d'hier :

Je dois ajouter qu'il y a beaucoup de confusion autour d'une grande partie de la volatilité des classements au cours des dernières semaines. Il y a eu de nombreuses mises à jour non confirmées de Google au cours des dernières semaines qui ont vraiment bouleversé les choses dans les résultats de recherche Google.

Discussion sur le forum X.