Google Train Tracks Crossing

Google : interdire les paramètres UTM dans les URL ne facilitera pas l'exploration ou le classement

John Mueller de Google a déclaré sur Reddit que le fait d'interdire les URL contenant des paramètres UTM ne vous aidera pas à améliorer l'exploration ou l'évaluation avec la recherche Google. Il a ajouté qu'un site devrait essayer de garder ses URL internes propres et cohérentes, mais qu'au fil du temps, les balises canoniques devraient aider avec les liens externes contenant des paramètres UTM.

John a écrit : « Je doute que vous voyiez des effets visibles dans l'exploration ou le classement. (Et si cela ne sert à rien, pourquoi le faire ?) » Lorsqu'on lui a demandé s'il interdisait de telles URL.

Il ajouta:

De manière générale, j'essaierais toujours d'améliorer le site afin que les URL non pertinentes n'aient pas besoin d'être explorées (liens internes, rel-canoniques, cohérents avec les URL des flux). Je pense que cela a du sens pour rendre les choses plus propres et plus faciles à suivre – c'est une bonne hygiène du site Web. Si vous avez des URL de paramètres aléatoires provenant de liens externes, celles-ci seraient de toute façon nettoyées avec rel-canonical au fil du temps, je ne les bloquerais pas avec robots.txt. Si vous produisez vous-même des URL de paramètres aléatoires, par exemple dans le lien interne ou à partir de soumissions de flux, c'est quelque chose que je nettoierais à la source, plutôt que de le bloquer avec robots.txt.

tldr : un site Web propre ? Oui. bloquer les URL malveillantes aléatoires de l'extérieur ? Non.

Tout cela est très similaire aux conseils précédents de John Mueller que j’ai cités dans ces histoires :

Discussion sur le forum sur Reddit.