Google : les services de protection contre les robots servent parfois la directive Noindex
Saviez-vous que parfois ces services de protection contre les robots serviront les directives noindex de Google et d’autres moteurs de recherche ? John Mueller de Google a dit ceci sur Xen disant: « Parfois, il y a un déclenchement de protection contre les robots (ou une connexion, un interstitiel, etc.) qui comporte un noindex. »
Il a également ajouté qu’il serait préférable qu’ils servent 503 codes d’état du serveur. « Il serait préférable d’utiliser 503 pour les blocs côté serveur comme la protection contre les robots », a-t-il écrit.
En fin de compte, la personne à qui il a répondu avait un problème différent provoquant le noindex, ce n’était pas une protection contre les robots. Il a dit qu’il s’agissait de « quelques manigances avec NextJS effectuant un rendu côté client au lieu d’un rendu serveur ». « Le HTML avait une balise noindex, qui a été supprimée après le rendu sur le navigateur. Le HTML affiché sur GSC est celui APRÈS le rendu JavaScript, c’est pourquoi je ne l’ai pas trouvé et j’ai pensé qu’il s’agissait d’un bug de GSC », a-t-il ajouté.
Voici l’erreur qu’il voyait :
Voici ces messages :
que se passe-t-il ici ? pourquoi Google n’indexe-t-il pas celui-ci ?
Ils disent qu’il y a une balise « noindex », mais il n’y en a pas. robots.txt a l’air bien aussi.
N’importe qui? #référencement aide pic.twitter.com/DYzJsLQ4Yk
-Guilherme (@goenning) 26 décembre 2023
Merci John, je l’ai finalement trouvé grâce à @HamilcDev
Quelques manigances avec NextJS effectuant un rendu côté client au lieu d’un rendu serveur
Le HTML avait une balise noindex, qui a été supprimée après le rendu sur le navigateur. Le HTML affiché sur GSC est celui APRÈS le rendu JavaScript,… https://t.co/NffU7suVLM
-Guilherme (@goenning) 26 décembre 2023
Discussion sur le forum à X.