Google Policy Books

Google Business Profiles Lien des politiques et directives mises à jour

Google a mis à jour ses politiques et directives de liens sur les profils commerciaux Google. Google a ajouté de nouvelles sections pour les pages de destination dédiées, l'achèvement d'action directe, les sites de médias sociaux et une nouvelle politique de création de liens commerciaux.

Ceci est mis à jour à partir de la version de juillet 2025. Ces modifications ont été repérées par Hiroko Imai qui a posté à ce sujet sur LinkedIn et a écrit: « Le volume de contenu a à peu près doublé. » « Il convient de noter en particulier le nouvel ajout d'une section sur la vérification des liens. Google vérifie régulièrement si les liens commerciaux fournis par les utilisateurs se conforment à leurs politiques, et tous les liens qui violent ces politiques seront automatiquement supprimés », a-t-il ajouté.

Voici les sections qui ont été ajoutées:

Pages de destination dédiées

Les liens commerciaux locaux doivent conduire à une page de destination dédiée pour votre entreprise. Pour les entreprises avec plusieurs emplacements, les liens d'action doivent conduire à un site Web pour un emplacement spécifique. Évitez les pages de destination générales ou une page de destination pour un autre emplacement de la même entreprise.

L'achèvement d'action directe les liens commerciaux locaux doivent permettre aux clients de terminer l'action désignée. Par exemple, un lien « Commande » doit permettre au client de terminer une commande. Les liens commerciaux locaux ne peuvent pas être:

– Sites de médias sociaux
– Liens de messagerie
– Liens de l'App Store
– Raccourcisseurs de liaison

Politique de crawlabilité des liens d'entreprise

Pour garantir que les informations commerciales sur Google sont exactes et dignes de confiance, nous vérifions les liens que vous fournissez sur votre profil d'entreprise. Nos robots automatisés visiteront ces liens au maximum au maximum pour confirmer qu'ils conduisent à une page Web valide et pertinente. Si un lien ne peut pas être accessible par nos robots, nous ne pouvons pas le vérifier, ce qui peut conduire à la suppression du lien. Cette politique explique comment s'assurer que vos liens sont accessibles à nos systèmes à des fins de vérification.

Définitions


  • Crawlabilité des liens: La capacité des systèmes automatisés de Google, comme des robots ou des robots, à accéder au contenu à une URL donnée. Cela comprend la possibilité de suivre les redirections et d'accès à toutes les ressources nécessaires comme les images, les scripts et les feuilles de style.

  • Protection automatisée des bots: Tout mécanisme employé par un site Web pour bloquer, faire accélérer ou limiter l'accès par des systèmes automatisés. Cela empêche généralement l'activité malveillante, le grattage ou la charge de serveur excessive. Cela comprend, mais sans s'y limiter:

    • Fichiers robots.txt qui interdisent l'accès à des chemins spécifiques
    • Taux limitant ou demandez la limitation
    • Captcha défis ou autres formes de vérification
    • Blocage d'adresse IP
    • Restrictions de chaîne utilisateur-agent
    • Camouflage de contenu ou servant un contenu différent aux robots que les utilisateurs humains

  • Agent utilisateur: Identifie le type de client, comme le navigateur ou le robot, qui accéde à une ressource Web.

  • Codes d'état HTTP: Les codes numériques renvoyés par un serveur pour indiquer l'état d'une demande. Par exemple, un code d'erreur 404 indique que la page n'a pas été trouvée et qu'un code d'erreur 500 indique une erreur de serveur.

Exigences de crawlabilité

Important: Pour appliquer cette politique, ces robots de vérification des liens d'entreprise ne suivent pas les règles Robots.txt.

Tous les liens commerciaux utilisés dans votre profil d'entreprise Google doivent répondre aux critères suivants:


  • Accès sans restriction: Les liens doivent être accessibles à nos robots automatisés sans restriction. Cela signifie que le site Web ne doit pas:

    • Bloquer le trafic de bot identifié par l'agent utilisateur Googleother. Apprenez à identifier le trafic de Googleother Crawlers.
    • Mettez en œuvre la limitation ou la limitation des taux qui empêche nos robots d'accès au contenu.
    • Exiger des captchas, des connexions ou d'autres formes de vérification pour que nos robots accédents accédent.
    • Implémentez le blocage d'adresses IP qui empêche nos robots d'accéder au contenu.
    • Utilisez du camouflage de contenu pour servir différents contenus aux robots par rapport aux utilisateurs humains.

  • Liens fonctionnels: Les liens doivent se résoudre à une page Web fonctionnelle qui renvoie un code d'état HTTP valide.

    • Le lien doit renvoyer un code d'état «200 ok» ou un code réussi similaire.
    • Le lien ne doit pas renvoyer des codes d'erreur tels que:
      • «404 non trouvé»
      • «403 interdit»
      • «Erreur de serveur interne 500»
      • «503 Service indisponible»

  • Chargement complet: Nos robots doivent être en mesure de charger complètement la page. Cela inclut toutes les ressources comme les images, CSS et JavaScript.
  • Pas de géobloquer: La page ne doit pas être bloquée par un fournisseur DNS ou par un mécanisme géo-géo.

Voici des captures d'écran des sections ajoutées:

LIENS BUSINESS LIENS LIGNES LIGNESSIONNES MISE À JOUR

Business Links Politiques directives Update2

Discussion du forum sur LinkedIn.