Google : Nous avons des algorithmes pour détecter et rétrograder le contenu plagié modifié par l'IA

Google : Nous avons des algorithmes pour détecter et rétrograder le contenu plagié modifié par l’IA

Duy Nguyen de l’équipe de qualité de recherche de Google a déclaré dans la vidéo sur les heures de bureau de Google que Google a « des algorithmes pour poursuivre » ceux qui publient du contenu plagié par l’IA, puis les algorithmes peuvent « rétrograder le contenu de site scraping d’autres sites ».

La question a été posée au marque 9:19 qui était « Comment les créateurs de contenu devraient-ils réagir aux sites qui utilisent l’IA pour plagier le contenu, le modifier, puis les surclasser dans les résultats de recherche ? »

Duy Nguyen a déclaré : « Gratter du contenu, même avec quelques modifications, va à l’encontre de notre politique anti-spam. » Duy a ajouté que Google a « de nombreux algorithmes pour s’attaquer à de tels comportements et rétrograder le contenu du site qui récupère le contenu d’autres sites ».

Si Google se trompe, et « si vous rencontrez des sites qui récupèrent du contenu à plusieurs reprises, qui fonctionnent bien sur la recherche, n’hésitez pas à nous les signaler, avec notre formulaire de rapport de spam afin que nous puissions encore améliorer nos systèmes, à la fois dans la détection du spam et classement général », a-t-il ajouté.

Voici la vidéo intégrée :

Plus tard dans la vidéo, à 17:05 marque une question similaire a été posée et répondue par Duy:

Kunal a demandé pourquoi Google n’agit pas sur les histoires Web copiées ou filées ? Pouvez-vous vérifier sur Discover ?

Merci pour le rapport. Nous sommes conscients de ces tentatives et nous les examinons. En général, les sites dont le contenu a été récupéré comme spam enfreignent notre politique anti-spam, et nos algorithmes réussissent assez bien à les rétrograder dans les résultats de recherche.

Forum de discussion sur Twitter.