Étude: les moteurs de recherche d'IA sont trop souvent erronés en toute confiance
Une nouvelle étude de Columbia Journalism Review a montré que les moteurs de recherche AI et les chatbots, tels que la recherche Chatgpt d'Openai, la perplexité, la recherche en profondeur, Microsoft Copilot, Grok et Google's Gemini, sont tout simplement faux, trop souvent.
J'ai dit cette fois-ci, quand je vois une réponse d'IA, à ce stade, je le saute juste parce que je sais que je ne peux pas lui faire confiance et cela le prouve. Je sais que ça ira mieux au fil du temps, mais jusqu'à ce moment, je les lise, car je sais, bien trop souvent, c'est mal.
L'étude a déclaré: « Collectivement, ils ont fourni des réponses incorrectes à plus de 60% des requêtes. Sur différentes plates-formes, le niveau d'inexactitude variait, la perplexité répondant à 37% des requêtes incorrectement, tandis que Grok 3 avait un taux d'erreur beaucoup plus élevé, répondant à 94% des requêtes de manière incorrecte. »
Voici un graphique montrant ces données par chaque moteur de recherche d'IA qu'ils ont testé:
De plus, bon nombre de ces moteurs de recherche et « les chatbots semblaient contourner les préférences du protocole d'exclusion des robots. »
Et l'étude a déclaré: « Les outils de recherche génératifs ont fabriqué des liens et ont cité des versions syndiquées et copiées d'articles. »
De plus, ils inventent des citations et des liens, bien trop souvent:
Vous pouvez lire toutes les données ici – mais je ne suis pas du tout choqué par cette étude, comme je l'ai dit ci-dessus.
Discussion du forum à X.