Google AI Overviews génère un million de mensonges par heure selon un test

Google AI Overviews génère un million de mensonges par heure selon un test

Des tests publiés ces derniers mois sur les AI Overviews de Google donnent une image qui dérange, une fonction pensée pour résumer le Web peut produire, à grande échelle, des informations fausses, datées ou trompeuses.

Le problème n’est pas seulement l’erreur ponctuelle qui fait rire sur les réseaux, c’est la mécanique, une réponse générée en haut des résultats, dite avec assurance, parfois sans nuance, parfois sans contexte. Google reconnaît que des résumés bizarres, inexacts ou inutiles ont été affichés, et dit avoir corrigé rapidement certains cas. Mais si tu prends l’idée au sérieux, une synthèse erronée peut se diffuser très vite, parce qu’elle apparaît avant les liens. Et quand l’outil se met à mal interpréter une phrase, à avaler du sarcasme de forum, ou à répéter une version populaire plutôt que la bonne, l’effet d’échelle devient central.

Liz Reid détaille les erreurs et les restrictions chez Google

La responsable de la recherche chez Google, Liz Reid, a admis publiquement que des AI Overviews avaient produit des réponses inexactes. Parmi les exemples devenus viraux, on retrouve des conseils absurdes, comme recommander de la colle pour faire tenir du fromage sur une pizza, ou suggérer de boire de l’urine pour accélérer l’évacuation d’un calcul rénal. Ce sont des cas extrêmes, mais ils illustrent un point simple, la formulation peut être nette même quand le fond ne l’est pas. Google explique que ces ratés arrivent souvent sur des requêtes peu courantes, ou quand il y a peu d’informations fiables disponibles en ligne. Autre angle, l’outil peut prendre au pied de la lettre des contenus sarcastiques issus de forums, ou mal interpréter des nuances de langage sur certaines pages. Dit autrement, la machine lit, mais ne comprend pas toujours l’intention, et toi tu reçois une synthèse qui a l’air sûre d’elle. Face à ça, l’entreprise dit avoir modifié ses algorithmes et activé des restrictions d’affichage sur des requêtes où les AI Overviews n’étaient pas assez utiles. Elle dit aussi chercher à éviter l’affichage sur des sujets d’actualité dure, là où la fraîcheur et la factualité comptent, et limiter l’usage de contenus générés par les utilisateurs quand ça peut produire des conseils trompeurs. C’est une réponse pragmatique, mais ça ressemble aussi à un aveu, la promesse d’un résumé universel est plus fragile qu’annoncé.

Un audit de 400 000 résumés souligne l’effet d’écho des dix premiers liens

Un audit massif portant sur plus de 400 000 AI Overviews a mis en avant un biais structurel, 77% des résumés citaient des sources issues uniquement des 10 premiers résultats organiques. Sur le papier, c’est efficace, l’outil se nourrit de pages déjà bien classées. Mais dans la pratique, tu obtiens un effet de chambre d’écho, si les dix premiers liens sont incomplets, datés, ou reprennent tous la même erreur, le résumé risque de la répliquer. Ce mécanisme explique aussi pourquoi une réponse ancienne peut survivre. Des tests rapportent que l’outil peut répéter une version dépassée simplement parce qu’elle est la plus fréquente sur le Web, même si une information plus récente existe mais reste moins publiée. Le résumé privilégie le consensus apparent, pas la vérité vérifiée. Pour toi, utilisateur, la nuance est énorme, tu ne lis plus plusieurs sources, tu lis une synthèse, et tu peux croire qu’elle reflète l’état le plus à jour. Le problème n’est pas réservé à Google. Des analyses sur les résumés générés par des modèles de langage montrent un risque d’exagération, selon les cas, entre 26% et 73% des synthèses peuvent introduire des erreurs en renforçant des conclusions. Ajoute à ça un autre chiffre souvent cité dans le débat public, des outils grand public peuvent se tromper environ 25% du temps selon certains tests. Tout ça ne veut pas dire tout est faux, mais ça impose une discipline, vérifier, ouvrir les liens, comparer, surtout sur santé, droit, finance.

Chirag Shah alerte sur la confiance historique accordée au moteur de recherche

Le point le plus sensible, c’est la confiance. Le professeur Chirag Shah, spécialiste des systèmes d’information, rappelle que la recherche est le cur du métier de Google. Quand une synthèse générée ramène du faux, même si elle s’appuie sur des contenus existants, l’utilisateur retient surtout une chose, Google l’a dit. Et là, tu changes de régime, tu ne consultes plus un index du Web, tu consommes une réponse. Des tests et critiques ont aussi montré des erreurs de citations ou d’attribution dans l’écosystème des assistants, avec des cas où des passages cités ne correspondent pas à la source, ou n’existent pas. Même si ces chiffres ne visent pas uniquement Google, ils décrivent un risque concret, une phrase entre guillemets, une date, un nombre, et tu peux relayer une info erronée en toute bonne foi. Dans une rédaction, ça se corrige par recoupement, dans la vie quotidienne, ça part sur un groupe de discussion en deux minutes. Pour les éditeurs et le référencement, l’impact est direct, si la réponse est donnée en haut de page, tu cliques moins, tu lis moins, et tu exposes moins les sites qui pourraient apporter du contexte. Google dit ajuster et restreindre, mais l’équilibre reste délicat, rendre le moteur plus conversationnel sans transformer l’outil en usine à certitudes. Si tu veux une règle simple, traite ces résumés comme un point de départ, pas comme une preuve, surtout quand la question touche à la santé ou à l’actualité.

À retenir

  • Google reconnaît des AI Overviews inexacts et a ajouté des restrictions d’affichage.
  • Un audit de plus de 400 000 résumés montre une forte dépendance aux dix premiers résultats.
  • Le risque principal tient à l’autorité perçue d’une réponse placée avant les liens.

Questions fréquentes

Pourquoi les AI Overviews de Google peuvent-ils se tromper ?
Parce que le système peut mal interpréter une nuance de langage, prendre du sarcasme au premier degré, ou synthétiser des informations populaires mais dépassées. Quand les sources disponibles sont faibles ou répétitives, le résumé peut amplifier ces défauts.
Google a-t-il réagi après les réponses absurdes devenues virales ?
Oui. Google a reconnu des résumés « bizarres, inexacts ou inutiles », dit avoir corrigé des cas via des ajustements algorithmiques et des processus de retrait, et a restreint l’affichage sur certaines requêtes jugées moins pertinentes.
Que signifie le chiffre de 77% lié aux dix premiers résultats ?
Dans un audit, 77% des AI Overviews citaient des sources provenant uniquement des dix premiers résultats organiques. Cela peut créer une chambre d’écho, si ces pages sont datées ou erronées, le résumé risque de l’être aussi.
Comment utiliser ces résumés sans se faire piéger ?
Les traiter comme un point de départ, ouvrir les liens cités, comparer plusieurs sources et vérifier les dates. Sur la santé, le droit ou l’actualité, il vaut mieux privilégier des sources reconnues et des documents originaux.

Laisser un commentaire