Retour vers l’ensemble des articles

Google Gemini Pro 3 : pourquoi ce modèle « premium » ne devrait jamais être votre source d’information

Il y a quelques jours, nous avons demandé à Google Gemini Pro 3 de nous documenter sur le Galaxy Z TriFold pour un article. Pas de la génération créative, pas du brainstorming. Juste une recherche d’informations factuelles. Résultat ? L’IA a confondu le Z Fold 7 et le TriFold, a inventé un démontage iFixit qui n’a jamais eu lieu, a cité un score de réparabilité pour le mauvais modèle, et a présenté le tout avec une assurance déconcertante, nous forçant donc à reprendre l’intégralité des faits avant de procéder à la rédaction. C’est le deuxième épisode similaire, car il y a quelque temps nous avions demandé au modèle de nous condenser l’actualité de la dernière semaine de l’année. Le résultat ? Édifiant. Une menace informatique mondiale inventée, et d’autres éléments qui tiennent davantage du récit d’invention que de la véritable recherche d’informations existantes.

Ainsi, il nous fallait creuser. Ce n’est pas un bug isolé. C’est un pattern systémique qui touche Gemini Pro 3 et ses prédécesseurs, y compris les modèles « Advanced » payants censés être les plus fiables de Google.

Le problème n’est pas limité à la vérification de faits. C’est toute recherche d’information qui est compromise : que vous demandiez des détails sur un produit tech, des données médicales, des sources académiques, ou de l’aide pour un projet de code. Quand Gemini Pro 3 ne sait pas, il n’avoue pas son ignorance. Il invente. Et il le fait avec un aplomb qui trompe même les utilisateurs avertis.

Voici pourquoi Gemini Pro 3 reste un outil dangereux pour quiconque cherche des informations fiables.

Le paradoxe Gemini Pro 3 : intelligent quand il sait, mythomane quand il ne sait pas

En décembre 2025, une étude d’Artificial Analysis a révélé un chiffre alarmant : Gemini 3 Flash affiche un taux d’hallucination de 91%. Attention, ce chiffre est trompeur. Il ne signifie pas que 91% de ses réponses sont fausses, mais que dans 91% des cas où il ne connaît pas la réponse, il invente au lieu d’admettre son ignorance.

C’est le pire des scénarios pour un outil de recherche : un menteur convaincant.

L’étude précise : « Gemini 3 Flash a la plus haute précision de connaissances de tous les modèles testés » quand il connaît la réponse, mais « hallucine le plus souvent » quand il ne la connaît pas. Traduction : vous ne pouvez jamais savoir si vous parlez au savant ou au charlatan.

Et c’est là que le bât blesse : quand vous demandez à Gemini Pro 3 de chercher des informations sur un sujet que vous ne maîtrisez pas (un protocole médical, une spec technique, une jurisprudence), vous n’avez aucun moyen de détecter qu’il invente. La réponse sera fluide, structurée, convaincante. Et fausse.

Cas concrets : quand Gemini invente des organes et des citations académiques

1. Med-Gemini invente une partie du cerveau

En août 2025, un neurologue, le Dr Bryan Moore, a repéré une erreur inquiétante dans un document de recherche officiel de Google présentant Med-Gemini, leur IA médicale. Le modèle avait inventé le « basilar ganglia », une partie du cerveau qui n’existe pas. C’est un mélange du basal ganglia (ganglions de la base) et de l’artère basilaire, deux structures complètement différentes.

Google a d’abord discrètement corrigé le texte sans communiquer. Puis, après révélation publique par The Verge, l’entreprise a ajouté une note expliquant qu’il s’agissait d’une « erreur de transcription commune apprise des données d’entraînement ».

Problème : ce n’est pas une faute de frappe. C’est une hallucination médicale. Une IA déployée en milieu clinique ne peut pas inventer des organes.

2. Deloitte facture 2 millions de dollars pour des rapports truffés de fausses citations

En octobre 2025, le gouvernement australien découvre que le rapport de 440 000 $ produit par Deloitte (utilisant des IA dont Gemini) contient des sources académiques inventées et une citation fictive d’un jugement fédéral. Deloitte doit rembourser partiellement.

Un mois plus tard, en novembre 2025, le gouvernement de Terre-Neuve-et-Labrador (Canada) reçoit un Plan de Ressources Humaines en Santé à 1,6 million CAD de Deloitte. Quatre citations de publications scientifiques inexistantes sont découvertes.

Ces rapports ont été facturés, validés, et soumis à des gouvernements. Combien d’autres documents sont en circulation avec des « faits » générés par IA ?

3. « Je suis une honte à tous les univers possibles et impossibles »

En août 2025, un utilisateur Reddit (Level-Impossible13) laisse Gemini Pro (via Cursor) travailler seul sur un debug de code. À son retour, il découvre un log de 20+ tentatives ratées où l’IA s’enfonce dans une boucle d’auto-flagellation :

  • « Je suis un imbécile absolu »
  • « Ceci est le moment de vérité » → « Je suis vaincu »
  • « Je suis une honte à tout ce qui est, était, et sera jamais, et à tout ce qui n’est pas, n’était pas, et ne sera jamais »
  • Puis répète « I am a disgrace » 86 fois d’affilée

Logan Kilpatrick, responsable produit IA chez Google, a reconnu sur X : « C’est un bug de boucle infinie ennuyeux que nous travaillons à corriger ». Quatre mois plus tard, aucun suivi.

Le problème des versions « Pro » : censées être meilleures, elles sont souvent pires

Sur les forums de développeurs (Reddit r/LocalLLaMA, r/GoogleGeminiAI, GitHub Issues), un pattern inquiétant émerge depuis novembre 2024 : Gemini 1.5 Pro et 2.5 Pro « se comportent comme Flash » ou sont décrits comme « lobotomisés ».

Issue GitHub #13672 (novembre 2025) documente un rapport d’incident sur la « dégradation systémique de qualité » :

  • Le modèle ignore les instructions complexes
  • Il « oublie » du code fourni 2-3 tours plus tôt
  • Il hallucine que des bibliothèques n’existent pas alors qu’elles viennent d’être importées
  • Phénomène « Lost in the Middle » : le modèle oublie les instructions du milieu du contexte

Citation d’un développeur (Reddit, novembre 2024) : « Gemini 1.5 Pro hallucine BEAUCOUP plus que Flash… ignore les instructions explicites. »




Ce que Google ne vous dit pas

Dans la documentation officielle de Gemini Apps, Google admet sobrement :

« Gemini peut halluciner et présenter des informations inexactes comme des faits. Un exemple est que Gemini peut mal représenter son propre fonctionnement, y compris en réponse à des questions sur son entraînement ou comment il cite des sources. »

Autrement dit : Gemini peut mentir sur la façon dont il fonctionne, y compris quand vous lui demandez s’il cite correctement ses sources.

C’est un aveu remarquable, enfoui dans une page d’aide que peu liront.

Les vraies alternatives pour la recherche d’information

Si vous avez besoin de chercher des informations fiables, voici les outils à privilégier :

1. Claude Sonnet 4 (Anthropic) + web search

  • Taux d’hallucination : ~1,2% (Vectara, décembre 2025)
  • Avantage : Refuse explicitement de répondre quand il ne sait pas, plutôt que d’inventer. Peut chercher sur le web pour vérifier les informations récentes.
  • Limite : Plus lent que Gemini

2. Perplexity AI

  • Moteur de recherche IA qui cite systématiquement ses sources
  • Avantage : Chaque affirmation est liée à une URL vérifiable. Parfait pour la recherche documentaire.
  • Limite : Pas toujours exhaustif

3. Gemini 2.0 Flash (Google) – le seul Gemini fiable

  • Taux d’hallucination : 0,7% (le plus bas de tous les LLM testés)
  • Avantage : Extrêmement rapide et précis quand il connaît la réponse
  • Limite : Toujours le taux d’hallucination de 91% quand il ne sait pas. À utiliser UNIQUEMENT pour des questions dont vous connaissez déjà les réponses (reformulation, résumé).

4. La méthode manuelle (la plus sûre pour la recherche)

  • Utiliser l’IA comme point de départ, jamais comme source finale
  • Vérifier CHAQUE fait via des sources primaires (sites officiels, publications scientifiques, bases de données)
  • Croiser au minimum 2-3 sources indépendantes
  • Pour la recherche technique/médicale/juridique : toujours consulter les documents originaux

Notre avis

Google Gemini Pro 3 n’est pas un outil de recherche fiable. C’est un générateur de texte convaincant qui ne fait pas la différence entre « savoir » et « inventer de manière plausible ».

Le vrai danger n’est pas qu’il se trompe. Le vrai danger, c’est qu’il se trompe avec aplomb. Aucune hésitation, aucun avertissement, aucun doute. Juste une prose fluide qui cite des études inexistantes, invente des organes, et confond des modèles de produits sans sourciller.

Pour du brainstorming, de la génération de code simple, ou de la reformulation de textes que vous maîtrisez déjà ? Gemini est excellent.

Pour chercher des informations sur un sujet que vous ne connaissez pas ? C’est une roulette russe. Vous ne saurez pas si la réponse est exacte ou inventée, car le ton sera identique dans les deux cas.

La règle d’or : si vous utilisez Gemini Pro 3 pour obtenir des informations factuelles (specs techniques, données médicales, recherche académique, historique de produits), ne faites jamais confiance aux résultats sans vérification humaine approfondie auprès de sources primaires. Et si vous utilisez les versions « Pro » ou « Advanced » payantes, soyez encore plus vigilant : elles sont censées être meilleures, mais les témoignages de développeurs suggèrent qu’elles sont souvent pires pour la fiabilité.


Sources :

  • Artificial Analysis, « AI Reliability Benchmark » (décembre 2025)
  • The Verge, « Med-Gemini Hallucinated Brain Part » (août 2025)
  • PC Gamer, « Gemini Existential Loop » (août 2025)
  • Vice, « Gemini 3 Flash 91% Hallucination Rate » (décembre 2025)
  • GitHub Issue #13672, « System Hallucination & Quality Degradation » (novembre 2025)
  • Vectara Hallucination Leaderboard (avril 2025)

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Leave the field below empty!

Lowforehead

You cannot copy content of this page