Les hallucinations des grands modèles de langage : comprendre et réduire le risque dans la traduction médicale
L’intelligence artificielle (IA) est devenue un élément essentiel de la communication multilingue, qu’il s’agisse de traduction automatique ou de génération de contenu. Pourtant, un défi persiste : les hallucinations de l’IA. Elles surviennent lorsqu’un modèle génère des informations qui ne sont pas étayées par les données d’entrée ou la réalité factuelle.

Dans le domaine des sciences de la vie, ces hallucinations peuvent avoir de graves conséquences. Une erreur de traduction dans une notice destinée aux patients ou dans une instruction de dosage peut induire les utilisateurs en erreur, compromettre la sécurité et nuire à la confiance. Comprendre les causes des hallucinations, les moyens de les atténuer et la façon dont des entreprises comme Novalins gèrent ces risques est essentiel pour utiliser l’IA de manière responsable.
Que sont les hallucinations de l’IA ?
Selon IBM, les hallucinations de l’IA se produisent lorsqu’un modèle fournit des informations fausses ou inventées, tout en paraissant sûr de lui. Contrairement à une erreur humaine, ces fautes sont souvent très convaincantes, car les grands modèles de langage (LLM) sont conçus pour prédire le mot suivant le plus probable, et non pour vérifier la véracité d’un fait. Face à des données incomplètes ou ambiguës, le modèle comble les lacunes en inventant des détails qui semblent plausibles.
En traduction, les hallucinations se manifestent sous forme de texte inexact ou sans rapport avec le contenu source. Par exemple, un LLM peut insérer des phrases étrangères au contexte, mal interpréter des expressions idiomatiques ou répéter indéfiniment certains segments. Dans une étude récente menée par Apple, ces « traductions hallucinées » ont été qualifiées de « sorties pathologiques », car elles compromettent la confiance des utilisateurs et la fiabilité des applications multilingues.
Pourquoi les hallucinations se produisent-elles ?
Les hallucinations ne proviennent pas d’une seule cause, mais de la manière dont les LLM traitent et génèrent le langage.
Les causes les plus fréquentes incluent :
• Le biais prédictif : le modèle choisit des mots qui paraissent statistiquement cohérents mais sont sémantiquement faux.
• Le déséquilibre des données : un jeu de données multilingues limité ou biaisé peut entraîner des extrapolations erronées ou du contenu inventé.
• Le manque d’ancrage : les LLM ne consultent pas de sources externes ni de contexte réel lors de la génération de texte, ce qui les pousse à « deviner » plutôt qu’à vérifier.
• L’ambiguïté du prompt : une consigne floue peut désorienter le modèle, notamment lorsqu’il traite un langage très technique ou spécialisé.
En traduction automatique, les hallucinations se manifestent souvent par des omissions, des ajouts non justifiés ou des répétitions excessives (appelées « hallucinations oscillatoires »).
Les hallucinations en traduction : ce que révèle la recherche
Une étude menée en 2025 par Apple et l’Université de Boston a montré à quel point les hallucinations peuvent être fréquentes lorsque les LLM sont utilisés pour la traduction. Les chercheurs ont observé que :
• Même les modèles de pointe comme ALMA-7B-R peuvent produire des hallucinations dans 0,12 % des cas sur des données de haute qualité, avec des taux bien plus élevés pour certaines paires de langues.
• Les hallucinations apparaissent souvent dans des phrases complexes, contenant des caractères spéciaux ou des expressions culturelles.
• La majorité des hallucinations appartiennent à des formes répétitives, où des mots ou des phrases sont reproduits plusieurs fois.
Pour y remédier, Apple a développé un cadre de réglage fin axé sur la détection des hallucinations. En entraînant le modèle sur des paires de traductions correctes et hallucinées, et en le récompensant lorsqu’il choisit la bonne, le taux d’hallucination a été réduit de 96 %, sans dégrader la qualité globale des traductions.
Cette approche marque une évolution majeure : les entreprises ne se contentent plus de détecter les erreurs après coup, elles cherchent désormais à prévenir les hallucinations dès la phase d’entraînement.
Quand l’IA se trompe : le cas Deloitte
Un exemple récent, hors du domaine de la traduction, illustre les conséquences concrètes d’un manque de contrôle humain. En octobre 2025, Fortune et Business Insider ont rapporté que Deloitte Australie avait partiellement remboursé le gouvernement australien après la découverte d’hallucinations générées par une IA dans un rapport technologique. L’entreprise avait utilisé un outil d’IA pour rédiger certaines sections du rapport, qui se sont ensuite révélées contenir des informations et des références inventées.
Bien que Deloitte ait affirmé que des vérifications humaines avaient été effectuées, ce remboursement partiel a mis en lumière l’importance croissante de la responsabilité dans l’usage professionnel de l’IA. L’affaire a suscité un débat international sur la transparence, la vérification des contenus et les limites des modèles génératifs dans le secteur public.
Dans des domaines réglementés comme les sciences de la vie, de telles erreurs seraient inacceptables. Une posologie erronée ou une mention de sécurité mal traduite pourrait avoir de graves conséquences pour les patients et les autorités sanitaires. C’est pourquoi l’IA doit toujours fonctionner sous supervision humaine, non comme un substitut à l’expertise, mais comme un outil au service de celle-ci.
Chez Novalins : concilier innovation et sécurité
Chez Novalins, nous testons en continu la traduction automatique (MT) et les grands modèles de langage (LLM) sur des contenus médicaux et scientifiques réels afin d’évaluer leur précision et leur fiabilité. Avant d’adopter un modèle, notre équipe réalise une comparaison approfondie sur un échantillon des documents du client pour déterminer quelle technologie offre les meilleurs résultats selon la paire de langues et le type de texte.
Toutes les traductions assistées par IA sont ensuite relues par des linguistes médicaux certifiés, afin de garantir que :
• Aucune information n’est ajoutée, omise ou modifiée.
• Le sens reste cohérent dans toutes les langues.
• La traduction respecte les normes réglementaires et scientifiques.
En alliant l’efficacité technologique à l’expertise humaine, nous minimisons le risque d’hallucination tout en optimisant les coûts et les délais de traduction.
L’avenir de la traduction par IA
Les hallucinations rappellent que l’intelligence artificielle, bien qu’extraordinairement puissante, n’est pas infaillible. Alors que les recherches d’Apple et d’autres acteurs continuent de réduire ces risques, l’objectif n’est pas de remplacer les traducteurs humains, mais de leur offrir de meilleurs outils.
Des cas comme celui de Deloitte démontrent que même les systèmes les plus avancés doivent être encadrés par des experts humains. Dans les sciences de la vie, cette collaboration entre technologie et expertise garantit à la fois l’innovation et la sécurité.
Vous souhaitez tester les performances de l’IA sur vos contenus multilingues ?
Essayez un projet pilote gratuit avec Novalins pour comparer la qualité des traductions issues de LLM et de MT sur vos documents, et découvrez comment notre processus de relecture experte assure précision et conformité.