Qu’est-ce qu’une hallucination de l’IA ?
Une hallucination de l’IA est un phénomène dans lequel un grand modèle de langage (LLM) basé sur l’intelligence artificielle produit des résultats erronés ou trompeurs en les présentant comme des faits avérés. Il peut s’agir d’erreurs factuelles, d’informations inventées ou encore de résultats visuellement délirants.
À l’aide de techniques d’apprentissage automatique et d’apprentissage profond, les modèles d'IA générative s'entraînent en ingurgitant d'énormes quantités de données recueillies en ligne et en identifiant des modèles pour prédire les réponses à apporter. Étant donné qu’Internet regorge d’informations inexactes, ces modèles apprennent à les répéter, même s’il s’agit d’informations entièrement fictives. En outre, les LLM peuvent créer des informations de toutes pièces, en s’appuyant sur la combinaison de modèles linguistiques qui peuvent parfois se manifester de manière imprévisible. En d'autres termes, même si l'IA s'entraîne à partir d'informations fiables, le contenu généré peut tout de même être faux.
Les hallucinations de l’IA surviennent le plus souvent dans le traitement du langage naturel (NLP), mais elles peuvent aussi se produire dans d’autres fonctions comme la reconnaissance d’images.
Malgré des jeux de données d’entraînement gigantesques, les modèles largement utilisés tels que ChatGPT ou Gemini n’échappent pas à la règle. Une étude révèle ainsi que ChatGPT hallucine un peu plus de 2% des liens qu’il inclut dans ses réponses.
Pourquoi les modèles d’IA hallucinent-ils ?
Une étude menée par des chercheurs d’OpenAI affirme que le phénomène d’hallucination reste un problème central des grands modèles de langage. D’après eux, les hallucinations de l’IA continuent de se produire car “les entraînements et évaluations classiques récompensent davantage les réponses aléatoires que l’admission d’une incertitude.”
Ainsi, les chatbots IA sont “encouragés” à fournir des réponses plausibles, même si elles sont erronées, plutôt qu’à admettre ne pas avoir la réponse à une question. Tout comme un étudiant qui doit répondre à un questionnaire, le LLM tente alors de “deviner” une réponse au hasard, qui a statistiquement plus de chances d’être correcte qu’une absence totale de réponse.
En outre, divers facteurs peuvent expliquer le phénomène d'hallucination de l’IA :
- Données d’entraînement incomplètes ou biaisées : si les données utilisées pour entraîner l'algorithme ne sont pas suffisamment complètes, représentatives ou à jour, le modèle peut tenter de combler les lacunes en inventant des informations qui semblent plausibles, mais sont fausses.
- Nature probabiliste des LLM : les modèles d’IA générative ne possèdent pas de “savoir” ou de compréhension des informations à proprement parler. Lorsqu’une donnée est manquante, ils complètent la séquence en prédisant les mots ou les concepts les plus probables, qui peuvent prendre le pas sur les informations vérifiées.
- Surajustement : en science des données, ce terme désigne un modèle statistique qui correspond trop étroitement à ses données d'entraînement. Les hallucinations de l'IA se produisent lorsqu'un LLM ne parvient pas à s'adapter à des données supplémentaires et à faire des prédictions fiables.
- Limites liées au contexte : dans le cas de conversations longues avec l’utilisateur, le chatbot peut “oublier” certaines informations ou ne pas associer les bons éléments de contexte avec la demande, ce qui peut mener à des incohérences dans les réponses.
- Altération volontaire des données : des acteurs malveillants peuvent manipuler les données d’entrée d’un modèle pour causer des résultats erronés, ou un utilisateur peut concevoir une invite spécifique dans le but de générer la confusion du modèle IA.
Les types d’hallucinations de l’IA
Les hallucinations de l’IA peuvent prendre plusieurs formes, sachant qu’une même hallucination peut faire partie de plusieurs catégories à la fois.
- Erreurs factuelles (ou hallucinations extrinsèques) : cette catégorie comprend les erreurs de calcul, ainsi que les contenus qui semblent factuels, mais qui s’avèrent erronés. L'idée sous-jacente sera souvent correcte, mais une ou plusieurs informations spécifiques pourront être erronées. Il s'agit des hallucinations IA les plus courantes.
- Contenu inventé (ou hallucinations intrinsèques) : ce type d’hallucination regroupe les situations où le modèle d’IA génère un contenu entièrement fictif. Ces informations, bien qu’inventées de toutes pièces, sont toujours présentées de manière convaincante. Le modèle peut aller jusqu’à étayer ses affirmations avec des sources sans rapport avec le sujet, ou en évoquant des événements qui ne se sont jamais produits.
- Sorties absurdes : ces hallucinations se produisent lorsque l’IA génère des réponses incohérentes ou contradictoires.
- Réponses étranges : enfin, une catégorie à part comprend les contenus qui ne sont ni erronés, ni nuisibles, mais simplement déroutants et dignes d’une œuvre de science-fiction. Par exemple, le chatbot de Microsoft Bing a déclaré son amour à un chroniqueur du New York Times, a manipulé des utilisateurs à plusieurs reprises et a affirmé à un informaticien que s'il devait choisir entre lui-même et le scientifique pour survivre, il se choisirait lui-même.
Exemples d’hallucinations de l’IA
Voici quelques exemples réels d’hallucinations de l’IA :
- Galactica, un modèle développé par Meta pour la recherche scientifique, a généré des citations fictives d'articles scientifiques inexistants. Par exemple, en rédigeant un article sur la création d'avatars, il a cité un papier fictif d'un auteur réel, ce qui a conduit Meta à retirer Galactica en 2022 en raison de son inexactitude.
- Lorsqu'on lui a demandé des conseils pour éviter que le fromage ne glisse d'une pizza, Gemini a suggéré d'ajouter de la colle, une recommandation absurde provenant d'un forum Reddit humoristique.
- Le chatbot d'Air Canada a informé un passager qu'il pourrait obtenir un remboursement partiel pour un billet d'avion en cas de décès d'un proche. Cependant, la compagnie n'offre pas de tels remboursements, ce qui a conduit à une action en justice et à une amende de 600 $ pour la compagnie.
- Gemini a affirmé que le télescope spatial James Webb avait capturé les premières images d'une planète en dehors de notre système solaire. Or, ces images avaient été obtenues par d'autres télescopes avant le lancement de James Webb.
- Un utilisateur a demandé à ChatGPT de lui fournir une citation de l'écrivain français Albert Camus. L'IA a répondu en attribuant à Camus une phrase qu'il n'a jamais prononcée ni écrite.
Les hallucinations de l’IA sont-elles dangereuses ?
Oui, les hallucinations de l’IA peuvent s’avérer nuisibles dans certaines situations. Lorsque des requêtes d’ordre médical, juridique ou financier sont soumises à un assistant IA, même spécialisé, une erreur peut entraîner des conséquences graves telles qu’un faux diagnostic ou des prises de décisions irréalistes. Les hallucinations étant souvent formulées de manière convaincante, il peut être tentant pour les internautes de les prendre pour argent comptant sans les vérifier, ce qui les rend particulièrement dangereuses.
Ce type d’erreurs pose également un risque réputationnel pour les entreprises, lorsqu’elles se fient à des informations incorrectes générées par l’IA ou lorsqu’elles mettent en place des outils susceptibles de fournir des informations erronées à leurs clients.
D’autre part, les informations hallucinées par l’IA peuvent contribuer à la propagation de fake news et alimenter la désinformation si les utilisateurs ne vérifient pas les données auprès de sources fiables. Plus préoccupant encore, certaines réponses reposent sur des préjugés et stéréotypes dangereux, et peuvent générer des informations fausses ou diffamatoires sur des personnes réelles.
En soi, le phénomène d’hallucination de l’IA ne doit pas induire que les outils IA eux-mêmes sont dangereux, mais ils mettent en lumière l’importance de rester prudent vis-à-vis des réponses générées.
Comment éviter ou atténuer les hallucinations de l’IA
Le meilleur moyen de réduire le risque d’hallucinations de l’IA est de les prévenir en amont. Voici quelques conseils pour minimiser les risques d’informations fausses ou inventées lorsque vous utilisez un chatbot IA :
- Utilisez des modèles IA fiables, entraînés avec des données récentes et des spécifications qui privilégient l'abstention à une réponse incorrecte. Par exemple, le modèle gpt-5 a été davantage entraîné pour s’abstenir de répondre ou demander des précisions en cas d’incertitude, ce qui divise par trois son taux d’erreur par rapport à gpt-4. Claude, le modèle IA d’Anthropic, est également conçu pour émettre des réserves en cas de réponse incertaine et possède ainsi le taux d’hallucinations le plus bas.
- Vérifiez toujours les informations fournies par l’IA auprès de sources fiables. Comme pour toute information obtenue sur Internet ou ailleurs, croiser les sources est un réflexe essentiel pour s’assurer de son exactitude.
- Utilisez des outils de détection spécialisés comme ChatProtect, conçu pour identifier et corriger les contradictions dans les réponses générées par les chatbots IA.
- Rédigez des invites claires et précises : plus vous fournissez d’informations et de contexte à l’IA au moment de formuler votre demande, moins elle est susceptible d’inventer des faits pour combler les lacunes.
- Ne vous fiez jamais au contenu généré par l'IA pour prendre des décisions juridiques ou médicales. Dans ces domaines sensibles où une erreur peut être lourde de conséquences, les informations doivent être fournies et vérifiées par des experts.
Lors de la mise en oeuvre d’outils basés sur l’intelligence artificielle, les développeurs détiennent aussi des clés pour minimiser le risque d’hallucinations :
- Veiller à la qualité des données d’entrée : la fiabilité d’un outil d’intelligence artificielle dépend largement de la qualité des données sur lesquelles il s’appuie. Un jeu de données diversifié, récent et qualitatif réduit le risque que l’IA produise des informations fausses.
- Tester et affiner l’outil en permanence : un modèle d’IA n’est jamais figé, et son comportement doit être observé, mesuré et amélioré au fil du temps. Les hallucinations peuvent être détectées et réduites grâce à un cycle continu de tests et d’optimisations.
- Assurer une supervision humaine : même les modèles les plus avancés ne peuvent garantir une vérité absolue. La vigilance humaine reste indispensable pour détecter et corriger les erreurs éventuelles, notamment via une validation humaine des réponses dans les contextes sensibles (santé, droit, finance, etc.)
Faut-il s’inquiéter des hallucinations de l’IA ?
Si OpenAI estime que les hallucinations sont inévitables, même avec les données les plus qualitatives, ce phénomène n’est pas pour autant incontrôlable. Les chercheurs en IA ajustent leurs modèles en continu pour réduire leurs taux d’erreur. Côté utilisateur, quelques mesures de précaution et un scepticisme sain permettent d’utiliser vos chatbots IA préférés sans risque.
Chiffrez votre connexion et protégez vos données.
Naviguez en toute sérénité avec NordVPN.