Qu’est-ce que l’hallucination IA ? Qu’est-ce qui ne va pas avec les chatbots IA ? Comment repérer une intelligence artificielle qui hallucine ?

What is AI hallucination? What's wrong with AI chatbots? How to spot AI that hallucinates?

L’hallucination de l’IA n’est pas un nouveau problème. L’intelligence artificielle (IA) a fait des progrès considérables au cours des dernières années, devenant plus compétente dans des activités précédemment effectuées uniquement par des humains. Cependant, l’hallucination est un problème qui est devenu un grand obstacle pour l’IA. Les développeurs ont mis en garde contre les modèles d’IA produisant des faits totalement faux et répondant à des questions avec des réponses inventées comme si elles étaient vraies. Comme cela peut compromettre l’exactitude, la fiabilité et la crédibilité des applications, l’hallucination est un obstacle sérieux au développement et au déploiement de systèmes d’IA. Par conséquent, ceux qui travaillent dans le domaine de l’IA cherchent activement des solutions à ce problème. Ce blog explorera les implications et les effets des hallucinations de l’IA et les mesures possibles que les utilisateurs peuvent prendre pour réduire les dangers d’accepter ou de diffuser des informations incorrectes.

Qu’est-ce que l’hallucination de l’IA ?

Le phénomène connu sous le nom d’hallucination de l’intelligence artificielle se produit lorsque le modèle d’IA produit des résultats qui ne sont pas ce qui était prévu. Notez que certains modèles d’IA ont été enseignés à produire délibérément des sorties sans lien avec une entrée (données) du monde réel.

L’hallucination est le terme utilisé pour décrire la situation où les algorithmes d’IA et les réseaux de neurones d’apprentissage profond créent des résultats qui ne sont pas réels, ne correspondent à aucune donnée sur laquelle l’algorithme a été formé, ou ne suivent aucun autre motif discernable.

Les hallucinations de l’IA peuvent prendre de nombreuses formes différentes, de la création de fausses nouvelles à des assertions ou des documents faux sur des personnes, des événements historiques ou des faits scientifiques. Par exemple, un programme d’IA comme ChatGPT peut fabriquer une figure historique avec une biographie complète et des accomplissements qui n’ont jamais été réels. À l’ère actuelle des médias sociaux et de la communication immédiate, où un seul tweet ou un post Facebook peut atteindre des millions de personnes en quelques secondes, le potentiel de diffusion rapide et large de telles informations incorrectes est particulièrement problématique.

Pourquoi l’hallucination de l’IA se produit-elle ?

Les exemples adversaires – des données d’entrée qui trompent un programme d’IA en le classant mal – peuvent causer des hallucinations de l’IA. Par exemple, les développeurs utilisent des données (telles que des images, des textes ou d’autres types) pour former des systèmes d’IA ; si les données sont modifiées ou déformées, l’application interprète l’entrée différemment et produit un résultat incorrect.

Les hallucinations peuvent survenir dans de grands modèles basés sur le langage comme ChatGPT et ses équivalents en raison d’un décodage inapproprié du transformateur (modèle d’apprentissage automatique). Utilisant une séquence encodeur-décodeur (entrée-sortie), un transformateur en IA est un modèle d’apprentissage profond qui utilise l’auto-attention (connexions sémantiques entre les mots dans une phrase) pour créer du texte qui ressemble à ce qu’un humain écrirait.

En termes d’hallucination, il est prévu que la sortie soit inventée et fausse si un modèle de langage était formé sur des données et des ressources adéquates et précises. Le modèle de langage pourrait produire une histoire ou un récit sans lacunes illogiques ou liens ambigus.

Comment repérer l’hallucination de l’IA

Un sous-domaine de l’intelligence artificielle, la vision par ordinateur, vise à enseigner aux ordinateurs comment extraire des données utiles à partir d’une entrée visuelle, telle que des images, des dessins, des films et la vie réelle. Elle apprend aux ordinateurs à percevoir le monde comme le ferait un être humain. Cependant, étant donné que les ordinateurs ne sont pas des personnes, ils doivent s’appuyer sur des algorithmes et des modèles pour “comprendre” les images plutôt que d’avoir un accès direct à la perception humaine. Par conséquent, une IA pourrait être incapable de distinguer entre des chips de pommes de terre et des feuilles qui changent de couleur. Cette situation ne passe pas non plus le test du bon sens : comparée à ce qu’un humain est susceptible de voir, une image générée par une IA. Bien sûr, cela devient de plus en plus difficile à mesure que l’IA devient plus avancée.

Si l’intelligence artificielle n’était pas rapidement intégrée à la vie quotidienne, tout cela serait absurde et humoristique. Les voitures autonomes, où des hallucinations peuvent entraîner des décès, utilisent déjà l’IA. Bien que cela ne se soit pas produit, une mauvaise identification d’objets lors de la conduite dans le monde réel est une catastrophe qui ne demande qu’à se produire.

Voici quelques techniques pour identifier les hallucinations de l’IA lors de l’utilisation d’applications d’IA populaires :

1.   Grands modèles de traitement du langage

Les erreurs grammaticales dans les informations générées par un grand modèle de traitement, tel que ChatGPT, sont rares, mais lorsqu’elles se produisent, il faut se méfier des hallucinations. De même, on doit se méfier des hallucinations lorsque le contenu généré par du texte n’a pas de sens, ne correspond pas au contexte fourni ou ne correspond pas aux données d’entrée.

2.   Vision par ordinateur

L’intelligence artificielle possède un sous-domaine appelé vision par ordinateur, apprentissage automatique et informatique qui permet aux machines de détecter et d’interpréter les images de manière similaire aux yeux humains. Elles reposent sur des données d’entraînement visuelles massives dans les réseaux de neurones convolutifs.

Des hallucinations se produiront si les modèles de données visuelles utilisés pour l’entraînement changent. Par exemple, un ordinateur pourrait reconnaître à tort une balle de tennis comme étant verte ou orange s’il n’avait pas encore été éduqué avec des images de balles de tennis. Un ordinateur peut également connaître une hallucination d’IA s’il interprète à tort un cheval debout à côté d’une statue humaine comme un vrai cheval.

Comparer la sortie produite à ce que l’on attend d’un être humain [normal] aidera à identifier une illusion de vision par ordinateur.

3.   Voitures autonomes

Les voitures autonomes gagnent progressivement en traction dans l’industrie automobile grâce à l’IA. Des pionniers de voitures autonomes comme Ford’s BlueCruise et Tesla Autopilot ont promu l’initiative. Vous pouvez en apprendre un peu sur la façon dont l’IA alimente les voitures autonomes en examinant ce que le Tesla Autopilot perçoit et comment il le fait.

Les hallucinations affectent les gens différemment que les modèles d’IA. Les hallucinations d’IA sont des résultats incorrects qui sont largement en décalage avec la réalité ou qui n’ont pas de sens dans le contexte de la consigne fournie. Un chatbot d’IA, par exemple, peut répondre de manière grammaticale ou logique incorrecte ou identifier à tort un objet en raison de bruit ou d’autres problèmes structurels.

Tout comme les hallucinations humaines, les hallucinations d’IA ne sont pas le produit d’un esprit conscient ou subconscient. Au lieu de cela, elles résultent de données insuffisantes ou inadéquates utilisées pour entraîner et concevoir le système d’IA.

Les risques d’hallucinations d’IA doivent être pris en compte, en particulier lors de l’utilisation de la sortie d’IA générative pour la prise de décisions importantes. Bien que l’IA puisse être un outil utile, elle doit être considérée comme un premier jet que les humains doivent examiner et valider avec soin. À mesure que la technologie de l’IA se développe, il est crucial de l’utiliser de manière critique et responsable tout en étant conscient de ses inconvénients et de sa capacité à causer des hallucinations. En prenant les précautions nécessaires, on peut utiliser ses capacités tout en préservant l’exactitude et l’intégrité des données.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Cette recherche en IA propose DISC-MedLLM une solution complète qui exploite les grands modèles de langage (LLMs) pour fournir des réponses médicales précises.

L’avènement de la télémédecine a changé la manière dont les soins de santé sont dispensés, ouvrant des réseaux ...

AI

Arthur dévoile Bench un outil d'IA pour trouver les meilleurs modèles de langage pour le travail

Dans les rues de NYC, une start-up d’IA émergente nommée Arthur fait sensation dans le monde de l’apprent...

AI

PoisonGPT Hugging Face LLM propage de fausses informations

Les grands modèles de langage (LLMs) ont gagné une popularité significative dans le monde entier, mais leur adoption ...

AI

Chattez avec des PDF | Donnez du pouvoir à l'interaction textuelle avec Python et OpenAI

Introduction Dans un monde rempli d’informations, les documents PDF sont devenus un élément essentiel pour part...

AI

DeepMind AI stimule considérablement l'exposition de YouTube Shorts en générant automatiquement des descriptions pour des millions de vidéos

DeepMind, en collaboration avec YouTube, a dévoilé un modèle d’IA de pointe, Flamingo, conçu pour améliorer la ...

Actualités sur l'IA

La technologie d'IA pour révolutionner les soins aux patients

Dans une évolution passionnante pour le Service National de Santé (NHS), Henry Smith, député, a exprimé son soutien p...