Déchiffrer la vérité à partir des données comment les grands modèles de langage utilisent les personas pour modéliser la sincérité

Décoder la vérité à partir des données comment les grandes modèles de langage utilisent les personas pour représenter la sincérité

Avec l’introduction des modèles de langage volumineux (LLMs), le sous-domaine de l’intelligence artificielle, c’est-à-dire le traitement du langage naturel (NLP), progresse et s’améliore considérablement. Les LLMs, avec leurs remarquables capacités d’interprétation et de génération de textes, gagnent en popularité chaque jour. Ces modèles sont pré-entraînés à l’aide de volumes massifs de données Internet, dont les meilleurs exemples sont les modèles GPT 3.5 et GPT 4 bien connus. Bien que les données sur lesquelles les modèles sont entraînés, c’est-à-dire le corpus, soient vastes et variées, elles sont loin d’être idéales. Elles sont non filtrées et bruyantes et contiennent des informations fausses ainsi que des erreurs factuelles. La question se pose de savoir comment les LLMs distinguent la vérité de l’absence de vérité lorsqu’on leur présente un corpus de données qui contient les deux.

Dans une étude récente, une équipe de chercheurs de l’Université de New York, de l’ETH Zurich et de l’Université de Boston a proposé que les LLMs puissent regrouper du texte véridique, en partant du principe que ces modèles pourraient représenter différents agents ou sources contribuant aux données d’entraînement. En appelant cela une “personnalité véridique”, les chercheurs ont partagé que cette personnalité représente une collection d’agents qui, en raison de leurs caractéristiques communes de création de texte, sont plus susceptibles de générer des informations précises et fiables.

Par exemple, des sites réputés et bien établis comme Science et Wikipedia utilisent fréquemment des styles d’écriture formels et fournissent régulièrement des informations factuelles. Les LLMs sont capables d’offrir des réponses authentiques en dehors des situations particulières dans lesquelles chaque agent a produit les données d’entraînement en modélisant cette personnalité véridique. L’équipe a partagé deux observations principales pour soutenir l’hypothèse de la personnalité, qui sont les suivantes.

  1. Évaluation de la véridicité avant la génération : Avant même qu’un modèle ne génère une réponse, il est possible de déterminer s’il sera véridique. Cela suggère que selon la situation et la personnalité de l’agent source, le LLM peut évaluer la véracité d’une réponse.
  1. Amélioration de la véridicité par le réglage fin : Lorsque les LLMs sont réglés finement à l’aide d’une collection de faits factuels, ils deviennent plus véridiques à la fois pour les problèmes sans rapport et directement liés. Cela suggère que l’impact de la personnalité véritable permet au modèle de généraliser les principes de véridicité à une variété de sujets.

L’équipe a évalué l’association entre les personnalités et l’honnêteté du modèle en utilisant un environnement synthétique et des processus mathématiques. Dans ce scénario contrôlé, différents agents croient différentes choses à propos de chaque opérateur mathématique, en fonction de la véracité ou de la fausseté de leurs croyances. Les équations de ces agents permettent aux LLMs d’améliorer leur capacité à répondre de manière précise à des opérateurs précédemment inconnus et à discerner avec succès les affirmations vraies et fausses. Cette réalisation n’est possible que si les acteurs des données d’entraînement partagent un processus générateur véridique qui permet la construction d’une identité véritable.

En conclusion, cette étude montre que les LLMs peuvent acquérir des concepts abstraits tels que la véracité en utilisant les structures hiérarchiques incluses dans leurs données d’entraînement. Ces modèles peuvent généraliser leur capacité à discerner les informations vraies et fausses et à générer des réponses appropriées sur une large gamme de sujets en modélisant une personnalité véritable, même lorsque les agents sources de ces sujets partagent des attributs suggestifs de sincérité.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Dévoiler la puissance de Meta's Llama 2 Un bond en avant dans l'IA générative?

Cet article explore les détails techniques et les implications du nouveau modèle de langage Llama 2 de Meta, un modèl...

AI

Tester des voitures autonomes réelles dans un environnement virtuel

Le logiciel Vehicle-in-Virtual-Environment développé par des chercheurs de l'Université d'État de l'Ohio permet de te...

Informatique

Agences gouvernementales américaines touchées par une cyberattaque mondiale.

La nouvelle s'ajoute à un nombre croissant de victimes d'une campagne de piratage tentaculaire qui a débuté il y a de...

Actualités sur l'IA

Comment les agents secrets d'Israël combattent les menaces avec une puissante IA générative

Le célèbre service de sécurité d’Israël, le Shin Bet, a adopté le pouvoir de l’intelligence artificielle ...

AI

Cette recherche sur l'IA présente 'RAFA' un cadre d'intelligence artificielle fondé pour les agents LLM autonomes avec une efficacité d'échantillonnage prouvable.

Alors que les capacités de raisonnement des LLM sont excellentes, elles doivent encore être améliorées pour appliquer...

AI

Aider les véhicules autonomes à prendre des décisions morales en abandonnant le dilemme du tramway

Les chercheurs de l'Université d'État de Caroline du Nord travaillent actuellement à collecter des données plus réali...