Comment les grands modèles de langage (LLM) alimenteront les applications du futur
Les LLM alimenteront les applications futures.
L’intelligence artificielle générative et plus particulièrement sa version liée au langage – ChatGPT – est partout. La technologie des modèles linguistiques avancés (LLM) jouera un rôle important dans le développement des applications futures. Les LLM sont très performants dans la compréhension du langage grâce à l’entraînement préalable approfondi effectué sur des milliards de lignes de texte du domaine public, y compris du code. Des méthodes telles que le fine-tuning supervisé et l’apprentissage renforcé avec des retours humains (RLHF) rendent ces LLM encore plus efficaces pour répondre à des questions spécifiques et interagir avec les utilisateurs. Alors que nous entamons la prochaine phase des applications IA alimentées par les LLM, les composants clés suivants seront cruciaux pour ces applications de nouvelle génération. La figure ci-dessous montre cette progression, et à mesure que vous montez dans la chaîne, vous développez davantage d’intelligence et d’autonomie dans vos applications. Examinons ces différents niveaux.
Appels LLM :
Il s’agit d’appels directs à des modèles de complétion ou de chat par un fournisseur LLM comme Azure OpenAI, Google PaLM ou Amazon Bedrock. Ces appels utilisent une requête très basique et utilisent principalement la mémoire interne du LLM pour produire la sortie.
Exemple : Demander à un modèle de base comme “text-davinci” de “raconter une blague”. Vous donnez très peu de contexte et le modèle s’appuie sur sa mémoire pré-entraînée interne pour trouver une réponse (surlignée en vert dans la figure ci-dessous – en utilisant Azure OpenAI).
- Josh Feast, PDG et co-fondateur de Cogito – Série d’interviews
- Révolutionner l’exploration sous-marine Le Pleobot de l’Université Brown révèle les secrets de l’océan.
- Qu’est-ce que l’hyperpersonnalisation de l’IA ? Avantages, études de cas et préoccupations éthiques
Indications :
Le niveau suivant d’intelligence consiste à ajouter de plus en plus de contexte aux indications. Il existe des techniques d’ingénierie d’indications qui peuvent être appliquées aux LLM pour leur faire fournir des réponses personnalisées. Par exemple, lors de la rédaction d’un e-mail à un utilisateur, certains éléments de contexte tels que les achats passés de l’utilisateur et ses comportements peuvent servir d’indications pour personnaliser l’e-mail. Les utilisateurs familiers avec ChatGPT connaissent différentes méthodes d’indication, comme donner des exemples que les LLM utilisent pour construire leur réponse. Les indications enrichissent la mémoire interne du LLM avec un contexte supplémentaire. Voici un exemple :
Embeddings :
Les embeddings poussent les indications à un niveau supérieur en recherchant un référentiel de connaissances pour obtenir du contexte, puis en ajoutant ce contexte à l’indication. La première étape consiste à créer un référentiel de documents volumineux contenant du texte non structuré, qui peut être indexé pour permettre des recherches, puis à peupler une base de données de vecteurs. Pour cela, un modèle d’embedding comme ‘ada’ d’OpenAI est utilisé pour prendre un fragment de texte et le convertir en un vecteur multidimensionnel. Ces embeddings capturent le contexte du texte, de sorte que des phrases similaires auront des embeddings proches les uns des autres dans l’espace vectoriel. Lorsque l’utilisateur saisit une requête, cette requête est également convertie en embedding et ce vecteur est comparé aux vecteurs de la base de données. Ainsi, nous obtenons les 5 ou 10 fragments de texte correspondant le mieux à la requête, qui constituent le contexte. La requête et le contexte sont transmis au LLM pour répondre à la question de manière semblable à un être humain.
Chaînes :
Les chaînes sont la technologie la plus avancée et la plus mature actuellement disponible, et elles sont largement utilisées pour construire des applications LLM. Les chaînes sont déterministes, où une séquence d’appels LLM est reliée par la sortie de l’un d’entre eux et alimentée à un ou plusieurs autres LLM. Par exemple, nous pourrions avoir un appel LLM qui interroge une base de données SQL pour obtenir une liste d’adresses e-mail de clients, puis envoyer cette liste à un autre LLM qui générera des e-mails personnalisés pour les clients. Ces chaînes de LLM peuvent être intégrées dans des flux d’applications existants pour générer des résultats plus précieux. En utilisant des chaînes, nous pourrions enrichir les appels LLM avec des entrées externes comme des appels d’API et une intégration avec des graphes de connaissances pour fournir du contexte. De plus, aujourd’hui, avec plusieurs fournisseurs de LLM disponibles comme OpenAI, AWS Bedrock, Google PaLM, MosaicML, etc., nous pourrions mélanger les appels LLM dans les chaînes. Pour les éléments de chaîne avec une intelligence limitée, un LLM inférieur comme ‘gpt3.5-turbo’ pourrait être utilisé, tandis que pour les tâches plus avancées, ‘gpt4’ pourrait être utilisé. Les chaînes fournissent une abstraction pour les données, les applications et les appels LLM.
Agents :
Les agents font l’objet de nombreux débats en ligne, notamment en ce qui concerne l’intelligence artificielle générale (AGI). Les agents utilisent un LLM avancé comme ‘gpt4’ ou ‘PaLM2’ pour planifier des tâches plutôt que d’avoir des chaînes prédéfinies. Ainsi, lorsque des requêtes utilisateur sont faites, l’agent décide en fonction de la requête quel ensemble de tâches appeler et construit dynamiquement une chaîne. Par exemple, lorsque nous configurons un agent avec une commande telle que “avertir les clients lorsque le taux d’intérêt des prêts change en raison d’une mise à jour de la réglementation gouvernementale”, le framework de l’agent fait un appel LLM pour décider des étapes à suivre ou des chaînes à construire. Cela impliquera par exemple l’invocation d’une application qui parcourt les sites Web réglementaires et extrait les derniers taux d’intérêt des prêts, puis un appel LLM recherche dans la base de données et extrait les adresses e-mail des clients concernés, enfin un e-mail est généré pour les avertir.
Pensées finales
LLM est une technologie en constante évolution et de meilleurs modèles et applications sont lancés chaque semaine. LLM pour les agents est l’échelle de l’intelligence et à mesure que nous progressons, nous construisons des applications autonomes complexes. De meilleurs modèles signifieront des agents plus efficaces et les applications de nouvelle génération seront alimentées par ceux-ci. Le temps nous dira à quel point les applications de nouvelle génération seront avancées et par quels modèles elles seront alimentées.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 5 Meilleurs Outils et Techniques de Détection de Deepfake (Juillet 2023)
- L’Union européenne et le Japon explorent une collaboration stratégique dans le domaine de l’IA et des semi-conducteurs.
- Jonathan Dambrot, PDG et co-fondateur de Cranium AI – Série d’interviews
- MPT-30B MosaicML brille plus que GPT-3 avec un nouveau LLM pour repousser les limites du NLP.
- Explication de l’IA explicable en utilisant des formules booléennes expressives
- Défis liés à la détoxification des modèles de langage
- Google révèle l’utilisation de données publiques du Web dans l’entraînement de l’IA