Découvrez LMQL Un langage de programmation et une plateforme open source pour l’interaction avec les modèles de langage de grande envergure (LLM)

Découvrez LMQL, un langage de programmation et une plateforme open source pour l'interaction avec des modèles de langage de grande envergure (LLM).

Les modèles de langage de grande taille ont fait sensation dans la communauté de l’intelligence artificielle. Leur impact récent a contribué à un large éventail d’industries telles que la santé, la finance, l’éducation, le divertissement, etc. Les modèles de langage de grande taille bien connus tels que GPT, DALLE et BERT accomplissent des tâches extraordinaires et facilitent la vie. Tandis que DALLE 2 peut créer des images en réponse à une simple description textuelle, GPT-3 peut écrire un excellent essai, compléter des codes, résumer de longs paragraphes textuels, répondre à des questions comme le ferait un humain, et générer du contenu à partir d’une courte consigne en langage naturel. Ces modèles aident l’intelligence artificielle et l’apprentissage automatique à progresser rapidement au travers d’un changement de paradigme.

Récemment, une équipe de chercheurs a introduit LMQL, un langage de programmation open-source et une plateforme pour l’interaction avec les modèles de langage. LMQL, qui signifie Language Model Query Language, améliore les capacités des modèles de langage de grande taille (LLM) en combinant des consignes, des contraintes et des scripts. Étant un langage déclaratif similaire à SQL basé sur Python, LMQL étend la mise en forme statique du texte avec un flux de contrôle, un décodage guidé par des contraintes et une augmentation des outils. Grâce à ce type de script, LMQL simplifie les flux de consignes multipartites avec un très petit morceau de code.

Les chercheurs ont utilisé LMQL pour permettre LMP (Language Model Programming), qui généralise la mise en forme des modèles de langage à partir de simples consignes textuelles à une combinaison de consignes textuelles et de scripts. LMQL influence les contraintes et le flux de contrôle d’une consigne LMP pour générer une procédure d’inférence efficace. Ces contraintes super logiques et de haut niveau sont traduites en masques de jetons à l’aide de certaines sémantiques d’évaluation qui sont strictement appliquées au moment de la génération.

L’équipe a introduit LMQL pour éviter le coût élevé de la nouvelle requête et de la validation du texte généré. Cela peut aider LMQL à produire un texte plus proche de la sortie souhaitée dès le premier essai, sans avoir besoin d’itérations ultérieures. De plus, les contraintes de LMQL permettent aux utilisateurs de guider ou de diriger le processus de génération de texte selon leurs spécifications souhaitées, comme s’assurer que le texte généré suit certaines règles grammaticales ou syntaxiques, ou éviter certains mots ou expressions.

Les chercheurs ont mentionné comment LMQL peut capturer un large éventail de méthodes de mise en forme de pointe, telles que les flux interactifs, qui sont difficiles à implémenter avec les API existantes. L’évaluation montre que LMQL conserve ou améliore la précision sur de nombreuses tâches secondaires tout en réduisant considérablement le calcul ou le coût dans les API payantes, ce qui permet d’économiser entre 13 et 85% des coûts.

LMQL permet aux utilisateurs d’exprimer simplement et de manière concise un large éventail de techniques de mise en forme courantes et avancées. Il s’intègre aux Transformers de Hugging Face, à l’API OpenAI et à Langchain. Les ressources pour les développeurs sont disponibles sur lmql.ai, et un environnement de développement intégré basé sur un navigateur est disponible pour expérimentation.

En résumé, LMQL semble être un développement prometteur, car l’évaluation démontre que LMQL est un outil puissant qui peut améliorer l’efficacité et la précision de la programmation des modèles de langage. Il peut faciliter la réalisation des résultats souhaités par les utilisateurs avec moins de ressources.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Vectoriser et paralléliser les environnements RL avec JAX l'apprentissage Q à la vitesse de la lumière⚡

Dans l'histoire précédente, nous avons introduit l'apprentissage par différence temporelle, en particulier l'apprenti...

AI

Transformez votre projet de science des données Découvrez les avantages de stocker les variables dans un fichier YAML

Cet article de blog discutera des avantages d'utiliser un fichier YAML comme référentiel central pour stocker les var...

AI

LLaMA 2 ajustement fin rapide et rentable avec AWS Trainium

Les modèles de langage grand format (LLMs) ont capturé l'imagination et l'attention des développeurs, des scientifiqu...

AI

ANPR avec YOLOV8

YOLO V8 est le dernier modèle développé par l'équipe d'Ultralytics. C'est un modèle YOLO de pointe qui dépasse ses pr...

AI

Analyse des sentiments en Python en utilisant Flair

Bienvenue dans le prochain article de blog de la série sur l'analyse des sentiments ! Aujourd'hui, nous allons explor...