Intelligence Powered Girl - Page 746

Apprentissage fédéré utilisant Hugging Face et Flower

Ce tutoriel montrera comment exploiter Hugging Face pour fédérer l’entraînement de modèles de langage sur plusieurs clients en utilisant Flow...

Accélérer l’inférence de diffusion stable sur les processeurs Intel

Récemment, nous avons présenté la dernière génération de processeurs Intel Xeon (nom de code Sapphire Rapids), ses nouvelles fonctionnalités matéri...

Inférence rapide sur de grands modèles de langage BLOOMZ sur l’accélérateur Habana Gaudi2

Cet article vous montrera comment déployer facilement de grands modèles de langage avec des centaines de milliards de paramètres comme BLOOM sur Ha...

Bulletin d’éthique et de société n°3 Ouverture éthique chez Hugging Face

Mission : IA ouverte et de qualité Dans notre mission de démocratiser l’intelligence artificielle (IA) de qualité, nous examinons comment sou...

StackLLaMA Un guide pratique pour former LLaMA avec RLHF

Les modèles tels que ChatGPT, GPT-4 et Claude sont de puissants modèles de langage qui ont été affinés à l’aide d’une méthode appelée a...

Création d’une IA préservant la vie privée avec Substra

Avec la récente montée des techniques génératives, l’apprentissage automatique est à un point incroyablement excitant de son histoire. Les mo...

Classification de graphes avec les Transformers

Dans le précédent blog, nous avons exploré certains aspects théoriques de l’apprentissage automatique sur les graphes. Celui-ci explorera com...

Accélérer les Transformers Hugging Face avec AWS Inferentia2

Au cours des cinq dernières années, les modèles Transformer [1] sont devenus la norme de facto pour de nombreuses tâches d’apprentissage auto...

Comment héberger un jeu Unity dans un espace

Saviez-vous que vous pouvez héberger un jeu Unity dans un espace Hugging Face ? Non ? Eh bien, c’est possible ! Les espaces Hugging Face sont...

Présentation du blog HuggingFace pour les locuteurs chinois Favoriser la collaboration avec la communauté chinoise de l’IA

Cet article est également disponible en chinois simplifié 简体中文. Bienvenue sur notre blog pour les locuteurs chinois ! Nous sommes ravis de vous...