Cette semaine en IA, 31 juillet 2023
This week in AI, July 31, 2023.
Bienvenue dans cette première édition de “Cette semaine en IA” sur VoAGI. Ce billet hebdomadaire sélectionné vise à vous tenir au courant des développements les plus captivants dans le monde en constante évolution de l’intelligence artificielle. Des titres révolutionnaires qui façonnent notre compréhension du rôle de l’IA dans la société aux articles stimulants, aux ressources d’apprentissage éclairantes et à la recherche mise en avant qui repousse les limites de notre connaissance, ce billet offre un aperçu complet du paysage actuel de l’IA. Sans entrer dans les détails pour l’instant, attendez-vous à explorer une pléthore de sujets divers reflétant la nature vaste et dynamique de l’IA. N’oubliez pas que c’est le premier d’une longue série de mises à jour hebdomadaires conçues pour vous tenir au courant et vous informer dans ce domaine en constante évolution. Restez à l’écoute et bonne lecture!
Titres
La section “Titres” aborde les principales actualités et évolutions de la semaine passée dans le domaine de l’intelligence artificielle. Les informations vont des politiques gouvernementales en matière d’IA aux avancées technologiques et aux innovations des entreprises en matière d’IA.
- Les bagages IA pour les personnes ayant une déficience visuelle reçoivent des critiques élogieuses
- Vous pouvez maintenant regarder le sommet de l’IA générative à la demande ici!
- Un guide en langage simple pour inverser l’algorithme de Twitter avec LangChain, Activeloop et DeepInfra
💡 Les géants de l’IA s’engagent à une innovation responsable sous l’administration Biden-Harris
L’administration Biden-Harris a obtenu des engagements volontaires de sept grandes entreprises d’IA – Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI – pour garantir le développement sûr, sécurisé et transparent de la technologie de l’IA. Ces engagements soulignent trois principes fondamentaux pour l’avenir de l’IA : la sécurité, la sûreté et la confiance. Les entreprises se sont engagées à effectuer des tests de sécurité internes et externes de leurs systèmes d’IA avant leur diffusion, à partager des informations sur la gestion des risques liés à l’IA et à investir dans la cybersécurité. Elles s’engagent également à développer des mécanismes techniques pour que les utilisateurs sachent quand un contenu est généré par l’IA et à rendre compte publiquement des capacités, des limites et des domaines d’utilisation appropriée et inappropriée de leurs systèmes d’IA. Cette initiative s’inscrit dans un engagement plus large de l’administration Biden-Harris à garantir que l’IA soit développée de manière sûre et responsable, et à protéger les Américains contre les préjudices et les discriminations.
💡 Stability AI dévoile Stable Beluga : les nouveaux titans des modèles de langage
Stability AI et son laboratoire CarperAI ont annoncé le lancement de Stable Beluga 1 et Stable Beluga 2, deux puissants modèles de langage Large Language Models (LLMs) en accès libre. Ces modèles, qui démontrent une capacité de raisonnement exceptionnelle dans des benchmarks variés, sont basés respectivement sur les modèles de base LLaMA 65B et LLaMA 2 70B. Les deux modèles ont été affinés avec un nouvel ensemble de données générées de manière synthétique en utilisant la technique de Supervised Fine-Tune (SFT) au format standard Alpaca. L’entraînement des modèles Stable Beluga s’est inspiré de la méthodologie utilisée par Microsoft dans son article intitulé : “Orca : apprentissage progressif à partir de traces d’explication complexes de GPT-4”. Malgré un entraînement sur un dixième de la taille de l’échantillon de l’article Orca original, les modèles Stable Beluga démontrent des performances exceptionnelles dans divers benchmarks. Au 27 juillet 2023, Stable Beluga 2 est le modèle le mieux classé sur le tableau de bord, et Stable Beluga 1 est quatrième.
💡 Le PDG de Spotify évoque les futures capacités de personnalisation et de publicité basées sur l’IA
Lors de l’appel aux résultats du deuxième trimestre de Spotify, le PDG Daniel Ek a fait allusion à l’introduction potentielle de fonctionnalités supplémentaires basées sur l’IA dans le service de streaming. Ek a suggéré que l’IA pourrait être utilisée pour créer des expériences plus personnalisées, résumer des podcasts et générer des publicités. Il a mis en avant le succès de la fonctionnalité DJ récemment lancée, qui propose une sélection personnalisée de musique accompagnée de commentaires alimentés par l’IA sur les morceaux et les artistes. Ek a également mentionné l’utilisation potentielle de l’IA générative pour résumer des podcasts, facilitant ainsi la découverte de nouveaux contenus par les utilisateurs. De plus, Ek a évoqué la possibilité de publicités audio générées par l’IA, ce qui pourrait réduire considérablement le coût pour les annonceurs de développer de nouveaux formats publicitaires. Ces commentaires interviennent alors que Spotify cherche à obtenir un brevet pour un système de “synthèse texte-parole” alimenté par l’IA, capable de convertir du texte en parole humaine avec émotion et intention.
Articles
La section “Articles” présente une série d’articles stimulants sur l’intelligence artificielle. Chaque article plonge dans un sujet spécifique, offrant aux lecteurs des informations sur différents aspects de l’IA, notamment les nouvelles techniques, les approches révolutionnaires et les outils innovants.
📰 Interprète de code ChatGPT : faites de la science des données en quelques minutes
Cet article de VoAGI présente le plugin Code Interpreter de ChatGPT, un outil qui peut analyser des données, écrire du code Python et construire des modèles d’apprentissage automatique. L’auteure, Natassha Selvaraj, démontre comment le plugin peut être utilisé pour automatiser différents flux de travail en science des données, notamment la synthèse de données, l’analyse exploratoire de données, le prétraitement des données et la construction de modèles d’apprentissage automatique. Le Code Interpreter peut également être utilisé pour expliquer, déboguer et optimiser du code. Natassha souligne que bien que l’outil soit puissant et efficace, il devrait être utilisé comme base pour les tâches de science des données, car il ne possède pas de connaissances spécifiques au domaine et ne peut pas gérer de grands ensembles de données résidant dans des bases de données SQL. Natassha suggère que les data scientists débutants et ceux qui aspirent à le devenir devraient apprendre à exploiter des outils comme Code Interpreter pour rendre leur travail plus efficace.
📰 Les manuels sont tout ce dont vous avez besoin : une approche révolutionnaire de la formation en IA
Cet article de VoAGI aborde une nouvelle approche de la formation en IA proposée par des chercheurs de Microsoft, qui consiste à utiliser un manuel synthétique plutôt que des ensembles de données massifs. Les chercheurs ont entraîné un modèle appelé Phi-1 entièrement sur un manuel sur mesure et ont constaté qu’il était performant dans les tâches de codage Python, malgré sa taille considérablement plus petite que des modèles comme GPT-3. Cela suggère que la qualité des données d’entraînement peut être aussi importante que la taille du modèle. Les performances du modèle Phi-1 ont également été améliorées lorsqu’il a été affiné avec des exercices et des solutions synthétiques, ce qui indique que l’affinage ciblé peut améliorer les capacités d’un modèle au-delà des tâches pour lesquelles il a été spécifiquement formé. Cela suggère que cette approche basée sur les manuels pourrait révolutionner la formation en IA en déplaçant l’accent de la création de modèles plus grands à la sélection de meilleures données d’entraînement.
📰 La dernière technique d’ingénierie de prompt transforme de manière inventive des prompts imparfaits en interactions superbes pour utiliser l’IA générative
L’article aborde une nouvelle technique d’ingénierie de prompt qui encourage l’utilisation de prompts imparfaits. L’auteur soutient que la recherche de prompts parfaits peut être contreproductive et qu’il est souvent plus pratique de viser des prompts “suffisamment bons”. Les applications d’IA générative utilisent des méthodes probabilistes et statistiques pour analyser les prompts et générer des réponses. Par conséquent, même si le même prompt est utilisé plusieurs fois, l’IA est susceptible de produire des réponses différentes à chaque fois. L’auteur suggère que plutôt que de rechercher un prompt parfait, les utilisateurs devraient utiliser des prompts imparfaits et les agréger pour créer des prompts efficaces. L’article fait référence à une étude de recherche intitulée “Ask Me Anything: Une stratégie simple pour inciter les modèles linguistiques” qui propose une méthode pour transformer des prompts imparfaits en prompts robustes en agrégeant les prédictions de plusieurs prompts efficaces, mais imparfaits.
Ressources d’apprentissage
La section “Ressources d’apprentissage” répertorie du contenu éducatif utile pour ceux qui souhaitent approfondir leurs connaissances en IA. Les ressources, allant de guides complets à des cours spécialisés, s’adressent aussi bien aux débutants qu’aux professionnels chevronnés dans le domaine de l’IA.
📚 Université LLM par Cohere : Votre porte d’entrée vers le monde des grands modèles linguistiques
L’Université LLM de Cohere est une ressource d’apprentissage complète pour les développeurs intéressés par le Traitement du Langage Naturel (NLP) et les Grands Modèles Linguistiques (LLM). Le programme est conçu pour fournir des bases solides en NLP et LLM, puis développer sur ces connaissances pour créer des applications pratiques. Le programme est divisé en quatre modules principaux : “Qu’est-ce que les Grands Modèles Linguistiques ?”, “Représentation de texte avec les points de terminaison de Cohere”, “Génération de texte avec les points de terminaison de Cohere” et “Déploiement”. Que vous soyez un nouvel ingénieur en apprentissage automatique ou un développeur expérimenté souhaitant élargir vos compétences, l’Université LLM de Cohere offre un guide complet sur le monde du NLP et des LLM.
📚 Gratuit de Google : Parcours d’apprentissage en IA générative
Google Cloud a publié le Parcours d’apprentissage en IA générative, une collection de cours gratuits qui couvrent tout, des bases de l’IA générative aux outils plus avancés tels que le Studio d’IA générative. Le parcours d’apprentissage comprend sept cours : “Introduction à l’IA générative”, “Introduction aux Grands Modèles Linguistiques”, “Introduction à la Génération d’Images”, “Mécanisme d’Attention”, “Modèles de Transformateur et Modèle BERT”, “Créer des Modèles de Légendes d’Images” et “Introduction au Studio d’IA générative”. Les cours couvrent divers sujets, notamment les Grands Modèles Linguistiques, la Génération d’Images, le Mécanisme d’Attention, les Modèles de Transformateur, le Modèle BERT et les Modèles de Légendes d’Images.
Mise en lumière de la recherche
La section “Mise en lumière de la recherche” met en évidence des recherches importantes dans le domaine de l’IA. La section comprend des études révolutionnaires, explorant de nouvelles théories et discutant des implications potentielles et des orientations futures dans le domaine de l’IA.
🔍 Le rôle des Grands Modèles Linguistiques dans l’évolution de l’éducation en science des données
L’article de recherche intitulé “Le rôle des Grands Modèles Linguistiques dans l’évolution de l’éducation en science des données” aborde l’impact transformateur des Grands Modèles Linguistiques (LLM) sur les rôles et responsabilités des scientifiques des données. Les auteurs soutiennent que l’émergence des LLM détourne l’attention des scientifiques des données du codage pratique vers la gestion et l’évaluation des analyses effectuées par des systèmes d’IA automatisés. Ce changement nécessite une évolution significative de l’éducation en science des données, avec une plus grande emphase sur le développement de compétences diverses chez les étudiants. Celles-ci incluent la créativité informée par les LLM, la pensée critique, la programmation guidée par l’IA et les connaissances interdisciplinaires.
Les auteurs proposent également que les LLM puissent jouer un rôle important dans la salle de classe en tant qu’outils d’enseignement et d’apprentissage interactifs. Ils peuvent contribuer à une éducation personnalisée et enrichir les expériences d’apprentissage. Cependant, l’intégration des LLM dans l’éducation nécessite une réflexion minutieuse pour équilibrer les avantages des LLM tout en favorisant l’expertise humaine complémentaire et l’innovation. L’article suggère que l’avenir de l’éducation en science des données impliquera probablement une relation symbiotique entre les apprenants humains et les modèles d’IA, où les deux entités apprennent et améliorent les capacités de l’autre.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Apprentissage double simplifié Partie 2 – Ciblage et le CATE
- Le marché mondial des puces d’IA connaîtra un taux de croissance annuel composé massif de 31,8% d’ici 2031.
- 6 Raisons pour lesquelles les événements en personne sont toujours rois pour la génération de leads
- Cet article sur l’IA déploie pour la première fois dans l’espace un modèle de base léger
- Entrée de déchets, sortie de déchets le rôle crucial de la qualité des données dans l’IA
- SEER Une percée dans les modèles de vision par ordinateur auto-supervisés ?
- Partie 1 Étape par étape, création d’un environnement virtuel pour exécuter vos pipelines de données sur des systèmes basés sur Windows.