Ce bulletin d’information sur l’IA est tout ce dont vous avez besoin #73

Ce récapitulatif sur l'IA est tout ce dont vous avez besoin #73

Ce qui s’est passé cette semaine en IA par Louie

Crédits image : Rapport Retool AI

La conversation de cette semaine a été une fois de plus dominée par les conséquences de la journée des développeurs d’OpenAI, les nouvelles sorties de produits et les spéculations sur le potentiel futur du GPTStore, avec déjà plus de 10 000 GPT créés. Mais nous avons également été intéressés par la publication de plusieurs nouvelles études sur l’état de l’IA et son adoption dans l’économie cette semaine.

Une récente étude a examiné l’impact du lancement de ChatGPT sur les pertes d’emplois et les revenus dans des domaines freelance tels que la rédaction et le design graphique. L’étude a révélé que non seulement ChatGPT réduisait considérablement le nombre d’emplois disponibles pour les individus, mais qu’il dépréciait également la valeur du travail. Une autre étude menée par le Boston Consulting Group (BCG) indique que les employés ayant accès à GPT-4 ont accompli 12% de tâches supplémentaires à un rythme 25% plus rapide, avec une amélioration de 40% de la qualité. L’étude a mis en évidence la plus grande augmentation de performance parmi les membres juniors de l’équipe qui pouvaient exploiter les connaissances de GPT-4 pour compléter leurs compétences.

De plus, l’enquête “The State of AI 2023” de Retool.com, qui compte près de 1600 participants, présente des données intéressantes sur le sentiment à l’égard de l’IA, son adoption et les leaders actuels. (Nous avons mis en évidence certaines conclusions intrigantes dans ce résumé et vous encourageons vivement à lire le rapport complet.) La plupart des répondants partagent une croyance commune quant à l’impact prévu de l’IA sur leur carrière au cours des cinq prochaines années. De plus, il existe une préférence notable pour l’embauche d’ingénieurs compétents dans l’utilisation d’outils d’IA tels que ChatGPT/Copilot. Fait intéressant, 80% des participants utilisent différentes versions de ChatGPT (y compris GPT-3, 3.5 et 4). Par ailleurs, les principales préoccupations concernent l’exactitude du modèle et les hallucinations, avec 67% des répondants exprimant leur inquiétude. En ce qui concerne les outils de développement, Huggingface, LangChain et LlamaIndex détiennent actuellement la domination du marché. Enfin, selon les répondants, les résultats de l’enquête indiquent que GitHub Copilot, ChatGPT et Google Bard sont les outils les plus précieux.

Pourquoi devriez-vous vous en soucier ?

Il est facile de se laisser emporter par le rythme incroyable des nouvelles versions de modèles d’IA et des améliorations de leurs capacités. Cependant, il est parfois difficile de juger comment ces outils sont adoptés de manière plus générale et s’ils commencent à avoir un impact sur l’économie. Nous pensons donc qu’il est essentiel de voir des études détaillées sur l’adoption de l’IA dans différents secteurs afin de commencer à planifier à la fois les impacts positifs et négatifs de cette technologie. De toute évidence, dans certains domaines, l’adoption de LLM a déjà un impact significatif sur les employés, à la fois négatif (réduction des salaires) et positif (amélioration de la productivité et de la qualité). Mais d’autres aspects de l’adoption en sont encore à un stade très précoce et les entreprises commencent tout juste à s’adapter aux nouvelles capacités. Peut-être que le dernier produit GPT d’OpenAI et une meilleure interface utilisateur pour partager des encouragements et des idées pour des cas d’utilisation LLM accéléreront davantage ces tendances.

– Louie Peters – Co-fondateur et PDG de Towards AI

Les dernières actualités

  1. NVIDIA rend les pandas beaucoup plus rapides grâce aux GPU

NVIDIA a considérablement amélioré la bibliothèque Pandas, en atteignant des performances jusqu’à 150 fois plus rapides en capitalisant sur les GPU. Avec le nouveau module cudf.pandas, les opérations sont exécutées de manière transparente sur le GPU ou le CPU, offrant une synchronisation automatique et un passage efficace entre les deux.

2. IA et open source en 2023

En 2023, la recherche et l’industrie de l’IA se sont concentrées sur l’amélioration des technologies existantes telles que GPT et DALL-E plutôt que sur des innovations radicales. Les entreprises sont devenues plus protectrices de leurs informations exclusives, ce qui a entraîné moins de divulgation publique de documents de recherche. Cependant, il y a eu des avancées productives dans l’open source, avec Fuyu-8B conduisant à des modèles plus petits et plus efficaces. L’IA s’est avérée utile dans divers domaines, mais les préoccupations éthiques et les écueils doivent être abordés à l’avenir.

3. Copilot Transforme GitHub en Plateforme de Développeur Alimentée par l’IA

GitHub met en œuvre la technologie de l’IA grâce à Copilot et Copilot Chat, dans le but de révolutionner le développement de logiciels en fournissant une compréhension du code, des suggestions, des corrections de sécurité et une expérience améliorée pour les développeurs. Copilot Chat sera alimenté par le modèle GPT-4 d’OpenAI et sera disponible à partir de décembre 2023.

4. OpenAI Veut Collaborer Avec des Organisations Pour Construire de Nouveaux Ensembles de Données d’Entraînement pour l’IA

OpenAI a annoncé un projet appelé Partenariats de Données, visant à collaborer avec des organisations tierces pour construire des ensembles de données publics et privés pour l’entraînement de modèles d’IA. Cet effort vise à rendre les modèles plus pratiques pour diverses organisations. Le programme se concentre principalement sur la collecte de données étendues non disponibles facilement sur Internet, en mettant particulièrement l’accent sur les données reflétant l’intention humaine dans plusieurs langues, sujets et formats.

5. Présentation d’Adept Experiments

Adept ouvre l’accès à Adept Experiments, un générateur de flux de travail alimenté par l’IA qui permet aux utilisateurs d’automatiser des tâches complexes ou fastidieuses sur différentes plateformes logicielles à l’aide de commandes simples en langage naturel. Il aide à déléguer les tâches répétitives de connaissance, à transformer des données non structurées en données structurées, voire à commander le dîner.

Cette semaine en IA, l’accent a été mis sur l’amélioration des technologies, des données et des calculs existants. Quel est votre point de vue : créer du neuf ou améliorer ce qui existe déjà ? Partagez-le dans les commentaires !

Cinq lectures/vidéos de 5 minutes pour continuer à apprendre

  1. L’évolution de l’IA : d’IBM et d’AWS à OpenAI et Anthropic

Cet essai explore de manière excellente le paysage de l’intelligence artificielle et sa trajectoire. L’article cartographie les événements clés qui ont façonné l’IA telle qu’elle est aujourd’hui, avec des entreprises influentes comme Google, IBM et OpenAI jouant un rôle prépondérant dans l’accélération de l’innovation. Il aborde également l’avenir de l’IA responsable, de l’IA grand public, et bien d’autres sujets.

2. Stimuler GPT-4 pour l’analyse d’images de graphiques : est-il à la hauteur du défi ?

La dernière version de GPT, GPT-4, a introduit des capacités d’analyse d’images, y compris les images de graphiques. Bien qu’il puisse fournir une analyse générale des images de graphiques, il existe des possibilités d’amélioration significative, notamment pour quantifier avec précision les données. Cet article utilise quelques types de graphiques pour déterminer la qualité (bonne ou mauvaise) de l’analyse d’images de graphiques par GPT-4.

3. Mesurer les hallucinations dans les systèmes RAG

Le Modèle d’Évaluation des Hallucinations (HEM) est un outil open-source développé pour mesurer la fréquence des hallucinations dans les systèmes Récupération Augmentée Génération (RAG). Il évalue la fiabilité de l’IA en évaluant la capacité des LLM génératifs à résumer avec précision les résultats sans produire de résultats non liés ou biaisés.

4. Quoi de neuf avec DALL·E-3 ?

DALL·E-3 est une version améliorée des modèles de texte vers image de DALL·E, qui offre une qualité d’image supérieure dans différents domaines. Parmi les fonctionnalités notables figurent la réécriture des instructions à l’aide de GPT-4 pour des résultats améliorés, des paramètres ajustables de qualité d’image et des tailles d’image flexibles. Cet article met l’accent sur les nouvelles fonctionnalités et capacités de DALL·E-3 avec quelques exemples de nouveaux produits pouvant être créés avec l’API.

5. Optimisation au moment de l’édition du lien

Ce guide couvre les fonctionnalités liées à l’optimisation au moment de l’édition du lien, en mettant l’accent sur les outils couramment utilisés pour des langages tels que le C et Rust, qui utilisent généralement la compilation et l’édition en amont.

Dépôts et Outils

  1. XTTS v2

XTTS est un modèle de synthèse vocale qui permet aux utilisateurs de cloner des voix dans différentes langues. Il prend en charge 16 langues et utilise le même modèle que notre application créatrice, Coqui Studio, ainsi que l’API Coqui.

2. Giskard AI

Giskard est une bibliothèque Python qui détecte automatiquement les vulnérabilités des modèles d’IA, des modèles tabulaires aux LMM, y compris les biais de performance, la fuite de données, la corrélation erronée, l’hallucination et bien d’autres.

3. Monaspace

Le système de types Monaspace est une super-famille de polices monospaced pour le code. Il se compose de cinq styles de polices à axes variables ; chacun a une voix distincte, mais ils sont tous compatibles en termes de métriques, ce qui permet aux utilisateurs de les combiner pour une palette typographique plus expressive.

4. MindStudio

MindStudio permet aux utilisateurs de créer des applications AI personnalisées sans code en utilisant n’importe quel modèle et prompt. Il permet aux utilisateurs d’entraîner l’IA sur des données externes et de déployer leurs applications AI publiquement ou en privé.

5. Graphlit

Graphlit est une plateforme de développement axée sur les API pour la création d’applications avec les LLM (Language and Knowledge Models). En utilisant le modèle RAG (Retrieval-Augmented Generation), Graphlit exploite la puissance des LLM tels que GPT-3.5 et GPT-4 d’OpenAI pour transformer des données complexes en un graphe de connaissances interrogeable et conversationnel.

Meilleurs Articles de la Semaine

  1. OtterHD : Un Modèle Multimodal de Haute Résolution

Cet article présente OtterHD-8B, un modèle multimodal novateur issu de Fuyu-8B, spécifiquement conçu pour interpréter des entrées visuelles de haute résolution. Il peut accepter des images à leur résolution d’origine, ce qui permet au modèle de détecter des détails minuscules. Avec des tailles de paramètres similaires, OtterHD-8B surpasse les autres LMM sur MagnifierBench, tels que InstructBLIP, LLaVA et Qwen-VL.

2. Bataille des Colonnes Vertébrales : Une Comparaison à Grande Échelle des Modèles Pré-entraînés pour les Tâches de Vision par Ordinateur

Cet article compare les modèles pré-entraînés pour les tâches de vision par ordinateur et constate que ConvNeXT, un ConvNet inspiré des Transformers, est le meilleur pour différentes tâches. Bien que les transformers visuels et l’apprentissage auto-supervisé soient populaires, les réseaux de neurones convolutionnels pré-entraînés supervisés offrent toujours de meilleures performances dans la plupart des cas.

3. TEAL : Tokenize and Embed ALL pour les Grands Modèles Language and Knowledge

Ce travail propose TEAL (Tokenizer et Embedder ALL), un système qui simplifie la modélisation des interactions entre les entrées multimodales et génère des modalités non textuelles. Il traite les entrées de n’importe quelle modalité comme une séquence de jetons et apprend un espace d’intégration commun pour toutes les modalités. Cela permet aux grands modèles de langage et de connaissances multimodaux de prédire les jetons multimodaux de manière plus efficace, ce qui facilite les tâches avec des modalités non textuelles telles que les images et l’audio.

4. Niveaux de l’IA générale : Opérationnalisation des Progrès sur la Voie de l’IA Générale

DeepMind a développé un cadre “Niveaux de l’IA Générale” qui catégorise l’intelligence artificielle en intelligence “étroite” et “générale”. Le cadre définit cinq niveaux de performance de l’IA, de l’émergence à la surperformance, en fonction de leur capacité à apprendre, raisonner et appliquer des connaissances. Ce cadre pourrait être utile de manière analogue aux niveaux de la conduite autonome en fournissant un langage commun pour comparer les modèles, évaluer les risques et mesurer les progrès sur la voie de l’IA générale.

5. JARVIS-1 : Agents Multi-tâches en Monde Ouvert avec des Modèles de Langage Multimodaux à Mémoire Augmentée

Cet article présente JARVIS-1, un agent en monde ouvert capable de percevoir des entrées multimodales (observations visuelles et instructions humaines), de générer des plans sophistiqués et d’exécuter un contrôle intégré, le tout dans l’univers populaire mais exigeant de Minecraft en monde ouvert. Dans des expériences, JARVIS-1 affiche des performances presque parfaites sur plus de 200 tâches variées allant du niveau débutant au niveau intermédiaire.

  1. Google est en pourparlers pour investir des centaines de millions de dollars dans Character.AI, une startup de chatbot d’intelligence artificielle en plein essor, afin de former des modèles et de répondre à la demande des utilisateurs.
  2. IBM a annoncé le lancement d’un fonds de capital-risque de 500 millions de dollars pour investir dans une gamme d’entreprises d’intelligence artificielle, des start-ups en phase précoce aux start-ups à hyper-croissance, axées sur l’accélération de la technologie et de la recherche en IA générative pour les entreprises.
  3. Deux anciens vice-présidents de Coca-Cola se sont associés pour commercialiser un système d’intelligence artificielle (IA) qui aide déjà plusieurs entreprises du Fortune 500 à affiner leurs stratégies de durabilité.
  4. La nouvelle arme d’OpenAI dans la guerre des talents avec Google : des packages de rémunération de 10 millions de dollars pour les chercheurs.
  5. L’entreprise basée en Californie, Iterate, a lancé AppCoder LLM, un modèle affiné capable de générer instantanément du code fonctionnel et mis à jour pour les applications d’IA prêtes pour la production à l’aide de commandes en langage naturel.

Qui recrute dans le domaine de l’IA

Rédacteur technique et développeur en IA pour de grands modèles de langage chez Towards AI Inc (à distance)

Directeur de pratique, Science des données, IA et apprentissage automatique chez Rackspace (États-Unis/à distance)

Ingénieur (Junior) DevOps HPC chez Recursion (à distance)

Responsable qualité en IA chez Welocalize (Beijing, Chine)

Développeur en apprentissage automatique en IA chez FullStack Labs (Amérique latine/à distance)

Architecte en IA chez Tibra Capital (Sydney, Australie)

Scientifique/chercheur en apprentissage automatique chez Anyon Systems Inc. (Montréal, Québec, Canada)

Vous souhaitez partager une opportunité d’emploi ici ? Contactez .

Si vous vous préparez à votre prochain entretien sur l’apprentissage automatique, n’hésitez pas à consulter notre site leader en matière de préparation d’entretien, confetti !

https://www.confetti.ai/

Pensez-vous qu’un ami apprécierait cela aussi? Partagez la newsletter et laissez-les rejoindre la conversation.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Les LLMs de Google peuvent maîtriser des outils simplement en lisant la documentation

À l’ère de l’avancement technologique rapide, l’Intelligence Artificielle (IA) fait des progrès rem...

AI

Comment optimiser votre pipeline d'entrée de données DL avec un opérateur personnalisé PyTorch

Cet article est le cinquième d'une série d'articles sur le sujet de l'analyse de performance et de l'optimisation des...

AI

Les emojis sont de plus en plus juridiquement contraignants. Mais ils restent ouverts à une interprétation large.

Chaque année, de plus en plus de cas dans les tribunaux américains considèrent les emojis comme juridiquement contrai...