La bataille pour l’IA open-source à la suite de l’IA générative
Bataille IA open-source suite IA générative
L’intelligence artificielle open-source transforme rapidement l’écosystème logiciel en rendant les modèles et les outils d’IA accessibles aux organisations. Cela offre plusieurs avantages, notamment une innovation accélérée, une meilleure qualité et des coûts réduits.
D’après le rapport OpenLogic 2023, 80% des organisations utilisent davantage de logiciels open-source par rapport à l’année dernière (77%) pour accéder aux dernières innovations, améliorer la vélocité de développement, réduire la dépendance envers les fournisseurs et minimiser les coûts de licence.
Le paysage actuel de l’IA open-source est en constante évolution. Les géants de la technologie tels que Google (Meena, Bard et PaLM), Microsoft (Turing NLG) et Amazon Web Services (Amazon Lex) se montrent plus prudents dans la publication de leurs innovations en matière d’IA. Cependant, certaines organisations, comme Meta et d’autres sociétés de recherche basées sur l’IA, ouvrent activement leurs modèles d’IA.
De plus, il existe un débat intense sur l’IA open-source qui tourne autour de son potentiel de concurrencer les grandes entreprises technologiques. Cet article vise à fournir une analyse approfondie des avantages potentiels de l’IA open-source et à mettre en évidence les défis à venir.
- Cette recherche en IA du MIT démontre comment un système d’apprentissage automatique basé sur la lumière pourrait permettre de créer des modèles de langage plus puissants et efficaces.
- Les chercheurs du Tencent AI Lab présentent IP-Adapter un adaptateur de texte compatible avec les images pour les modèles de diffusion de texte vers image.
- Tarification dynamique avec apprentissage par renforcement à partir de zéro Q-Learning
Avancées pionnières – Le potentiel de l’IA open-source
De nombreux praticiens considèrent la montée de l’IA open-source comme un développement positif car cela rend l’IA plus transparente, flexible, responsable, abordable et accessible. Mais les géants de la technologie comme OpenAI et Google sont très prudents lorsqu’ils ouvrent leurs modèles en raison de préoccupations commerciales, de confidentialité et de sécurité. En les ouvrant, ils pourraient perdre leur avantage concurrentiel, ou ils devraient divulguer des informations sensibles concernant leurs données et leur architecture de modèle, et des acteurs malveillants pourraient utiliser les modèles à des fins néfastes.
Cependant, la perle rare de l’ouverture des modèles d’IA est l’innovation plus rapide. Plusieurs avancées remarquables en IA sont devenues accessibles au public grâce à la collaboration open-source. Par exemple, Meta a fait un pas décisif en ouvrant son modèle LLM LLaMA.
Lorsque la communauté de recherche a eu accès à LLaMA, cela a catalysé d’autres percées en IA, conduisant au développement de modèles dérivés tels que Alpaca et Vicuna. En juillet, Stability AI a construit deux LLM nommés Beluga 1 et Beluga 2 en exploitant respectivement LLaMA et LLaMA 2. Ils ont montré de meilleurs résultats sur de nombreuses tâches linguistiques telles que le raisonnement, la réponse à des questions spécifiques à un domaine et la compréhension des subtilités linguistiques par rapport aux modèles de pointe de l’époque. Récemment, Meta a introduit Code LLaMA, un outil d’IA open-source pour la programmation qui a surpassé les modèles de pointe dans les tâches de programmation – également construit sur la base de LLaMA 2.
Comparaison des performances de Code LLaMA
Les chercheurs et les praticiens améliorent également les capacités de LLaMA pour rivaliser avec les modèles propriétaires. Par exemple, des modèles open-source comme Giraffe d’Abacus AI et Llama-2-7B-32K-Instruct de Together AI sont désormais capables de gérer des contextes d’entrée longs de 32K – une fonctionnalité qui n’était disponible que dans les modèles LLM propriétaires tels que GPT-4. De plus, des initiatives industrielles telles que les modèles open-source MPT 7B et 30B de MosaicML permettent aux chercheurs de former leurs propres modèles IA génératifs à partir de zéro.
Dans l’ensemble, cet effort collectif a transformé le paysage de l’IA, favorisant la collaboration et le partage des connaissances qui continuent de stimuler des découvertes révolutionnaires.
Avantages de l’IA open-source pour les entreprises
L’IA open-source offre de nombreux avantages, ce qui en fait une approche convaincante en matière d’intelligence artificielle. En adoptant la transparence et la collaboration communautaire, l’IA open-source a le potentiel de révolutionner la manière dont nous développons et déployons des solutions d’IA.
Voici quelques avantages de l’IA open-source :
- Développement rapide : Les modèles d’IA open-source permettent aux développeurs de construire sur des frameworks et architectures existants, ce qui permet un développement rapide et une itération de nouveaux modèles. Avec une base solide, les développeurs peuvent créer des applications novatrices sans réinventer la roue.
- Transparence accrue : La transparence est une caractéristique clé de l’open-source, offrant une vision claire des algorithmes et des données sous-jacents. Cette visibilité réduit les biais et favorise l’équité, conduisant à un environnement d’IA plus équitable.
- Collaboration accrue : L’IA open-source a démocratisé le développement de l’IA, ce qui favorise la collaboration en encourageant une communauté diversifiée de contributeurs avec des expertises variées.
Naviguer les défis – Les risques de l’ouverture de l’IA
Tout en offrant de nombreux avantages, l’open-source peut également comporter des risques potentiels. Voici quelques-unes des préoccupations clés liées à l’IA open-source:
- Problèmes réglementaires: L’essor des modèles d’IA open-source a conduit à un développement incontrôlé avec des risques inhérents qui nécessitent une réglementation prudente. L’accessibilité et la démocratisation de l’IA soulèvent des inquiétudes quant à son utilisation malveillante potentielle. Selon un rapport récent de SiliconAngle, certains projets d’IA open-source utilisent une IA générative et des LLMs avec une sécurité médiocre, mettant ainsi les organisations et les consommateurs en danger.
- Dégradation de la qualité: Bien que les modèles d’IA open-source apportent transparence et collaboration communautaire, ils peuvent souffrir d’une dégradation de la qualité au fil du temps. Contrairement aux modèles en source fermée maintenus par des équipes dédiées, la charge de maintenance incombe souvent à la communauté. Cela conduit souvent à des négligences potentielles et à des versions de modèles obsolètes. Cette dégradation peut entraver les applications critiques, mettant en danger la confiance des utilisateurs et le progrès global de l’IA.
- Complexité de la réglementation de l’IA: L’open-source des modèles d’IA introduit un nouveau niveau de complexité pour les régulateurs de l’IA. Il y a plusieurs facteurs à prendre en compte, tels que la protection des données sensibles, la prévention de l’utilisation de modèles à des fins malveillantes et la garantie de la bonne maintenance des modèles. Il est donc très difficile pour les régulateurs de l’IA de s’assurer que les modèles open-source sont utilisés pour le bien et non pour nuire.
La nature évolutive du débat sur l’IA open-source
“L’open-source favorise l’innovation car il permet à de nombreux développeurs de construire avec de nouvelles technologies. Cela améliore également la sécurité car lorsque le logiciel est ouvert, plus de personnes peuvent l’examiner pour identifier et corriger les problèmes potentiels”, a déclaré Mark Zuckerberg lorsqu’il a annoncé le modèle de langage LLaMA 2 en juillet de cette année.
D’autre part, des acteurs majeurs tels qu’OpenAI soutenu par Microsoft et Google gardent leurs systèmes d’IA fermés. Ils cherchent à obtenir un avantage concurrentiel et à minimiser le risque de mauvaise utilisation de l’IA.
Le co-fondateur et scientifique en chef d’OpenAI, Ilya Sutskever, a déclaré à The Verge, “Ces modèles sont très puissants et ils deviennent de plus en plus puissants. À un moment donné, il sera assez facile, si on le souhaite, de causer beaucoup de tort avec ces modèles. Et à mesure que les capacités augmentent, il est logique de ne pas les divulguer.” Ainsi, il existe des risques potentiels liés aux modèles d’IA open-source que les êtres humains ne peuvent ignorer.
Alors que les IA capables de causer la destruction humaine peuvent être à des décennies de distance, les outils d’IA open-source ont déjà été détournés. Par exemple, le premier modèle LLaMA n’a été publié que pour faire progresser la recherche en IA. Mais des agents malveillants l’ont utilisé pour créer des chatbots qui propagent du contenu haineux comme des insultes raciales et des stéréotypes.
Maintenir un équilibre entre la collaboration AI ouverte et une gouvernance responsable est crucial. Cela garantit que les avancées de l’IA restent bénéfiques pour la société tout en se protégeant contre les risques potentiels. La communauté technologique doit collaborer pour établir des lignes directrices et des mécanismes qui favorisent le développement éthique de l’IA. Plus important encore, des mesures doivent être prises pour prévenir les abus, permettant aux technologies de l’IA d’être une force de changement positif.
Vous voulez améliorer votre QI en IA? Naviguez à travers le vaste catalogue des ressources informatives d’Unite.ai pour amplifier vos connaissances.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Meta AI dévoile SeamlessM4T un modèle multilingue et multitâche fondamental qui traduit et transcrit de manière transparente à travers la parole et le texte
- Découvrez TADA une puissante approche d’IA pour convertir les descriptions verbales en avatars 3D expressifs.
- Au-delà des graphiques à barres données avec Sankey, empaquetage circulaire et graphiques réseau
- Cet article sur l’IA propose MATLABER un nouvel auto-encodeur BRDF latent pour la génération de texte vers 3D consciente des matériaux
- Voici ce que vous manquez
- La prochaine étape est l’IA responsable. Comment y parvenir ?
- Les chercheurs d’Apple proposent un réseau de bout en bout produisant des reconstructions 3D détaillées à partir d’images posées