MLCommons a dévoilé un nouveau test de vitesse de référence pour l’exécution de modèles d’IA

MLCommons a dévoilé un nouveau test de vitesse pour l'exécution de modèles d'IA.

Lundi, un groupe de référence en intelligence artificielle appelé MLCommons a dévoilé les résultats de nouveaux tests qui déterminent la vitesse à laquelle les meilleurs matériels peuvent exécuter des modèles d’IA. Le rapport, relayé par Reuters, montre que le meilleur performeur de ces tests était une puce de chez Nvidia.

Le test a été réalisé sur un modèle de langage de grande taille et une puce d’Intel était classée deuxième dans les résultats du benchmark. Le benchmark en question s’appelle le benchmark MLPerf. Il est basé sur un LLM avec 6 milliards de paramètres qui peut résumer des articles de CNN.

Nvidia a obtenu la première place en utilisant une configuration de huit de ses puces phares H100. Cependant, sa performance n’est pas surprenante car le géant de la fabrication de puces domine le marché depuis un certain temps. En commentant les résultats, le directeur marketing de l’informatique accélérée chez Nvidia, Dave Salvator, a déclaré: “Ce que vous voyez, c’est que nous offrons des performances de premier plan dans tous les domaines, et encore une fois, nous offrons ces performances de premier plan sur toutes les charges de travail”.

En deuxième position, Intel a pu se placer en utilisant ses puces Gaudi2. Ces puces sont produites par l’une de leurs sociétés récemment acquises, Habana. L’acquisition a eu lieu en 2019 et ses puces étaient environ 10% plus lentes que la configuration de Nvidia.

En parlant des performances de Gaudi2 lors des tests, le directeur des opérations de Habana, Eitan Medina, a déclaré: “Nous sommes très fiers des résultats de l’inférence, nous montrons l’avantage de la performance-prix de Gaudi2”.

Lors d’un entretien avec Reuters, Intel a commenté le fait que sa configuration est moins chère que celle de Nvidia, qui selon leurs affirmations est au prix des systèmes de la génération précédente de leur rival. Mais ce n’était pas seulement Intel et Nvidia qui cherchaient à tester leur matériel.

Pendant les tests, Google a présenté sa configuration de puce. Cela a été annoncé en août mais montre que l’industrie des semi-conducteurs, bien que dominée par quelques noms, a des concurrents émergents. Ce qui aurait du sens car la part de marché de l’industrie devrait connaître une croissance à deux chiffres.

Selon Fortune Business Insights, la part de marché des semi-conducteurs devrait dépasser le billion de dollars d’ici 2029. Une grande partie de cela est due à la demande de nouveaux appareils électroniques, d’outils alimentés par l’IA, de la croissance de la technologie Internet des objets et plus encore.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Tout sur les bases de données vectorielles - Leur importance, les embeddings vectoriels et les principales bases de données vectorielles pour les grands modèles de langage (LLMs)

Les grands modèles de langage ont montré une croissance immense et des avancées récentes. Le domaine de l’intel...

AI

Ajuster le tissu de l'IA générative FABRIC est une approche d'IA qui personnalise les modèles de diffusion avec des retours itératifs

L’IA générative est un terme que nous connaissons tous de nos jours. Elle a beaucoup progressé ces dernières an...

AI

Comprenez vos données en temps réel

Dans cet article de blog, nous aborderons comment vous pouvez combiner et exploiter la solution de streaming open-sou...

Science des données

Que faire après un B.Tech ?

Que faire après un Btech? Cette question courante préoccupe tous les étudiants de dernière année et récemment diplômé...

Apprentissage automatique

Apprentissage automatique dans un espace non-euclidien

Avant d'aller plus loin dans cette série sur la géométrie non-euclidienne appliquée à l'apprentissage automatique (ML...

AI

Des chercheurs de Stanford et de DeepMind ont eu l'idée d'utiliser des modèles de langue volumineux (LLM) en tant que fonction de récompense par procuration.

Avec le développement de l’informatique et des données, les agents autonomes gagnent en puissance. La nécessité...