130 Astuces et Ressources d’Apprentissage Automatique Sélectionnées avec Soin sur 3 Ans (Plus un eBook Gratuit)

130 Astuces et Ressources d'Apprentissage Automatique Sélectionnées avec Soin sur 3 Ans

Chacun vaut votre temps

Image de moi avec Midjourney. Toutes les autres images et GIF ont été générés par moi sauf indication contraire.

Introduction

Il existe deux types de astuces en science des données et en apprentissage automatique : les astuces rares et très cool. Elles sont conçues pour attirer votre attention, mais au final, vous ne les utiliserez jamais car leurs cas d’utilisation sont trop spécifiques. Pensez à ces expressions Python d’une ligne qui sont effroyables en termes de lisibilité.

Dans la deuxième catégorie, il y a des astuces rares, cool et tellement utiles que vous commencerez à les utiliser immédiatement dans votre travail.

De mon parcours de trois ans dans le domaine des données, j’ai rassemblé plus de 100 astuces et ressources qui relèvent de la deuxième catégorie (il peut y avoir parfois un léger chevauchement avec la première catégorie) et les ai regroupées dans un livre en ligne – Tricking Data Science.

Alors que le livre en ligne contient plus de 200 éléments organisés de manière ordonnée, j’ai sélectionné les 130 meilleures astuces que j’ai incluses dans un article, car VoAGI offre une expérience de lecture bien meilleure.

Profitez-en !

Si vous souhaitez accéder au livre sans lire l’article complet – je veux dire, pendant 50 minutes, qui le ferait ? – je vous demanderais de laisser ces 50 applaudissements et de me suivre avant de le faire 🙂

Astuces

1. Importance de permutation avec ELI5

L’importance de permutation est l’un des moyens les plus fiables pour voir les caractéristiques importantes dans un modèle.

Ses avantages :

  1. Fonctionne sur n’importe quelle structure de modèle
  2. Facile à interpréter et à implémenter
  3. Consistante et fiable

L’importance de permutation d’une caractéristique est définie comme le changement de performance du modèle lorsque cette caractéristique est mélangée de manière aléatoire.

L’importance de permutation est disponible via le package eli5. Ci-dessous se trouvent les scores d’importance de permutation pour un modèle de régression XGBoost👇

La fonction show_weights affiche les caractéristiques qui affectent le plus négativement les performances du modèle après avoir été mélangées – c’est-à-dire les caractéristiques les plus importantes.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Comment l'IA générative transforme-t-elle l'art de la narration?

Introduction Depuis la nuit des temps, les histoires captivent nos cœurs et nos esprits avec des intrigues qui suscit...

AI

Startup écrit une histoire à succès sur l'IA générative avec NVIDIA NeMo

L’apprentissage automatique a aidé Waseem Alshikh à parcourir des manuels à l’université. Maintenant, il ...

AI

Une introduction du Pythonista au noyau sémantique

Depuis la sortie de ChatGPT, les modèles de langage volumineux (LLM) ont reçu énormément d'attention aussi bien dans ...

AI

IA générative L'idée derrière CHATGPT, Dall-E, Midjourney et plus encore

Le monde de l'art, de la communication et de la façon dont nous percevons la réalité est en train de se transformer r...

AI

Former votre propre LLM sans codage

Introduction L’intelligence artificielle générative, un domaine captivant qui promet de révolutionner notre faç...