130 Astuces et Ressources d’Apprentissage Automatique Sélectionnées avec Soin sur 3 Ans (Plus un eBook Gratuit)
130 Astuces et Ressources d'Apprentissage Automatique Sélectionnées avec Soin sur 3 Ans
Chacun vaut votre temps

Introduction
Il existe deux types de astuces en science des données et en apprentissage automatique : les astuces rares et très cool. Elles sont conçues pour attirer votre attention, mais au final, vous ne les utiliserez jamais car leurs cas d’utilisation sont trop spécifiques. Pensez à ces expressions Python d’une ligne qui sont effroyables en termes de lisibilité.
Dans la deuxième catégorie, il y a des astuces rares, cool et tellement utiles que vous commencerez à les utiliser immédiatement dans votre travail.
De mon parcours de trois ans dans le domaine des données, j’ai rassemblé plus de 100 astuces et ressources qui relèvent de la deuxième catégorie (il peut y avoir parfois un léger chevauchement avec la première catégorie) et les ai regroupées dans un livre en ligne – Tricking Data Science.
Alors que le livre en ligne contient plus de 200 éléments organisés de manière ordonnée, j’ai sélectionné les 130 meilleures astuces que j’ai incluses dans un article, car VoAGI offre une expérience de lecture bien meilleure.
- L’intersection entre CDP et IA Comment l’intelligence artificielle révolutionne les plates-formes de données clients
- LLM (Large Language Models) pour une meilleure compréhension du produit par les développeurs
- Plus de conférenciers annoncés pour ODSC APAC 2023
Profitez-en !
Si vous souhaitez accéder au livre sans lire l’article complet – je veux dire, pendant 50 minutes, qui le ferait ? – je vous demanderais de laisser ces 50 applaudissements et de me suivre avant de le faire 🙂
Astuces
1. Importance de permutation avec ELI5
L’importance de permutation est l’un des moyens les plus fiables pour voir les caractéristiques importantes dans un modèle.
Ses avantages :
- Fonctionne sur n’importe quelle structure de modèle
- Facile à interpréter et à implémenter
- Consistante et fiable
L’importance de permutation d’une caractéristique est définie comme le changement de performance du modèle lorsque cette caractéristique est mélangée de manière aléatoire.
L’importance de permutation est disponible via le package eli5. Ci-dessous se trouvent les scores d’importance de permutation pour un modèle de régression XGBoost👇
La fonction show_weights affiche les caractéristiques qui affectent le plus négativement les performances du modèle après avoir été mélangées – c’est-à-dire les caractéristiques les plus importantes.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Découvrez WebAgent le nouvel LLM de DeepMind qui suit les instructions et accomplit des tâches sur les sites web.
- NLP Moderne Un Aperçu Détaillé. Partie 4 Les Derniers Développements
- Le modèle POE des systèmes matériels bio-inspirés
- NVIDIA aide à créer un forum pour établir la norme OpenUSD pour les mondes en 3D
- Créature 3D câline prend vie dans une collaboration père-fils cette semaine ‘Dans le studio NVIDIA
- Maîtriser les expressions régulières avec Python
- Pythia Une suite de 16 LLM pour la recherche approfondie