Modèles basés sur la base neurale pour l’interprétabilité
Interprétation des modèles basés sur les bases neuronales
Déballage du nouveau modèle interprétable proposé par Meta AI
L’application généralisée de l’apprentissage automatique et de l’intelligence artificielle dans différents domaines pose des défis accrus en matière d’évaluation des risques et d’éthique. Comme le montrent des études de cas telles que le modèle de récidive criminelle signalé par ProPublica, les algorithmes d’apprentissage automatique peuvent être incroyablement biaisés, et il est donc nécessaire de mettre en place des mécanismes d’explicabilité robustes pour garantir la confiance et la sécurité lors de déploiements de ces modèles dans des domaines à forts enjeux.
Alors, comment concilier interprétabilité, précision et expressivité du modèle ? Eh bien, les chercheurs de Meta AI ont proposé une nouvelle approche qu’ils ont appelée Neural Basis Models (NBMs)[1], une sous-famille de modèles additives généralisées qui atteignent des performances de pointe sur des ensembles de données de référence tout en conservant une interprétabilité transparente.
Dans cet article, je vais expliquer le NBM et ce qui en fait un modèle bénéfique. Comme d’habitude, j’encourage tout le monde à lire l’article original.
Si vous êtes intéressé par l’apprentissage automatique interprétable et d’autres aspects de l’IA éthique, je vous invite à consulter certains de mes autres articles et à me suivre !
- Découvrez Mistral-7B-v0.1 un nouveau modèle de langage de grande taille sur le marché.
- Architecture d’intégration de LinkedIn alimentant ses capacités de recherche d’emploi
- Préfixe de prompt de chat GPT en 5 mots qui donne la réponse souhaitée du premier coup.
![Nakul Upadhya](https://ai.miximages.com/miro.medium.com/v2/resize:fill:40:40/1*W-J3yFPrfgauYcSYeyEubg.jpeg)
IA interprétable et éthique
Voir la liste3 histoires
Contexte : GAMs
Le NBM est considéré comme un Modèle Additif Généralisé (GAM). Les GAM sont des modèles intrinsèquement interprétables qui apprennent une fonction de forme pour chaque caractéristique, et les prédictions sont faites en “interrogeant” la fonction de forme. Étant donné que ces fonctions de forme sont indépendantes, l’impact d’une caractéristique sur la prédiction peut être compris en visualisant ces fonctions de forme, les rendant très explicables. Les interactions entre les variables sont modélisées en passant plusieurs variables dans la même fonction et en construisant la fonction de forme en fonction de cela (en limitant généralement le nombre de variables à 2 pour assurer l’interopérabilité), une configuration appelée GA2M.
Les différents modèles GAM et GA2M utilisent différents mécanismes pour développer ces fonctions de forme. La Machine Boosting Explicable (EBM) [2] utilise un ensemble d’arbres boostés entraînés sur chaque caractéristique, les Neural Additive Models (NAMs) [3] utilisent un réseau neuronal profond pour chaque caractéristique, et NODE-GAM [4] utilise des ensembles de…
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Une simple conversation avec ChatGPT pour transmettre clairement votre message à n’importe qui, n’importe quand.
- Déséquilibre de classe et suréchantillonnage Une introduction formelle
- Les chercheurs de l’Université de Manchester présentent MentalLLaMA la première série LLM open-source pour une analyse lisible de la santé mentale avec la capacité de suivre les instructions.
- 10 meilleurs générateurs de reprises de chansons AI
- Déséquilibre de classe Exploration des techniques de sous-échantillonnage
- Réinventer une architecture d’apprentissage fédéré natif de cloud sur AWS
- Les modèles Whisper pour la reconnaissance automatique de la parole sont maintenant disponibles dans Amazon SageMaker JumpStart.