Modèles basés sur la base neurale pour l’interprétabilité

Interprétation des modèles basés sur les bases neuronales

Déballage du nouveau modèle interprétable proposé par Meta AI

L’application généralisée de l’apprentissage automatique et de l’intelligence artificielle dans différents domaines pose des défis accrus en matière d’évaluation des risques et d’éthique. Comme le montrent des études de cas telles que le modèle de récidive criminelle signalé par ProPublica, les algorithmes d’apprentissage automatique peuvent être incroyablement biaisés, et il est donc nécessaire de mettre en place des mécanismes d’explicabilité robustes pour garantir la confiance et la sécurité lors de déploiements de ces modèles dans des domaines à forts enjeux.

Alors, comment concilier interprétabilité, précision et expressivité du modèle ? Eh bien, les chercheurs de Meta AI ont proposé une nouvelle approche qu’ils ont appelée Neural Basis Models (NBMs)[1], une sous-famille de modèles additives généralisées qui atteignent des performances de pointe sur des ensembles de données de référence tout en conservant une interprétabilité transparente.

Dans cet article, je vais expliquer le NBM et ce qui en fait un modèle bénéfique. Comme d’habitude, j’encourage tout le monde à lire l’article original.

Si vous êtes intéressé par l’apprentissage automatique interprétable et d’autres aspects de l’IA éthique, je vous invite à consulter certains de mes autres articles et à me suivre !

Nakul Upadhya

Nakul Upadhya

IA interprétable et éthique

Voir la liste3 histoires

Contexte : GAMs

Le NBM est considéré comme un Modèle Additif Généralisé (GAM). Les GAM sont des modèles intrinsèquement interprétables qui apprennent une fonction de forme pour chaque caractéristique, et les prédictions sont faites en “interrogeant” la fonction de forme. Étant donné que ces fonctions de forme sont indépendantes, l’impact d’une caractéristique sur la prédiction peut être compris en visualisant ces fonctions de forme, les rendant très explicables. Les interactions entre les variables sont modélisées en passant plusieurs variables dans la même fonction et en construisant la fonction de forme en fonction de cela (en limitant généralement le nombre de variables à 2 pour assurer l’interopérabilité), une configuration appelée GA2M.

Les différents modèles GAM et GA2M utilisent différents mécanismes pour développer ces fonctions de forme. La Machine Boosting Explicable (EBM) [2] utilise un ensemble d’arbres boostés entraînés sur chaque caractéristique, les Neural Additive Models (NAMs) [3] utilisent un réseau neuronal profond pour chaque caractéristique, et NODE-GAM [4] utilise des ensembles de…

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Cette semaine en IA, 18 août OpenAI en difficulté financière • Stability AI annonce StableCode

Cette semaine en IA sur VoAGI fournit un récapitulatif hebdomadaire des derniers événements dans le monde de l'Intell...

AI

Les employés veulent ChatGPT au travail. Les patrons craignent qu'ils ne révèlent des secrets.

Certains dirigeants d'entreprise ont interdit l'utilisation d'outils d'intelligence artificielle générative en raison...

AI

AlphaFold, des outils similaires pourraient aider aux préparations pour la prochaine pandémie

Les chercheurs utilisent de plus en plus l'intelligence artificielle pour se préparer aux futures pandémies.

AI

Rencontrez DreamSync un nouveau cadre d'intelligence artificielle pour améliorer la synthèse texte-image (T2I) avec les retours des modèles de compréhension d'image.

Des chercheurs de l’Université de Californie du Sud, de l’Université de Washington, de l’Université...

AI

Comparaison des méthodes d'apprentissage automatique traditionnelles vs. alternatives économiques - Qu'est-ce qui fonctionne vraiment ?

L’intelligence artificielle est en augmentation constante dans divers domaines tels que les plateformes cloud, ...