Explication de l’IA explicable en utilisant des formules booléennes expressives
Explication de l'IA explicable avec des formules booléennes expressives.
L’explosion des applications d’intelligence artificielle (IA) et d’apprentissage automatique (machine learning) imprègne presque tous les secteurs et aspects de la vie.
Mais sa croissance ne se fait pas sans ironie. Alors que l’IA existe pour simplifier et/ou accélérer la prise de décision ou les flux de travail, la méthodologie mise en œuvre est souvent extrêmement complexe. En effet, certains algorithmes d’apprentissage automatique “boîte noire” sont si complexes et multidimensionnels qu’ils peuvent défier une explication simple, même de la part des informaticiens qui les ont créés.
Cela peut poser problème lorsque certains cas d’utilisation – tels que dans les domaines de la finance et de la médecine – sont définis par les meilleures pratiques de l’industrie ou les réglementations gouvernementales qui exigent des explications transparentes sur le fonctionnement interne des solutions d’IA. Et si ces applications ne sont pas assez expressives pour répondre aux exigences en matière d’explicabilité, elles peuvent être rendues inutiles, quel que soit leur efficacité globale.
Pour résoudre ce dilemme, notre équipe du Fidelity Center for Applied Technology (FCAT) – en collaboration avec le Amazon Quantum Solutions Lab – a proposé et mis en œuvre un modèle d’apprentissage automatique interprétable pour l’IA explicative (XAI) basé sur des formules booléennes expressives. Une telle approche peut inclure tout opérateur pouvant être appliqué à une ou plusieurs variables booléennes, offrant ainsi une plus grande expressivité par rapport aux approches basées sur des règles rigides ou des arbres de décision.
- Défis liés à la détoxification des modèles de langage
- Google révèle l’utilisation de données publiques du Web dans l’entraînement de l’IA
- Pourquoi chaque entreprise devrait utiliser des générateurs d’images IA
Vous pouvez lire le document complet ici pour obtenir des détails complets sur ce projet.
Notre hypothèse était que, puisque les modèles – tels que les arbres de décision – peuvent devenir complexes et difficiles à interpréter, la nécessité de trouver une règle expressive avec une faible complexité mais une grande précision était un problème d’optimisation insoluble qui devait être résolu. De plus, en simplifiant le modèle grâce à cette approche avancée de XAI, nous pourrions obtenir des avantages supplémentaires, tels que la mise en évidence des biais importants dans le contexte d’une utilisation éthique et responsable de l’apprentissage automatique, tout en facilitant la maintenance et l’amélioration du modèle.
Nous avons proposé une approche basée sur des formules booléennes expressives car elles définissent des règles avec une complexité (ou une interprétabilité) réglable en fonction des données d’entrée qui sont classifiées. Une telle formule peut inclure tout opérateur pouvant être appliqué à une ou plusieurs variables booléennes (comme Et ou AuMoins), offrant ainsi une plus grande expressivité par rapport aux méthodologies basées sur des règles rigides ou des arbres de décision.
Dans ce problème, nous avons deux objectifs concurrents : maximiser les performances de l’algorithme tout en minimisant sa complexité. Ainsi, au lieu d’adopter l’approche habituelle qui consiste à appliquer l’une des deux méthodes d’optimisation – combiner plusieurs objectifs en un seul ou restreindre l’un des objectifs – nous avons choisi de les inclure tous les deux dans notre formulation. Ce faisant, sans perte de généralité, nous utilisons principalement l’exactitude équilibrée comme métrique de performance globale.
De plus, en incluant des opérateurs tels qu’AuMoins, nous avons été motivés par l’idée de répondre au besoin de listes de contrôle hautement interprétables, telles qu’une liste de symptômes médicaux indiquant une affection particulière. Il est concevable qu’une décision soit prise en utilisant une telle liste de symptômes de manière à ce qu’un nombre minimum soit nécessaire pour un diagnostic positif. De même, en finance, une banque peut décider d’accorder ou non un crédit à un client en fonction de la présence d’un certain nombre de facteurs sur une liste plus large.
Nous avons réussi à mettre en œuvre notre modèle XAI et à le comparer à des ensembles de données publics concernant le crédit, le comportement des clients et les affections médicales. Nous avons constaté que notre modèle est généralement compétitif par rapport à d’autres alternatives bien connues. Nous avons également constaté que notre modèle XAI peut potentiellement être alimenté par du matériel spécialisé ou des dispositifs quantiques pour résoudre rapidement des problèmes de programmation linéaire entière (ILP) ou d’optimisation binaire quadratique sans contrainte (QUBO). L’ajout de solveurs QUBO réduit le nombre d’itérations, permettant ainsi une accélération en proposant rapidement des mouvements non locaux.
Comme mentionné précédemment, les modèles d’IA explicables utilisant des formules booléennes peuvent avoir de nombreuses applications dans les domaines de la santé et de la finance de Fidelity (comme la notation de crédit ou l’évaluation des raisons pour lesquelles certains clients ont choisi un produit tandis que d’autres ne l’ont pas fait). En créant ces règles interprétables, nous pouvons obtenir des niveaux plus élevés d’informations qui peuvent conduire à des améliorations futures dans le développement ou l’amélioration des produits, ainsi qu’à l’optimisation des campagnes marketing.
Sur la base de nos résultats, nous avons conclu que l’IA explicative utilisant des formules booléennes expressives est à la fois appropriée et souhaitable pour les cas d’utilisation qui exigent une plus grande explicabilité. De plus, à mesure que l’informatique quantique continue de se développer, nous prévoyons la possibilité de bénéficier de gains de vitesse potentiels en l’utilisant et en utilisant d’autres accélérateurs matériels spécialisés.
Les travaux futurs pourraient porter sur l’application de ces classificateurs à d’autres ensembles de données, l’introduction de nouveaux opérateurs ou l’application de ces concepts à d’autres cas d’utilisation.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Exemples concrets de MLOps Pipeline MLOps de bout en bout pour la recherche visuelle chez Brainly
- Emballage de modèles d’apprentissage automatique [Le guide ultime]
- Comment construire un outil de suivi des expériences [Retours d’expérience des ingénieurs derrière Neptune]
- Construction et déploiement de modèles de CV Retours d’expérience d’un ingénieur en vision par ordinateur
- Comment construire un pipeline ML de bout en bout
- Comment sauvegarder un modèle entraîné en Python
- Construction d’une plateforme d’apprentissage automatique dans le secteur de la vente au détail et du commerce électronique