Déboguez les modèles de détection d’objets avec le tableau de bord de l’IA responsable
Déboguez les modèles de détection d'objets avec le tableau de bord de l'IA responsable' can be condensed to 'Déboguez les modèles de détection d'objets avec le tableau de bord de l'IA responsable
Lors de Microsoft Build 2023, nous avons annoncé la prise en charge des données texte et image dans le tableau de bord Azure Machine Learning responsable de l’IA en version d’aperçu. Ce blog se concentrera sur les nouvelles fonctionnalités de vision du tableau de bord, qui prend en charge les capacités de débogage des modèles de détection d’objets. Nous aborderons un scénario basé sur du texte dans un prochain article. En attendant, vous pouvez regarder notre session de démonstration Build pour un aperçu d’un scénario basé sur du texte et d’autres annonces soutenant des applications d’IA responsable.
Introduction
Aujourd’hui, la détection d’objets est utilisée pour alimenter divers cas d’utilisation critiques et sensibles (par exemple, la détection faciale, la détection de la faune, l’analyse d’images médicales et l’analyse des étagères de vente au détail). La détection d’objets localise et identifie la classe de plusieurs objets dans une image, où un objet est défini avec une boîte englobante. Cela se distingue de la classification d’images, qui classe ce qui est contenu dans une image, et de la segmentation d’instance, qui identifie les formes des différents objets dans une image.
Les détections manquées d’objets dans des sous-groupes de données peuvent causer des préjudices involontaires – réduisant la fiabilité, la sécurité, l’équité et la confiance dans les systèmes d’apprentissage automatique (ML). Par exemple, un outil de modération de contenu d’image peut avoir une grande précision globale mais peut toujours avoir du mal à fonctionner dans certaines conditions d’éclairage ou à censurer incorrectement certains groupes ethniques. Ces échecs restent souvent cachés, car la plupart des équipes de ML ne s’appuient aujourd’hui que sur des métriques de performance agrégées qui n’illustrent pas les caractéristiques individuelles. Les équipes de ML manquent également de visibilité sur les comportements des modèles boîte noire qui conduisent à des distributions d’erreurs variées. Ces défis empêchent les équipes de ML d’optimiser la qualité de service en atténuant les écarts de modèles, en tenant compte de l’équité dans la sélection du meilleur modèle et en veillant à ce que les modèles mis à jour/redéployés en raison de la disponibilité de nouvelles avancées en ML ou de nouvelles données n’introduisent pas de nouveaux préjudices.
- 5 Considérations éthiques pour l’IA générative
- Construction de systèmes LLM fiables avec des plans
- Pourquoi l’IA est devenue la compétence de développement la plus recherchée de 2023
La route pour résoudre ces problèmes est souvent fastidieuse et chronophage, car les équipes de ML doivent naviguer entre des outils de débogage fragmentés, créer une infrastructure personnalisée ou découper manuellement les données. Les résultats de l’évaluation sont difficiles à comparer et à partager pour obtenir les commentaires et l’adhésion des parties prenantes techniques et non techniques. Cependant, combiner l’expertise technique avec des considérations éthiques, juridiques, économiques et/ou sociales est essentiel pour évaluer de manière holistique et déployer en toute sécurité des modèles.
Pour accélérer le développement responsable de modèles de détection d’objets, ce blog se concentrera sur la manière d’évaluer de manière holistique et de déboguer des modèles avec le tableau de bord Azure Machine Learning responsable de l’IA pour la détection d’objets. En exploitant l’exploration active des données et les techniques d’interprétabilité des modèles, ce tableau de bord aide les praticiens de ML à identifier les erreurs d’équité dans leurs modèles et leurs données, à diagnostiquer les raisons de ces problèmes et à proposer les mesures appropriées.
Le tableau de bord responsable de l’IA pour la détection d’objets est disponible via Azure Machine Learning Studio, Python SDK v2 et CLI v2 et prend déjà en charge les modèles tabulaires et les modèles linguistiques. Le tableau de bord est également intégré dans le référentiel Responsible AI Toolbox, offrant une plus grande suite d’outils pour permettre aux praticiens de ML et à la communauté open-source de développer et de surveiller l’IA de manière plus responsable. Pour d’autres scénarios de vision par ordinateur, vous pouvez consulter ces documents techniques pour générer et analyser des informations d’IA responsables pour la classification d’images et la classification multiclasse d’images.
Dans cette plongée approfondie, nous explorerons comment les praticiens de ML peuvent utiliser le tableau de bord responsable de l’IA pour évaluer les modèles de détection d’objets en identifiant et en diagnostiquant les erreurs dans les prédictions d’un modèle de détection d’objets sur l’ensemble de données MS COCO. Pour ce faire, nous apprendrons à créer des cohortes de données pour enquêter sur les écarts de performance des modèles, à diagnostiquer les erreurs lors de l’exploration des données et à tirer des enseignements des outils d’interprétabilité des modèles.
Prérequis pour la configuration du tableau de bord
Ce tutoriel s’appuie sur des articles de blog précédents pour configurer les composants responsables de l’IA dans Azure Machine Learning. Veuillez terminer les étapes précédentes ci-dessous :
– Connectez-vous ou inscrivez-vous pour un compte Azure GRATUIT
– Partie 1 : Premiers pas avec les composants responsable de l’IA d’Azure Machine Learning
– Partie 2 : Comment former un modèle d’apprentissage automatique pour être analysé pour des problèmes d’IA responsables
– REMARQUE : Nous utiliserons l’ensemble de données MS COCO pour ce tutoriel.
– Ce tutoriel nécessite le composant Vision Insights du tableau de bord responsable de l’IA d’Azure Machine Learning. Apprenez comment commencer avec ce composant et les exigences techniques (par exemple, le format du modèle et des données) dans la documentation technique.
– Des notebooks d’exemple liés aux tâches de détection d’objets prises en charge par AutoML et non-AutoML peuvent être trouvés dans le référentiel azureml-examples.
1. Identification des erreurs avec l’aperçu du modèle
En tant que point de départ pour votre analyse, le composant Aperçu du modèle du tableau de bord responsable de l’IA fournit un ensemble complet de métriques de performance pour évaluer votre modèle de détection d’objets sur des cohortes d’ensemble de données ou de fonctionnalités. Cela permet d’explorer les erreurs pour identifier les cohortes de données présentant un taux d’erreur plus élevé par rapport à la référence globale, ou une sous/sur-représentation dans votre ensemble de données.
Dans ce composant, vous pouvez analyser votre modèle en créant de nouvelles cohortes basées sur des questions d’investigation ou des motifs observés et comparer les performances du modèle pour ces cohortes. Pour illustrer avec une étude de cas exemple avec les données MSCOCO, nous pouvons être intéressés par l’évaluation des performances de notre modèle de détection d’objets lors de la détection d’une personne dans une image, en particulier en analysant l’impact de la co-occurrence avec d’autres classes. Dans la détection d’une personne, dans quelle mesure notre modèle compte-t-il sur les pixels de l’objet par rapport à la déduction à partir des pixels des classes d’objets co-occurrentes dans la même image?
Pour commencer, nous pouvons créer des cohortes pour comparer les performances des images avec des personnes co-occurrentes avec différents objets. Ces cohortes de jeu de données peuvent être créées dans le composant Explorateur de données, que nous aborderons dans la section suivante.
- Cohorte n°1 : Images de personnes + soit des skis, soit des planches à roulettes
- Cohorte n°2 : Images de personnes + soit des battes de baseball, soit des raquettes de tennis
Dans le volet Cohortes de jeu de données, le tableau de métriques affiche la taille de l’échantillon de chaque cohorte de jeu de données et la valeur des métriques de performance sélectionnées pour les modèles de détection d’objets. Les métriques sont agrégées en fonction de la méthode sélectionnée : précision moyenne (mAP) pour l’ensemble de la cohorte, ainsi que précision moyenne (AP) et rappel moyen (AR) pour la classe d’objet sélectionnée. La visualisation des métriques permet également une comparaison visuelle des métriques de performance entre les cohortes de jeu de données.
Figure 1 : Pour évaluer comment la précision moyenne et le rappel moyen pour la détection d’une classe de personne se comparent dans les cohortes “skis ou planches de surf” par rapport à la cohorte “battes de baseball ou raquettes de tennis”, ainsi que les performances globales sur l’ensemble des images, nous sélectionnons la classe “personne” dans le menu déroulant.
Pour évaluer la confiance dans les prédictions de votre modèle de détection d’objets, vous pouvez définir la valeur du seuil IoU (intersection sur union entre la vérité terrain et la boîte englobante prédite) qui définit l’erreur et affecte le calcul des métriques de performance du modèle. Par exemple, en fixant un IoU supérieur à 70%, cela signifie qu’une prédiction avec une superposition de plus de 70% avec la vérité terrain est considérée comme vraie. En général, l’augmentation du seuil IoU fera baisser les valeurs de mAP, AP et AR. Cette fonctionnalité est désactivée par défaut et peut être activée en se connectant à une ressource de calcul.
Figure 2 : De manière intéressante ici, la précision moyenne et le rappel moyen de la classe “personne” dans la cohorte “Skis et planches de surf” n’ont pas diminué lorsque le seuil IoU a été augmenté de 70% à 80%. Cela montre que notre modèle détecte la classe “personne” dans les images où une personne co-occupe avec des skis et des planches de surf avec une meilleure fidélité, par rapport à la cohorte avec des personnes et des battes de baseball ou des raquettes de tennis.
Une autre approche pour évaluer les performances de votre modèle consiste à utiliser des cohortes basées sur des caractéristiques sensibles et non sensibles. Cela vous permet d’identifier les problèmes d’équité, tels que des taux d’erreur plus élevés pour certains genres, ethnies ou couleurs de peau lors de la détection d’une personne dans une image. Dans le volet Cohortes de caractéristiques, vous pouvez créer automatiquement une quantité par défaut de trois cohortes et les diviser en fonction des valeurs de la caractéristique spécifiée.
Figure 3 : Nous avons créé trois cohortes distinctes basées sur la valeur moyenne des pixels d’une image et comparé les performances du modèle dans la détection d’une personne entre les cohortes. Ici, les images ayant une valeur moyenne des pixels supérieure à 151,31 ont un score de précision moyenne inférieur par rapport aux autres cohortes.
Ensuite, sélectionnons “M’aider à choisir les caractéristiques” à côté de la liste déroulante Caractéristique(s). Ici, vous pouvez ajuster les caractéristiques à utiliser pour évaluer l’équité de votre modèle, ainsi que déterminer le nombre de divisions pour les comparaisons de performances.
Figure 4 : Sous “M’aider à choisir les caractéristiques”, nous avons ajusté le nombre de cohortes de trois cohortes par défaut à cinq cohortes.
Une plus grande granularité des divisions de caractéristiques permet une identification plus précise des cohortes erronées. Dans la section suivante, nous pourrons inspecter visuellement le contenu de chaque cohorte dans l’ Explorateur de données.
Figure 5: Ici, nous observons que des scores de précision moyenne inférieurs pour les images avec une valeur moyenne de pixel supérieure à 151,31 (conclue à partir de la précédente division en trois cohortes) peuvent être attribués à une performance inférieure pour les images avec une valeur moyenne de pixel supérieure à 171,18, au lieu des images avec une plage de valeur moyenne de pixel de 151-171.
2. Diagnostic des erreurs
Débogage des données avec Data Explorer
Après avoir identifié les cohortes de données et de caractéristiques présentant des taux d’erreur plus élevés avec l’aperçu du modèle, nous utiliserons le composant Data Explorer pour un débogage et une exploration plus approfondis de ces cohortes à travers différents points de vue : visuellement dans une grille d’images, sous forme de tableau avec des métadonnées, par l’ensemble des classes présentes dans les données de vérité terrain, et en zoomant sur des images individuelles. Au-delà des statistiques, l’observation des instances de prédiction peut permettre d’identifier des problèmes liés à des fonctionnalités manquantes ou à du bruit de libellé. Dans l’ensemble de données MS COCO, les observations dans Data Explorer aident à identifier des incohérences dans les performances au niveau des classes malgré des caractéristiques d’objet similaires (par exemple, les skateboards vs. les surfboards et les skis) et à initier une enquête plus approfondie sur les facteurs contributifs.
Inspecter visuellement les instances d’erreur et de réussite dans une grille d’images
Avec le volet Explorateur d’images, vous pouvez explorer les boîtes englobantes d’objets dans les instances d’images pour les prédictions de votre modèle, automatiquement catégorisées en prédictions correctes et incorrectes. Cette vue permet d’identifier rapidement des schémas d’erreur de haut niveau dans vos données et de sélectionner les instances à approfondir.
Figure 6: Sur la base des observations précédentes des performances du modèle dans les cohortes de caractéristiques, nous pourrions être intéressés par l’analyse visuelle des instances d’images où la valeur moyenne des pixels est la moitié de la valeur maximale. Ici, nous créons une nouvelle cohorte avec ce critère de caractéristique et filtrons les instances d’images affichées par ce critère.
Outre les valeurs de caractéristiques de métadonnées, il est également possible de filtrer votre ensemble de données par indice et résultat de classification, ainsi que d’empiler plusieurs filtres. Par conséquent, nous pouvons afficher les instances de réussite et d’erreur de toutes les instances d’images correspondant à nos critères de filtrage.
Figure 7: Après le filtrage et la création d’une nouvelle cohorte, cette vue montre les instances de réussite et d’erreur pour toutes les images où la valeur moyenne des pixels est la moitié de la valeur maximale.
Explorer les prédictions sous forme de tableau et segmenter les données en cohortes pour comparaison
En plus de l’exploration visuelle, la vue Tableau permet aux développeurs de parcourir les prédictions de votre modèle sous forme de tableau, en identifiant la vérité terrain, les étiquettes de classe prédites et les caractéristiques de métadonnées pour chaque instance d’image.
Figure 8: Pour chaque instance d’image, vous pouvez voir l’index de l’image, les vraies étiquettes Y, les étiquettes Y prédites et les colonnes de métadonnées dans une vue en tableau.
Cette vue offre également une méthode plus précise pour créer des cohortes d’ensemble de données – vous pouvez sélectionner manuellement chaque ligne d’image à inclure dans une nouvelle cohorte pour une exploration plus approfondie. Pour regrouper les images de personnes avec des skis et des snowboards que nous avons utilisées au début de notre analyse, nous pouvons sélectionner les images avec une personne et les étiquettes ski ou snowboard dans la colonne Vraies Y. Nous pouvons nommer cette cohorte “Personnes sur des skis ou des surfboards” et l’enregistrer pour l’analyse dans tous les composants du tableau de bord.
Figure 9: Ici, nous sélectionnons manuellement chaque instance d’image avec une personne et les étiquettes ski ou snowboard dans la colonne Vraies Y pour enregistrer ces images en tant que nouvelle cohorte.
Étant donné que le tableau de bord affiche toutes les données par défaut, nous pouvons filtrer notre nouvelle cohorte pour voir son contenu.
Figure 10: Après avoir filtré une nouvelle cohorte de “Personnes en ski ou en surf”, nous constatons qu’il y a 6 prédictions réussies pour les personnes en ski ou en surf dans notre ensemble de données.
Diagnostiquer les problèmes d’équité dans les modèles d’erreurs au niveau des classes
Pour diagnostiquer les problèmes d’équité présents dans les modèles d’erreurs au niveau des classes, le panneau Vue par classe décrit les prédictions de votre modèle par étiquettes de classe sélectionnées. Ici, les instances d’erreur sont celles où l’ensemble des étiquettes de classe prédites ne correspond pas exactement à l’ensemble des étiquettes de classe dans les données de vérité terrain. Cela peut nécessiter une enquête sur les instances individuelles afin d’identifier les schémas sous-jacents du comportement du modèle, ce qui permettrait de mettre en place des stratégies d’atténuation potentielles que nous explorerons à la fin de cette présentation.
Figure 11: En sélectionnant des images où une personne est détectée aux côtés d’une planche à roulettes, de skis ou d’une planche de surf, nous pouvons constater que sur cet ensemble de données de 44 images au total, il y a 3 images avec une personne et des skis ou une planche de surf – toutes des instances réussies où la personne et l’objet ski/surfboard sont détectés correctement. Cependant, l’image avec une personne et une planche à roulettes est une instance d’erreur, que nous pouvons inspecter plus en détail.
Découvrir les causes racines des erreurs par l’analyse visuelle détaillée des images individuelles
Étant donné que les boîtes englobantes sur les cartes d’images peuvent ne pas être suffisantes pour diagnostiquer les causes derrière des instances d’erreur spécifiques, vous pouvez cliquer sur chaque carte d’image pour accéder à une fenêtre contextuelle permettant de visualiser des informations détaillées, telles que les étiquettes de classe prédites et les étiquettes de classe de vérité terrain, les métadonnées de l’image et les explications visuelles pour l’interprétabilité du modèle. Pour diagnostiquer plus en détail le comportement du modèle dans la réalisation de prédictions erronées, nous pouvons examiner les explications pour chaque objet dans une image – ce qui sera abordé dans la section suivante.
Figure 12: En examinant l’instance d’erreur de l’image avec une personne et une planche à roulettes, il est révélé que la personne et la planche à roulettes ont été détectées correctement, mais un banc a également été détecté alors qu’il ne fait pas partie de l’ensemble des étiquettes de classe de vérité terrain (personne, planche à roulettes). Nous pouvons diagnostiquer les causes de cela avec l’interprétabilité du modèle.
Débogage du modèle avec des aperçus d’interprétabilité
Les aperçus d’interprétabilité du modèle fournissent une clarté sur le comportement du modèle conduisant à la détection d’un certain objet. Cela aide les professionnels de l’apprentissage automatique à expliquer l’impact attendu et les biais potentiels de leurs modèles de détection d’objets à des parties prenantes de tous niveaux techniques. Dans le tableau de bord de l’IA responsable, vous pouvez visualiser des explications visuelles, alimentées par Vision Explanation Methods, le package open-source de Microsoft Research qui implémente D-RISE (Detector Randomized Input Sampling for Explanations).
D-RISE est une méthode agnostique au modèle pour créer des explications visuelles des prédictions des modèles de détection d’objets. En tenant compte à la fois de l’aspect de localisation et de catégorisation de la détection d’objets, D-RISE peut produire des cartes de saillance mettant en évidence les parties d’une image qui contribuent le plus à la prédiction du détecteur. Contrairement aux méthodes basées sur les gradients, D-RISE est plus général et n’a pas besoin d’accéder au fonctionnement interne du détecteur d’objets ; il nécessite uniquement l’accès aux entrées et sorties du modèle. La méthode peut être appliquée aux détecteurs à un seul étage (par exemple, YOLOv3), aux détecteurs à deux étages (par exemple, Faster-RCNN), ainsi qu’aux Vision Transformers (par exemple, DETR, OWL-ViT). Étant donné qu’il y a une valeur aux méthodes d’interprétabilité basées sur les modèles également, Microsoft continuera de travailler et de collaborer pour étendre l’ensemble de méthodes disponibles pour l’interprétabilité.
D-RISE fournit une carte de saillance en créant des masques aléatoires de l’image d’entrée et les envoie au détecteur d’objets avec les masques aléatoires de l’image d’entrée. En évaluant le changement du score du détecteur d’objets, il agrégera toutes les détections avec chaque masque et produira une carte de saillance finale.
Interprétation des cartes de saillance D-RISE pour différents scénarios de réussite et d’erreur
Dans le tableau de bord de l’IA responsable, les cartes de saillance alimentées par D-RISE sont disponibles sur les fenêtres contextuelles pour des instances d’images sélectionnées dans Data Explorer. Pour chaque objet détecté dans une image, visualisez son explication visuelle correspondante en sélectionnant l’objet dans la liste déroulante (le numéro de l’objet correspond à la séquence des étiquettes de classe). Les exemples suivants montreront comment les cartes de saillance fournissent un aperçu précieux de la compréhension du comportement du modèle derrière la détection correcte d’objets, des biais potentiels dus à la co-occurrence d’objets et des erreurs de détection.
Pour étudier la détection d’une personne dans les images suivantes, recherchez des couleurs chaudes plus intenses comme le rouge et le magenta. Celles-ci sont essentielles pour l’interprétation, car elles indiquent que la plupart des pixels de saillance élevée sont concentrés sur la personne, comme on pourrait s’y attendre dans la détection de la classe personne. Cela montre également que les objets autour de la personne ne contribuent pas autant à la prédiction que la personne elle-même.
Figure 13: Pour la personne en train de skier, notez qu’il n’y a pas de pixels de saillance élevée vers la plupart des skis, et pour la personne jouant au tennis, les pixels intensément colorés sont orientés vers la personne et une partie de la raquette, mais les pixels les plus intensément colorés (magenta) se concentrent sur la personne plutôt que sur la raquette de tennis. On observe une notion inverse en regardant la carte de saillance pour la raquette de tennis dans la Figure 15 (image la plus à droite), où les pixels magenta les plus saillants sont concentrés autour de la raquette plutôt que de la personne.
Pour les mêmes images, d’autres objets aux côtés de la personne ont été correctement détectés, tels que les skis, la raquette de tennis ou la planche de surf. Cependant, les pixels de saillance peuvent révéler des facteurs de confusion dus à la co-occurrence de différents objets dans ces images, conduisant à des biais dans ces prédictions correctes.
Figure 14: Remarquez qu’il y a des pixels de saillance qui se concentrent sur les jambes de la personne lors de la détection des skis, une saillance vers l’eau lors de la détection de la planche de surf, et sur la personne lors de la détection de la raquette de tennis. Cela peut signifier que la co-occurrence de différents objets pourrait générer un biais dans les prédictions.
Imaginez s’il y avait une image d’une paire de skis sur le mur ; les skis seraient-ils toujours détectés avec succès sans personne ? S’il y avait une image d’une planche de surf sans personne ni eau, la planche de surf serait-elle toujours détectée avec succès ? Quels autres motifs erronés apparaissent avec d’autres classes ? Vous pouvez en savoir plus sur ce scénario et les stratégies d’atténuation dans l’article “Finding and Fixing Spurious Patterns with Explanations” de Microsoft Research.
Figure 15: Pour cette image d’une paire de skis sur le mur, un modèle de détection d’objets identifie incorrectement une planche de surf comme la détection principale. La carte de saillance D-Rise pour la prédiction de la planche de surf montre que la plupart des pixels saillants étaient concentrés sur un seul des skis et ne se concentraient pas sur l’objet dans son ensemble – d’où la prédiction incorrecte.
Les cartes de saillance D-RISE fournissent également des informations sur les erreurs de détection, où la co-occurrence et le positionnement de différents objets peuvent être des facteurs contributifs. Cela encourage les mesures d’atténuation pour améliorer les données d’entraînement, telles que l’inclusion d’images avec des emplacements d’objets diversifiés et des co-occurrences avec d’autres objets.
Figure 16: Ici, le modèle ne parvient pas à détecter le gant de baseball, ainsi que les classes de personne et de balle de sport. En examinant la carte de saillance pour la détection du gant de baseball (objet 3), les pixels de saillance élevée se concentrent sur la balle, ce qui peut entraîner une erreur de détection en tant que balle de sport, au lieu d’un gant de baseball compte tenu de la proximité des deux objets l’un de l’autre.
Traduire les informations sur l’interprétabilité du modèle en stratégies d’atténuation
Les explications visuelles peuvent révéler des schémas dans les prédictions du modèle qui peuvent soulever des préoccupations en matière d’équité, par exemple si les prédictions de classe étaient biaisées en fonction du genre ou de la couleur de peau (par exemple, des ustensiles de cuisine associés aux femmes ou des ordinateurs aux hommes). Cela peut informer les mesures d’atténuation (par exemple, l’annotation des données, l’amélioration des pratiques de collecte de données) pour empêcher les modèles de détection d’objets d’apprendre des corrélations fallacieuses entre les objets qui peuvent refléter des biais. En relation avec l’exemple précédent, l’incapacité du modèle à détecter des skis sans personne suggère que le modèle bénéficiera de plus d’images avec uniquement des skis et aucune personne présente dans les données d’entraînement. Les informations relatives aux erreurs de détection d’objets encouragent également des mesures d’atténuation pour améliorer les données d’entraînement, telles que l’inclusion d’images avec des emplacements d’objets diversifiés et des co-occurrences avec d’autres objets.
Conclusion
Comme nous l’avons vu en utilisant le tableau de bord Azure Machine Learning responsable pour la détection d’objets sur nos prédictions de modèle de détection d’objets sur MSCOCO, le tableau de bord fournit divers outils précieux pour aider les professionnels de l’apprentissage automatique à enquêter sur les erreurs, de la manière suivante :
- Utilisez l’aperçu du modèle pour comparer les performances du modèle sur l’ensemble des données et les groupes de fonctionnalités
- Explorez les motifs d’erreur dans l’explorateur de données pour enquêter sur d’éventuels problèmes d’équité, tels que l’impact de la co-occurrence d’objets sur les prédictions de classe
- Découvrez les biais dans le comportement du modèle grâce aux cartes de saillance D-RISE pour l’interprétabilité du modèle.
Grâce à ces informations, les utilisateurs sont équipés pour mettre en œuvre des mesures d’atténuation éclairées afin de réduire les stéréotypes/biais sociétaux dans les ensembles de données visuels (images, annotations, métadonnées) qui peuvent influencer involontairement les modèles de détection d’objets. Les utilisateurs peuvent également partager leurs résultats avec les parties prenantes pour mener des processus d’audit du modèle et établir la confiance. La vision par ordinateur est bien intégrée dans notre vie quotidienne, mais il reste beaucoup à faire pour que les développeurs d’apprentissage automatique s’assurent que les modèles déployés sont transparents, équitables, responsables, inclusifs et sûrs pour tous – et le tableau de bord Azure Machine Learning responsable pour la détection d’objets est une première étape précieuse dans cette direction.
Notre équipe
Le tableau de bord Azure Machine Learning responsable pour la détection d’objets est le fruit d’une collaboration entre Microsoft Research, la plateforme IA et MAIDAP (Microsoft AI Development Acceleration Program).
Besmira Nushi et Jimmy Hall de Microsoft Research ont dirigé des recherches sur de nouvelles techniques pour obtenir une compréhension approfondie et une explication des échecs de l’apprentissage automatique, en collaboration avec l’équipe d’outils RAI de la plateforme IA. L’équipe d’outils RAI est composée d’Ilya Matiach, Wenxin Wei, Jingya Chen, Ke Xu, Tong Yu, Lan Tang, Steve Sweetman et Mehrnoosh Sameki. Ils sont passionnés par la démocratisation de l’IA responsable et ont plusieurs années d’expérience dans la mise en œuvre de tels outils pour la communauté, qui sont également open source dans le cadre de l’écosystème Azure Machine Learning, avec des exemples précédents tels que FairLearn, InterpretML Dashboard, etc. La mise en production du tableau de bord RAI pour les scénarios de détection d’objets a également été pilotée par une équipe de MAIDAP, composée de Jacqueline Maureen, Natalie Isak, Kabir Walia, CJ Barberan et Advitya Gemawat. MAIDAP est un programme de rotation pour les diplômés récents, développant diverses fonctionnalités d’apprentissage automatique à grande échelle en collaboration avec différentes équipes de Microsoft.
Article originellement publié ici. Reposté avec permission.
À propos de l’auteur
Wenxin Wei est Responsable Produit en IA Responsable chez Microsoft Azure AI. Avec son expertise dans la mise en œuvre d’outils RAI pour le texte, l’image et les modèles génératifs, Wenxin s’engage à fournir des solutions IA innovantes et éthiques. En collaborant avec des équipes pluridisciplinaires, Wenxin garantit le développement de systèmes d’IA transparents, explicables et respectueux de la vie privée. Son expérience en statistiques et en IA, associée à une approche axée sur les données, lui permet de combler efficacement le fossé entre la technologie et les besoins des utilisateurs.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Toutes les sessions virtuelles gratuites à venir pour ODSC Europe 2023
- Mieux comprendre l’économie avec la piste de ML pour la finance de ODSC Europe
- Annonce du nouveau tutoriel de Microsoft Azure sur l’apprentissage profond et le traitement automatique du langage naturel
- Visionnez ici les meilleures sessions virtuelles de l’ODSC Europe 2023
- Photos et Moments forts de l’ODSC Europe 2023
- 6 façons dont les chefs de projet peuvent utiliser l’IA pour améliorer l’efficacité
- Les sessions incontournables ont été annoncées pour le Sommet gratuit sur l’IA générative le 20 juillet