Équité dans l’apprentissage automatique (Partie 1)

Équité dans l'apprentissage automatique Première partie

Photo de John Schnobrich sur Unsplash

Contenu

  1. L’équité en apprentissage automatique
  2. Preuves du problème
  3. Concept fondamental: Discrimination, Biais et Équité

1. Équité en apprentissage automatique

Les algorithmes d’apprentissage automatique affectent considérablement la vie quotidienne dans des domaines tels que l’éducation, l’emploi, la publicité et le maintien de l’ordre. Bien que les algorithmes d’apprentissage automatique puissent sembler objectifs, la tendance à favoriser les biais est ancrée dans l’essence même de l’apprentissage automatique. L’utilisation généralisée de l’apprentissage automatique dans une variété de domaines sensibles renforce l’idée que les décisions basées sur l’apprentissage automatique reposent uniquement sur des faits et ne sont pas affectées par les biais cognitifs humains, les tendances discriminatoires ou les émotions humaines. En réalité, ces systèmes apprennent à partir de données qui sont, directement ou indirectement, influencées par des biais humains. Les preuves accablantes indiquent que les algorithmes peuvent hériter ou même perpétuer des biais humains dans leur prise de décision lorsque leurs données sous-jacentes contiennent des décisions humaines biaisées [1].

Dans certains domaines, en particulier ceux ayant des implications sociales, tels que la justice pénale, la politique de bien-être social, l’embauche et les finances personnelles, il est important de veiller à ce que les décisions automatisées respectent les principes d’équité étant donné que les ensembles de données contiennent des attributs sensibles (c’est-à-dire la race, le genre, l’âge, le statut d’invalidité) et/ou des caractéristiques étroitement liées à de tels attributs. Cela signifie que négliger les considérations d’équité peut avoir des conséquences socialement inacceptables. Ce qui est particulièrement préoccupant dans le contexte de la prise de décisions séquentielles automatisées, c’est le potentiel de “perpétuer l’injustice, c’est-à-dire lorsque la maximisation de l’utilité maintient, renforce ou introduit même une dépendance injuste entre des caractéristiques sensibles, des décisions et des résultats” [2].

En conséquence, l’impact des biais en apprentissage automatique est en constante augmentation à un rythme tel qu’il est difficile de réaliser les changements réels. L’impact quotidien des systèmes d’IA est énorme et ne se limite pas aux entreprises et/ou aux systèmes nationaux, mais peut littéralement être ressenti dans nos mains chaque fois que nous collectons des informations sur un navigateur.

Figure 1.1: Vue chronologique de l'évolution de la discipline [3]

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Analogique et rappel progressif Une plongée dans les récents progrès de Google DeepMind

Découvrez deux nouvelles techniques d'ingénierie promptes grâce aux dernières recherches de Google DeepMind, plongean...

AI

« Boostez l'entraînement de vos modèles de deep learning »

Avez-vous déjà rencontré des situations où il est facile d'obtenir une première poussée d'exactitude mais une fois ar...

AI

Assistant vocal personnel alimenté par l'IA pour l'apprentissage des langues

Quelle est la manière la plus efficace de maîtriser une nouvelle langue ? La parler ! Mais nous savons tous à quel po...

AI

Comment démarrer une agence d'IA (sans expérience en programmation)

Laissez-moi vous présenter l'une des plus grandes opportunités commerciales de la prochaine décennie.

AI

Créez votre propre voix IA avec Voicemod AI

Imaginez un monde où vous pouvez vous parler à vous-même. En fait, votre voix peut être tout ce que vous désirez – un...

AI

Paytm pour protéger l'économie de l'Inde avec l'IA révolutionner la sécurité financière

Dans une démarche révolutionnaire appelée à redéfinir le paysage du secteur financier indien, One 97 Communications L...