Équité dans l’apprentissage automatique (Partie 1)
Équité dans l'apprentissage automatique Première partie
Contenu
- L’équité en apprentissage automatique
- Preuves du problème
- Concept fondamental: Discrimination, Biais et Équité
1. Équité en apprentissage automatique
Les algorithmes d’apprentissage automatique affectent considérablement la vie quotidienne dans des domaines tels que l’éducation, l’emploi, la publicité et le maintien de l’ordre. Bien que les algorithmes d’apprentissage automatique puissent sembler objectifs, la tendance à favoriser les biais est ancrée dans l’essence même de l’apprentissage automatique. L’utilisation généralisée de l’apprentissage automatique dans une variété de domaines sensibles renforce l’idée que les décisions basées sur l’apprentissage automatique reposent uniquement sur des faits et ne sont pas affectées par les biais cognitifs humains, les tendances discriminatoires ou les émotions humaines. En réalité, ces systèmes apprennent à partir de données qui sont, directement ou indirectement, influencées par des biais humains. Les preuves accablantes indiquent que les algorithmes peuvent hériter ou même perpétuer des biais humains dans leur prise de décision lorsque leurs données sous-jacentes contiennent des décisions humaines biaisées [1].
Dans certains domaines, en particulier ceux ayant des implications sociales, tels que la justice pénale, la politique de bien-être social, l’embauche et les finances personnelles, il est important de veiller à ce que les décisions automatisées respectent les principes d’équité étant donné que les ensembles de données contiennent des attributs sensibles (c’est-à-dire la race, le genre, l’âge, le statut d’invalidité) et/ou des caractéristiques étroitement liées à de tels attributs. Cela signifie que négliger les considérations d’équité peut avoir des conséquences socialement inacceptables. Ce qui est particulièrement préoccupant dans le contexte de la prise de décisions séquentielles automatisées, c’est le potentiel de “perpétuer l’injustice, c’est-à-dire lorsque la maximisation de l’utilité maintient, renforce ou introduit même une dépendance injuste entre des caractéristiques sensibles, des décisions et des résultats” [2].
En conséquence, l’impact des biais en apprentissage automatique est en constante augmentation à un rythme tel qu’il est difficile de réaliser les changements réels. L’impact quotidien des systèmes d’IA est énorme et ne se limite pas aux entreprises et/ou aux systèmes nationaux, mais peut littéralement être ressenti dans nos mains chaque fois que nous collectons des informations sur un navigateur.
![Figure 1.1: Vue chronologique de l'évolution de la discipline [3]](https://ai.miximages.com/miro.medium.com/v2/resize:fit:640/format:webp/1*6882yHmp5aPiC5jT7n_e7w.png)
- Se concentrez sur les éviers et où les cacher un parcours visuel pour la mise en œuvre du streaming LLM
- Principaux articles importants en vision par ordinateur de la semaine du 2/10 au 8/10
- VoAGI News, 11 octobre 3 projets de science des données pour décrocher ce travail • 7 étapes pour maîtriser le NLP
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Améliorez les performances des modèles Falcon avec Amazon SageMaker
- Indexez le contenu de votre site Web exploré en utilisant le nouveau Web Crawler pour Amazon Kendra.
- IA et Efficacité énergétique une Révolution Durable
- Les États demandent plus de cours d’informatique. Maintenant, ils ont besoin d’enseignants.
- Prenez les commandes NVIDIA NeMo SteerLM permet aux entreprises de personnaliser les réponses d’un modèle lors de l’inférence
- Comment l’IA complétera-t-elle les facturiers médicaux à l’avenir ?
- Un logiciel détecte les émotions cachées chez les parents