Intégrer des principes éthiques au cœur du cycle de recherche

'Intégrer des principes éthiques à la recherche'

Charte éthique – Projet multimodal

Objectif de la charte éthique

Il est bien documenté que la recherche et les applications d’apprentissage automatique peuvent potentiellement entraîner des “problèmes de confidentialité des données, des biais algorithmiques, des risques d’automatisation et des utilisations malveillantes” (directives éthiques NeurIPS 2021). Le but de ce court document est de formaliser les principes éthiques que nous (le groupe d’apprentissage multimodal chez Hugging Face) adoptons pour le projet que nous poursuivons. En définissant ces principes éthiques au début du projet, nous les intégrons au cœur de notre cycle d’apprentissage automatique.

En étant transparents sur les décisions que nous prenons dans le projet, sur les personnes travaillant sur les différents aspects du système et sur la manière dont l’équipe peut être contactée, nous espérons recevoir des commentaires suffisamment tôt dans le processus pour apporter des changements significatifs, et fonder les discussions sur les choix en ayant conscience des objectifs que nous visons et des valeurs que nous espérons incorporer.

Ce document est le résultat de discussions menées par le groupe d’apprentissage multimodal chez Hugging Face (composé de chercheurs et d’ingénieurs en apprentissage automatique), avec les contributions de plusieurs experts en opérationnalisation de l’éthique, gouvernance des données et vie privée personnelle.

Limitations de cette charte éthique

Ce document est un travail en cours et reflète un état de réflexion en mai 2022. Il n’y a pas de consensus ni de définition officielle de l'”IA éthique” et nos considérations sont très susceptibles d’évoluer avec le temps. En cas de mises à jour, nous refléterons les changements directement dans ce document en fournissant la justification des changements et en suivant l’historique des mises à jour via GitHub. Ce document n’a pas vocation à être une source de vérité sur les meilleures pratiques de l’IA éthique. Nous pensons que même s’il est imparfait, réfléchir à l’impact de nos recherches, aux dommages potentiels que nous prévoyons et aux stratégies que nous pouvons mettre en œuvre pour atténuer ces dommages va dans la bonne direction pour la communauté de l’apprentissage automatique. Tout au long du projet, nous documenterons la manière dont nous opérationnalisons les valeurs décrites dans ce document, ainsi que les avantages et les limites que nous observons dans le contexte du projet.

Politique de contenu

En étudiant les systèmes multimodaux de pointe actuels, nous prévoyons plusieurs utilisations abusives des technologies que nous visons dans le cadre de ce projet. Nous fournissons des lignes directrices sur certains des cas d’utilisation que nous souhaitons ultimement prévenir :

  • Promotion de contenus et d’activités nuisibles, tels que la violence, le harcèlement, l’intimidation, les préjudices, la haine et toutes les formes de discrimination. Des préjugés ciblant des sous-populations identitaires spécifiques en fonction du genre, de la race, de l’âge, du handicap, de l’orientation LGBTQA+, de la religion, de l’éducation, du statut socio-économique et d’autres catégories sensibles (comme le sexisme/la misogynie, le castéisme, le racisme, l’invalidisme, la transphobie, l’homophobie).
  • Violation des réglementations, de la vie privée, des droits d’auteur, des droits de l’homme, des droits culturels, des droits fondamentaux, des lois et de tout autre document contraignant.
  • Génération d’informations personnellement identifiables.
  • Génération d’informations fausses sans aucune responsabilité et/ou dans le but de nuire et de provoquer les autres.
  • Utilisation imprudente du modèle dans des domaines à haut risque – tels que la médecine, le droit, la finance et l’immigration – pouvant nuire fondamentalement à la vie des personnes.

Valeurs pour le projet

  • Soyez transparents : Nous sommes transparents et ouverts quant à l’intention, aux sources de données, aux outils et aux décisions. En étant transparents, nous exposons les points faibles de notre travail à la communauté et nous sommes ainsi responsables et pouvons être tenus pour responsables.
  • Partagez un travail ouvert et reproductible : L’ouverture concerne deux aspects : les processus et les résultats. Nous pensons qu’il est bon de partager des descriptions précises des données, des outils et des conditions expérimentales. Les artefacts de recherche, y compris les outils et les points de contrôle des modèles, doivent être accessibles – pour une utilisation dans le cadre prévu – à tous sans discrimination (par exemple, religion, origine ethnique, orientation sexuelle, genre, orientation politique, âge, capacité). Nous définissons l’accessibilité comme le fait de veiller à ce que notre recherche puisse être facilement expliquée à un public au-delà de la communauté de recherche en apprentissage automatique.
  • Soyez équitables : Nous définissons l’équité comme un traitement égal pour tous les êtres humains. Être équitable implique de surveiller et de réduire les biais indésirables basés sur des caractéristiques telles que la race, le genre, le handicap et l’orientation sexuelle. Pour limiter autant que possible les résultats négatifs, en particulier ceux qui affectent les groupes marginalisés et vulnérables, des examens des biais injustes – tels que le racisme dans les algorithmes de police prédictive – doivent être menés à la fois sur les données et les résultats du modèle.
  • Soyez auto-critiques : Nous sommes conscients de nos imperfections et nous devons constamment rechercher des moyens d’opérationnaliser de manière plus efficace les valeurs éthiques et autres décisions responsables en matière d’IA. Cela inclut, par exemple, de meilleures stratégies pour la sélection et la filtration des données d’entraînement. Nous ne devons pas exagérer ou entretenir des discours fallacieux et du battage médiatique.
  • Donnez du crédit : Nous devons respecter et reconnaître le travail des personnes en utilisant les licences appropriées et en attribuant le crédit dû.

Nous notons que certaines de ces valeurs peuvent parfois être en conflit (par exemple être équitable et partager un travail ouvert et reproductible, ou respecter la vie privée des individus et partager des ensembles de données), et nous soulignons la nécessité de prendre en compte les risques et les avantages de nos décisions au cas par cas.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Amazon SageMaker simplifie la configuration d'un domaine SageMaker pour les entreprises afin de permettre à leurs utilisateurs de rejoindre SageMaker.

À mesure que les organisations adoptent le machine learning (ML) à grande échelle, elles recherchent des moyens effic...

AI

Créez des applications d'IA générative prêtes pour la production pour la recherche en entreprise en utilisant les pipelines Haystack et Amazon SageMaker JumpStart avec LLMs.

Dans cet article, nous présentons comment construire une application d'IA générative de bout en bout pour la recherch...

AI

Votre modèle est-il bon? Une plongée approfondie dans les métriques avancées de Amazon SageMaker Canvas

Si vous êtes un analyste commercial, comprendre le comportement des clients est probablement l'une des choses les plu...

AI

Affinez les modèles Whisper sur Amazon SageMaker avec LoRA

Whisper est un modèle de reconnaissance automatique de la parole (ASR) qui a été entraîné à l'aide de 680 000 heures ...