Biais de l’IA et stéréotypes culturels Effets, limitations et atténuation

Biais de l'IA et stéréotypes culturels effets, limites et réduction

L’intelligence artificielle (IA), en particulier l’IA générateur, continue à dépasser les attentes par sa capacité à comprendre et à imiter la cognition et l’intelligence humaine. Cependant, dans de nombreux cas, les résultats ou les prédictions des systèmes d’IA peuvent refléter différents types de biais, tels que des biais culturels et raciaux.

Le blog “Barbies du Monde” de Buzzfeed (qui a été supprimé) manifeste clairement ces biais culturels et inexactitudes. Ces “barbies” ont été créées à l’aide de Midjourney, un générateur d’images d’IA de premier plan, pour découvrir à quoi ressembleraient les barbies dans chaque partie du monde. Nous en parlerons plus tard.

Mais ce n’est pas la première fois que l’IA est “raciste” ou produit des résultats inexactes. Par exemple, en 2022, Apple a été poursuivi pour des allégations selon lesquelles le capteur d’oxygène dans le sang de l’Apple Watch était biaisé contre les personnes de couleur. Dans un autre cas signalé, les utilisateurs de Twitter ont constaté que l’IA de recadrage automatique d’images de Twitter favorisait les visages des personnes blanches par rapport aux personnes noires et les femmes par rapport aux hommes. Ce sont des défis critiques, et les aborder est extrêmement difficile.

Dans cet article, nous examinerons ce qu’est le biais de l’IA, comment il affecte notre société, et discuterons brièvement de la façon dont les praticiens peuvent le atténuer pour faire face aux défis tels que les stéréotypes culturels.

Qu’est-ce que le biais de l’IA ?

Le biais de l’IA se produit lorsque des modèles d’IA produisent des résultats discriminatoires envers certains groupes démographiques. Plusieurs types de biais peuvent s’infiltrer dans les systèmes d’IA et produire des résultats incorrects. Certains de ces biais sont :

  • Biais stéréotypé: Le biais stéréotypé se réfère au phénomène dans lequel les résultats d’un modèle d’IA sont basés sur des stéréotypes ou des idées préconçues à propos d’un certain groupe démographique.
  • Biais racial: Le biais racial dans l’IA se produit lorsque les résultats d’un modèle d’IA sont discriminatoires et injustes envers un individu ou un groupe en fonction de leur ethnicité ou de leur race.
  • Biais culturel: Le biais culturel intervient lorsque les résultats d’un modèle d’IA favorisent une certaine culture par rapport à une autre.

En dehors des biais, d’autres problèmes peuvent également entraver les résultats d’un système d’IA, tels que :

  • Inexactitudes: Les inexactitudes se produisent lorsque les résultats produits par un modèle d’IA sont incorrects en raison de données d’entraînement incohérentes.
  • Hallucinations: Les hallucinations se produisent lorsque les modèles d’IA produisent des résultats fictifs et faux qui ne sont pas basés sur des données factuelles.

L’impact du biais de l’IA sur la société

L’impact du biais de l’IA sur la société peut être préjudiciable. Les systèmes d’IA biaisés peuvent produire des résultats erronés qui amplifient les préjugés déjà présents dans la société. Ces résultats peuvent accroître la discrimination et les violations des droits, affecter les processus de recrutement et réduire la confiance dans la technologie de l’IA.

De plus, les résultats biaisés de l’IA conduisent souvent à des prédictions inexactes qui peuvent avoir de graves conséquences pour des individus innocents. Par exemple, en août 2020, Robert McDaniel est devenu la cible d’un acte criminel en raison de l’algorithme de police prédictive du département de police de Chicago, qui l’a identifié comme une “personne d’intérêt”.

De même, les systèmes d’IA médicaux biaisés peuvent avoir des conséquences graves sur les patients. En 2019, Science a découvert qu’un algorithme médical américain largement utilisé était biaisé contre les personnes de couleur, ce qui a conduit à une gestion des soins moins risquée pour les patients noirs.

Barbies du Monde

En juillet 2023, Buzzfeed a publié un blog comprenant 194 barbies générées par IA du monde entier. Le post est devenu viral sur Twitter. Bien que Buzzfeed ait écrit une déclaration de non-responsabilité, cela n’a pas empêché les internautes de souligner les inexactitudes raciales et culturelles. Par exemple, l’image générée par IA de la Barbie allemande portait l’uniforme d’un général SS Nazi.

Barbies du monde-image5

De même, l’image générée par IA d’une poupée Barbie du Soudan du Sud montrait qu’elle tenait un pistolet à ses côtés, reflétant les préjugés profondément enracinés dans les algorithmes d’IA.

Barbies du monde-image4

En dehors de cela, plusieurs autres images montraient des inexactitudes culturelles, comme la poupée Barbie du Qatar portant un Ghutra, une coiffe traditionnelle portée par les hommes arabes.

Barbies du monde-image3

Cet article de blog a suscité un backlash massif en raison des stéréotypes culturels et des préjugés. Laisons cette harme représentationnelle en établissant des normes de qualité et en créant des organismes de surveillance de l’IA.

Limitations des modèles d’IA

L’IA a le potentiel de révolutionner de nombreuses industries. Cependant, si des scénarios comme ceux mentionnés ci-dessus se multiplient, cela peut entraîner une baisse de l’adoption généralisée de l’IA, ce qui se traduit par des opportunités manquées. Ces cas surviennent généralement en raison de limitations importantes des systèmes d’IA, telles que :

  • Manque de créativité: Étant donné que l’IA ne peut prendre que des décisions basées sur les données d’entraînement fournies, elle manque de créativité pour réfléchir de manière novatrice, ce qui entrave la résolution de problèmes créatifs.
  • Manque de compréhension contextuelle: Les systèmes d’IA ont du mal à comprendre les nuances contextuelles ou les expressions linguistiques d’une région, ce qui entraîne souvent des erreurs dans les résultats.
  • Biais d’entraînement: L’IA s’appuie sur des données historiques qui peuvent contenir toutes sortes d’échantillons discriminatoires. Pendant l’entraînement, le modèle peut facilement apprendre des schémas discriminatoires pour produire des résultats injustes et biaisés.

Comment réduire les biais dans les modèles d’IA

Les experts estiment que d’ici 2026, 90% du contenu en ligne pourrait être généré de manière synthétique. Il est donc essentiel de réduire rapidement les problèmes présents dans les technologies d’IA générative.

Plusieurs stratégies clés peuvent être mises en œuvre pour réduire les biais dans les modèles d’IA. En voici quelques-unes:

  • Garantir la qualité des données: Ingestion de données complètes, précises et propres dans un modèle d’IA peut aider à réduire les biais et produire des résultats plus précis.
  • Ensemble de données diversifiées: L’introduction de jeux de données diversifiés dans un système d’IA peut contribuer à atténuer les biais, car le système d’IA devient plus inclusif avec le temps.
  • Boucles de rétroaction: Grâce à une boucle constante de rétroaction et d’apprentissage, les modèles d’IA peuvent améliorer progressivement leurs résultats.
  • Renforcement de la réglementation: Les réglementations mondiales en matière d’IA sont cruciales pour maintenir la qualité des systèmes d’IA à travers les frontières. Par conséquent, les organisations internationales doivent travailler ensemble pour garantir une standardisation de l’IA.
  • Adoption accrue de l’IA responsable: Les stratégies d’IA responsable contribuent positivement à atténuer les biais de l’IA, à cultiver l’équité et la précision dans les systèmes d’IA, et à veiller à ce qu’ils servent une base d’utilisateurs diversifiée tout en cherchant à s’améliorer continuellement.

En incorporant des ensembles de données diversifiés, une responsabilité éthique et une communication ouverte, nous pouvons garantir que l’IA est une source de changement positif dans le monde entier.

Si vous souhaitez en savoir plus sur les biais et le rôle de l’intelligence artificielle dans notre société, lisez les blogs suivants.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Les membres des tribus de Fort Peck et les employés de Google se rencontrent pour apprendre, célébrer et soutenir la technologie bénéfique sur le plan social.

Une équipe de Googlers axée sur l'innovation responsable a rendu visite aux tribus de Fort Peck dans le Montana afin ...

AI

40+ Outils AI Cool que vous devriez vérifier (septembre 2023)

DeepSwap DeepSwap est un outil basé sur l’IA pour toute personne souhaitant créer des vidéos et des images deep...

AI

Encre vers Insights Comparaison des requêtes SQL et Python à l'aide de l'analyse de la librairie

SQL est le pain et le beurre de la boîte à outils de tout scientifique des données - la capacité de récupérer rapidem...

AI

Des chercheurs de Google DeepMind proposent l'Optimisation par PROmpting (OPRO) de grands modèles de langage en tant qu'optimiseurs.

Avec les avancées constantes dans le domaine de l’Intelligence Artificielle, ses sous-domaines, y compris le Tr...

AI

Microsoft rend VALLE-X open source un modèle de synthèse de parole multilingue et de clonage vocal

Une implémentation open-source du modèle VALL-E X de Microsoft pour la synthèse TTS à zéro-coup a émergé dans la quêt...