5 Considérations éthiques pour l’IA générative
5 Éthiques de l'IA générative
Même avant le boom actuel de l’IA, les préoccupations et considérations éthiques étaient toujours présentes dans l’esprit des data scientists. Maintenant, avec la croissance de l’IA générative dans l’imagination publique, ces préoccupations ont explosé alors que différents problèmes surgissent en matière d’IA. Alors que l’IA continue de croître, de nombreuses questions restent sans réponse. Dans cet esprit, voici quelques questions éthiques à considérer alors que l’IA continue de se développer à travers le monde.
Sources de données – Sur quoi le modèle a-t-il été entraîné ?
L’un des endroits les plus faciles pour voir cette préoccupation est la communauté artistique. À l’été 2022, le monde de l’art a été inondé d’un flux constant d’art généré par l’IA. Au début, beaucoup craignaient que cela puisse déplacer les artistes, mais au fil du temps, la façon dont ces modèles étaient entraînés a fait sensation dans le monde de l’art. C’est parce que de nombreux artistes et leurs supporters ont commencé à s’opposer à l’IA qui génère de l’art, car beaucoup de ces programmes étaient formés sur des œuvres d’art humaines existantes sans la permission ou le consentement de l’artiste.
En fait, en octobre, il a été révélé que Stable Diffusion utilisait les œuvres d’art d’artistes réels pour former son programme d’IA générative. Cela a soulevé de nombreuses préoccupations éthiques, car la question du plagiat a commencé à être posée. Une grande partie de la colère est venue du manque d’avis ou de permission des artistes. Beaucoup se sont sentis exclus de la discussion et leurs styles distinctifs ont été utilisés pour entraîner un programme qui ne nécessitait que des informations textuelles pour produire des œuvres similaires qui leur ont pris des années à maîtriser.
- Construction de systèmes LLM fiables avec des plans
- Pourquoi l’IA est devenue la compétence de développement la plus recherchée de 2023
- Toutes les sessions virtuelles gratuites à venir pour ODSC Europe 2023
Il ne s’agit pas seulement du monde de l’art lui-même, la question de la vie privée, de la gouvernance des données et d’autres aspects doit être posée alors que de plus en plus de modèles sont formés sur de plus en plus de données sans le consentement des personnes dont ces informations sont tirées. Cela ne touche même pas la question des biais lorsqu’un ensemble de données n’est pas correctement géré. Il suffit de se rappeler du tristement célèbre chatbot Tay lancé par Microsoft. Il a suffi de quelques heures d’interaction en ligne avant que l’IA ne devienne si hostile et raciste que le géant de la technologie a dû rapidement mettre fin au projet.
Résultat
Le ChatGPT s’est déjà retrouvé dans l’eau chaude en raison du contenu qu’il génère, affirmant que certaines personnes étaient liées à des crimes graves. Dans un cas, la personne ainsi générée a intenté un procès contre OpenAI. Et pour ceux qui ne comprennent peut-être pas complètement, c’est simple. Il suffit d’une simple accusation en ligne avant que toute recherche Google impliquant vos informations ne donne des informations fausses. Cela pourrait ruiner des vies et des réputations. C’est pourquoi ces derniers mois, des appels ont été lancés pour ralentir le développement de l’IA jusqu’à ce que des problèmes tels que les hallucinations de l’IA puissent être résolus.
Dans un autre cas, un avocat a utilisé le ChatGPT pour citer et construire un dossier pour un procès sur lequel il travaillait. Le seul problème était que le ChatGPT a cité des cas qui ne se sont jamais produits et les a inventés. Comme vous pouvez l’imaginer, le juge n’était pas très satisfait car cela pourrait potentiellement ruiner la carrière de quelqu’un. Enfin, il y a le résultat qui peut être utilisé et dont l’IA est incapable d’informer l’utilisateur que ce n’est pas ainsi qu’elle a été conçue. Nous avons vu cela il y a un mois, lorsqu’un professeur du Texas a faussement accusé des étudiants d’utiliser l’IA en soumettant leurs essais au ChatGPT et en demandant au chatbot de déterminer s’ils avaient été écrits par une IA.
Si vous vous posez la question, non, le ChatGPT ne peut pas le faire. C’est pourquoi le résultat est un problème critique pour l’IA générative, car de nombreuses personnes se sont tournées vers cette technologie et dépendent fortement des informations qu’elle produit.
Conséquences imprévues
Il y a d’autres conséquences liées à de mauvais résultats qui vont au-delà de ce qui vient d’être mentionné. Imaginez une conférence de presse d’un dirigeant mondial affirmant qu’il a pris contact avec des extraterrestres d’un autre monde. Ou, plus dangereux, une annonce affirmant que leur nation allait entrer en guerre avec une nation voisine ou un groupe de voisins. Aussi rapidement que la technologie Deepfake a progressé, il devient de plus en plus difficile de déterminer ce qui est réel et ce qui ne l’est pas, mais cela ne concerne pas seulement un dirigeant mondial. Il existe déjà des rapports d’escroqueries de chat vocal Deepfake.
Les criminels alimentés par l’IA utilisent la technologie Deepfake pour essentiellement cloner les voix de leurs cibles, puis contactent leurs familles dans le but d’extorquer de l’argent ou d’autres ressources. Ce n’est pas de la science-fiction, c’est déjà là.
Propriété intellectuelle
S’il y a bien quelque chose que les entreprises ne veulent pas, c’est que leur propriété intellectuelle soit maltraitée. Cela a empiré à tel point que même les avocats chez Amazon ont dû rappeler aux ingénieurs logiciels de ne pas utiliser le ChatGPT pour répondre à des questions de codage qui pourraient compromettre leurs droits de propriété, car chaque entrée dans le chatbot lui apprend davantage. Ainsi, OpenAI pourrait, en théorie, obtenir un avantage concurrentiel lorsque les employés de concurrents potentiels utilisent leur IA pour répondre à des questions liées au travail.
Violations de la vie privée des données
Une industrie qui est particulièrement optimiste quant à l’IA générative est le domaine de la santé. Cette technologie aide à réduire les coûts administratifs, à éliminer les goulets d’étranglement des informations pour améliorer les soins et à donner aux médecins une meilleure compréhension de l’historique médical. L’IA générative est également à la pointe du développement de nouveaux médicaments et de machines prometteuses.
Mais il y a un hic. Contrairement à la plupart des industries, le domaine de la santé dispose de lois très strictes, tant au niveau de l’État que fédéral aux États-Unis, en ce qui concerne la protection des dossiers médicaux. C’est pourquoi la gouvernance des données et les plateformes d’entreprise sont cruciales lorsqu’il s’agit d’utiliser l’IA dans ce domaine. Sinon, les dossiers médicaux privés de dizaines de millions de personnes pourraient être exposés. Mais cela concerne seulement une industrie. La plupart des LLM, jusqu’à très récemment, utilisaient le web scraping pour former leurs modèles.
Il est donc évident qu’il existe une grande quantité d’informations utilisées pour former des modèles qui soulèvent d’énormes préoccupations en matière de confidentialité. C’est pourquoi les appels en faveur d’une IA responsable ont rapidement augmenté à l’échelle mondiale.
Conclusion
Bien que l’IA générative soit devenue la nouvelle superpuissance de la science des données et que de nombreuses personnes se précipitent pour améliorer et sécuriser leur carrière, il reste encore de nombreuses préoccupations éthiques qui doivent être abordées si la communauté des sciences des données souhaite voir la technologie continuer à bénéficier à la communauté mondiale.
L’ODSC organise un sommet gratuit sur l’IA générative le 20 juillet. Obtenez votre laissez-passer dès aujourd’hui et repartez avec de nouvelles idées et des compétences améliorées en matière d’IA générative. Alors, qu’attendez-vous ? Obtenez votre laissez-passer pour le sommet virtuel sur l’IA générative dès aujourd’hui !
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Mieux comprendre l’économie avec la piste de ML pour la finance de ODSC Europe
- Annonce du nouveau tutoriel de Microsoft Azure sur l’apprentissage profond et le traitement automatique du langage naturel
- Visionnez ici les meilleures sessions virtuelles de l’ODSC Europe 2023
- Photos et Moments forts de l’ODSC Europe 2023
- 6 façons dont les chefs de projet peuvent utiliser l’IA pour améliorer l’efficacité
- Les sessions incontournables ont été annoncées pour le Sommet gratuit sur l’IA générative le 20 juillet
- Comment former un nouveau modèle de langue à partir de zéro en utilisant les Transformers et les Tokenizers