Professeur du MIT au Congrès Nous sommes à un point d’inflexion avec l’IA.
MIT professor at Congress We're at an inflection point with AI.
Aleksander Mądry encourage les législateurs à poser des questions rigoureuses sur la façon dont les outils d’IA sont utilisés par les entreprises.
Le gouvernement ne devrait pas «abandonner» ses responsabilités et laisser le futur de l’intelligence artificielle uniquement entre les mains des Big Tech, a déclaré Aleksander Mądry, professeur d’informatique Cadence Design Systems au MIT et directeur du MIT Center for Deployable Machine Learning, devant un panel du Congrès mercredi.
Au lieu de cela, Mądry a déclaré que le gouvernement devrait poser des questions sur la finalité et l’explicabilité des algorithmes que les entreprises utilisent, en précurseur d’une réglementation, qu’il a décrite comme «un outil important» pour s’assurer que l’IA est conforme aux objectifs de la société. Si le gouvernement ne commence pas à poser des questions, alors «je suis extrêmement inquiet» pour l’avenir de l’IA, a déclaré Mądry en réponse à une question du représentant Gerald Connolly.
- Comprendre notre place dans l’univers
- Rendre les évaluations immobilières aussi simples que prendre une photo.
- 3 Questions Jacob Andreas sur les grands modèles de langage.
Mądry, un expert de premier plan en explicabilité et en IA, a témoigné lors d’une audience intitulée «Avancées en matière d’IA: sommes-nous prêts pour une révolution technologique?» devant le sous-comité de la cybersécurité, de la technologie de l’information et de l’innovation gouvernementale de la Chambre des représentants, un comité de la Chambre des représentants sur la réforme et la surveillance gouvernementales. Les autres témoins de l’audience étaient Eric Schmidt, ancien PDG de Google, Scott Crowder, vice-président d’IBM et Merve Hickok, directrice principale de la recherche au Center for AI and Digital Policy.
Dans ses remarques liminaires, la présidente du sous-comité, la représentante Nancy Mace, a cité le livre «The Age of AI: And Our Human Future» de Schmidt, Henry Kissinger et Dan Huttenlocher, le doyen du MIT Schwarzman College of Computing. Elle a également appelé l’attention sur une tribune du 3 mars dans le Wall Street Journal par les trois auteurs, qui a résumé le livre tout en discutant de ChatGPT. Mace a déclaré que ses remarques liminaires formelles avaient été entièrement rédigées par ChatGPT.
Dans ses remarques préparées, Mądry a soulevé trois points généraux. Tout d’abord, il a noté que l’IA n’était «plus une question de science-fiction» ou confinée aux laboratoires de recherche. Elle est dans le monde, où elle peut apporter d’énormes avantages mais aussi poser des risques.
Deuxièmement, il a déclaré que l’IA nous expose à des «interactions qui vont à l’encontre de notre intuition». Il a déclaré que parce que les outils d’IA tels que ChatGPT imitent la communication humaine, les gens sont trop susceptibles de croire sans poser de questions ce que de tels modèles de langage produisent. Dans le pire des cas, a averti Mądry, les compétences analytiques humaines s’atrophieront. Il a également déclaré qu’il serait une erreur de réglementer l’IA comme s’il s’agissait d’un être humain – par exemple, en demandant à l’IA d’expliquer son raisonnement et en supposant que les réponses obtenues sont crédibles.
Enfin, il a déclaré que trop peu d’attention avait été accordée aux problèmes qui résulteront de la nature de la «chaîne d’approvisionnement» de l’IA – la manière dont les systèmes d’IA sont construits les uns sur les autres. À la base se trouvent des systèmes généraux comme ChatGPT, qui ne peuvent être développés que par quelques entreprises car ils sont si coûteux et complexes à construire. Au-dessus de ces systèmes se trouvent de nombreux systèmes d’IA conçus pour gérer une tâche particulière, comme déterminer qui une entreprise devrait embaucher.
Mądry a déclaré que cette superposition soulevait plusieurs préoccupations «relevant de la politique». Tout d’abord, l’ensemble du système d’IA est soumis aux vulnérabilités ou aux biais présents dans le grand système à sa base et dépend du travail de quelques grandes entreprises. Deuxièmement, l’interaction des systèmes d’IA n’est pas bien comprise d’un point de vue technique, ce qui rend les résultats de l’IA encore plus difficiles à prédire ou à expliquer et rend les outils difficiles à «auditer». Enfin, la combinaison d’outils d’IA rend difficile de savoir qui est responsable lorsqu’un problème survient – qui devrait être légalement responsable et qui devrait traiter la question.
Dans les documents écrits soumis au sous-comité, Mądry a conclu: «La technologie de l’IA n’est pas particulièrement adaptée au déploiement à travers des chaînes d’approvisionnement complexes», même si c’est exactement ainsi qu’elle est déployée.
Mądry a conclu son témoignage en appelant le Congrès à enquêter sur les questions d’IA et à être prêt à agir. «Nous sommes à un tournant en termes de ce que l’avenir de l’IA apportera. Saisir cette opportunité signifie discuter du rôle de l’IA, de ce que nous voulons exactement qu’elle fasse pour nous et de la manière de nous assurer qu’elle nous bénéficie tous. Cela sera une conversation difficile mais nous devons l’avoir, et l’avoir maintenant », a-t-il déclaré au sous-comité.
Le témoignage de tous les témoins de l’audience et une vidéo de l’audience, qui a duré environ deux heures, sont disponibles en ligne.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- La médecine est-elle prête pour l’IA ? Les médecins, les informaticiens et les décideurs sont prudemment optimistes.
- Définir l’intérêt public dans les nouvelles technologies
- Rencontrez PANOGEN une méthode de génération qui peut potentiellement créer un nombre infini d’environnements panoramiques divers conditionnés par du texte.
- Microsoft AI présente Orca un modèle de 13 milliards de paramètres qui apprend à imiter le processus de raisonnement des LFMs (Large Foundation Models).
- Exploration de l’optimisation des modèles de langage par l’instruction Découvrez Tülu – une suite de grands modèles de langage (LLMs) affinés.
- Comment J’ai Effectué l’Étiquetage Automatique d’Images en Utilisant la Technique de Grounding DINO
- Cours gratuit ChatGPT Utilisez l’API OpenAI pour coder 5 projets