Un programme d’action pour un progrès de l’IA responsable Opportunité, Responsabilité, Sécurité.

A program for responsible AI progress Opportunity, Responsibility, Security.

Aujourd’hui, Google publie un livre blanc avec des suggestions pour un programme politique de progrès de l’IA responsable.

Comme l’a dit Sundar lors de la Google I/O de ce mois-ci, la croissance de l’IA est aussi importante qu’un changement technologique majeur que nous ayons vu. Les avancées dans les modèles d’IA d’aujourd’hui ne créent pas seulement de nouvelles façons de s’engager avec l’information, de trouver les bons mots ou de découvrir de nouveaux endroits, elles aident les gens à découvrir des domaines scientifiques et technologiques entièrement nouveaux.

Nous sommes à l’aube d’une nouvelle ère, nous permettant de réimaginer les façons dont nous pouvons améliorer significativement la vie de milliards de personnes, aider les entreprises à prospérer et à croître, et soutenir la société dans la réponse à nos questions les plus difficiles. En même temps, nous devons tous être lucides que l’IA comportera des risques et des défis.

Dans ce contexte, nous nous engageons à avancer audacieusement, de manière responsable et en partenariat avec d’autres.

Les appels à un arrêt des avancées technologiques sont peu susceptibles d’être couronnés de succès ou efficaces, et risquent de manquer les avantages substantiels de l’IA et de prendre du retard par rapport à ceux qui embrassent son potentiel. Au lieu de cela, nous avons besoin d’efforts largement basés – à travers les gouvernements, les entreprises, les universités et autres – pour aider à traduire les percées technologiques en avantages généralisés, tout en atténuant les risques.

Lorsque j’ai exposé la nécessité d’un programme partagé pour un progrès responsable de l’IA il y a quelques semaines, j’ai dit que les pratiques individuelles, les normes industrielles partagées et les politiques gouvernementales solides seraient essentielles pour bien faire les choses de l’IA. Aujourd’hui, nous publions un livre blanc avec des recommandations de politique pour l’IA dans lequel nous encourageons les gouvernements à se concentrer sur trois domaines clés – débloquer les opportunités, promouvoir la responsabilité et renforcer la sécurité:

1. Débloquer les opportunités en maximisant la promesse économique de l’IA

Les économies qui embrassent l’IA connaîtront une croissance significative, surpassant les concurrents qui sont plus lents à la réception. L’IA aidera de nombreuses industries différentes à produire des produits et des services plus complexes et plus précieux, et aidera à augmenter la productivité malgré les défis démographiques croissants. L’IA promet également de donner un coup de pouce aux petites entreprises utilisant des produits et des services alimentés par l’IA pour innover et croître – et aux travailleurs qui peuvent se concentrer sur des éléments non routiniers et plus gratifiants de leur travail.

Ce qu’il faut pour bien faire: Pour débloquer l’opportunité économique offerte par l’IA et minimiser les perturbations sur la main-d’œuvre, les décideurs politiques devraient investir dans l’innovation et la compétitivité, promouvoir des cadres juridiques qui soutiennent l’innovation responsable de l’IA et préparer les travailleurs pour la transition des emplois axés sur l’IA. Par exemple, les gouvernements devraient explorer la recherche fondamentale en IA par le biais de laboratoires nationaux et d’institutions de recherche, adopter des politiques qui soutiennent le développement responsable de l’IA (y compris des lois sur la protection de la vie privée qui protègent les informations personnelles et permettent des flux de données de confiance à travers les frontières nationales), et promouvoir l’éducation permanente, les programmes de mise à niveau des compétences, le mouvement des talents clés à travers les frontières et la recherche sur l’avenir évolutif du travail.

2. Promouvoir la responsabilité tout en réduisant les risques d’utilisation abusive

L’IA aide déjà le monde à relever des défis allant de la maladie au changement climatique et peut être une force puissante pour le progrès. Mais si elle n’est pas développée et déployée de manière responsable, les systèmes d’IA pourraient également amplifier les problèmes sociétaux actuels, tels que la désinformation, la discrimination et l’utilisation abusive des outils. Et sans confiance envers les systèmes d’IA, les entreprises et les consommateurs hésiteront à adopter l’IA, limitant ainsi leur opportunité de capturer les avantages de l’IA.

Ce qu’il faut pour bien faire: Pour relever ces défis, une approche multi-parties prenantes de la gouvernance sera nécessaire. En s’inspirant de l’expérience d’Internet, les parties prenantes viendront à la table avec une bonne compréhension des avantages et des défis potentiels. Certains défis nécessiteront des recherches fondamentales pour mieux comprendre les avantages et les risques de l’IA et comment les gérer, ainsi que pour développer et déployer de nouvelles innovations techniques dans des domaines tels que l’interprétabilité et le tatouage numérique. D’autres seront mieux traités en développant des normes communes et des meilleures pratiques partagées et une réglementation proportionnelle basée sur les risques pour garantir que les technologies de l’IA sont développées et déployées de manière responsable. Et d’autres pourraient nécessiter de nouvelles organisations et institutions. Par exemple, les entreprises leaders pourraient se réunir pour former un Forum mondial sur l’IA (GFAI), en s’appuyant sur des exemples précédents comme le Forum Internet mondial de lutte contre le terrorisme (GIFCT). L’alignement international sera également essentiel pour développer des approches politiques communes qui reflètent les valeurs démocratiques et évitent la fragmentation.

3. Renforcer la sécurité mondiale tout en empêchant les acteurs malveillants d’exploiter cette technologie

L’IA a des implications importantes pour la sécurité et la stabilité mondiales. L’IA générative peut aider à créer (mais aussi à identifier et à suivre) des informations erronées et manipulées. La recherche en sécurité basée sur l’IA entraîne une nouvelle génération de défenses cybernétiques grâce à des opérations de sécurité avancées et à l’intelligence des menaces, tandis que les exploits générés par l’IA peuvent également permettre des cyberattaques plus sophistiquées par les adversaires.

Ce qu’il faut pour bien faire: La première étape consiste à mettre en place des garde-fous techniques et commerciaux pour prévenir l’utilisation malveillante de l’IA et à travailler collectivement pour traiter les mauvais acteurs, tout en maximisant les avantages potentiels de l’IA. Par exemple, les gouvernements devraient explorer les politiques de contrôle des échanges de nouvelle génération pour des applications spécifiques de logiciels alimentés par l’IA qui sont considérées comme des risques de sécurité, et sur des entités spécifiques qui fournissent un soutien à la recherche et au développement liés à l’IA de manière à pouvoir menacer la sécurité mondiale. Les gouvernements, le monde universitaire, la société civile et les entreprises ont également besoin d’une meilleure compréhension des implications des systèmes d’IA de plus en plus puissants, et de la manière dont nous pouvons aligner l’IA sophistiquée et complexe sur les valeurs humaines. En fin de compte, la sécurité est un sport d’équipe et les progrès dans ce domaine nécessiteront une coopération sous forme de recherche conjointe, d’adoption d’une gouvernance des données de classe mondiale, de forums public-privé pour partager des informations sur les vulnérabilités de sécurité de l’IA et plus encore.

Réflexions finales

Avec une reconnaissance complète des défis potentiels, nous sommes convaincus qu’un programme politique centré sur les piliers clés de l’opportunité, de la responsabilité et de la sécurité peut débloquer les avantages de l’IA et garantir que ces avantages soient partagés par tous.

Comme nous l’avons déjà dit, l’IA est trop importante pour ne pas être réglementée, et trop importante pour ne pas être réglementée correctement. Du cadre de vérification de l’IA de Singapour à l’approche pro-innovation de la réglementation de l’IA du Royaume-Uni en passant par le cadre de gestion des risques d’IA de l’Institut national des normes et de la technologie des États-Unis, nous sommes encouragés de voir les gouvernements du monde entier s’attaquer sérieusement aux bons cadres politiques pour ces nouvelles technologies, et nous sommes impatients de soutenir leurs efforts.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Comment construire une base solide pour le leadership américain en matière d'IA

Google partage le rapport Construire une base sécurisée pour le leadership américain en IA.

AI

Êtes-vous un développeur efficace? Alors l'IA est après votre travail

L'avantage des humains par rapport à l'IA dans le développement coïncide avec l'efficacité versus l'efficience. Le pr...

AI

Sam Altman licencié en tant que PDG d'OpenAI

Dans un tournant surprenant des événements, OpenAI, le principal laboratoire de recherche en intelligence artificiell...

AI

Les chercheurs du MIT présentent LILO un cadre neuro-symbolique pour apprendre des bibliothèques interprétables pour la synthèse de programmes

Les grands modèles linguistiques (LLM) deviennent de plus en plus compétents en programmation dans divers contextes, ...