Être audacieux en matière d’IA signifie être responsable dès le début.
Being bold with AI means being responsible from the outset.
Nous croyons que notre approche de l’IA doit être à la fois audacieuse et responsable. Pour nous, cela signifie développer l’IA de manière à maximiser les avantages positifs pour la société tout en relevant les défis, guidés par nos Principes d’IA. Bien qu’il y ait une tension naturelle entre les deux, nous croyons qu’il est possible – et en fait essentiel – d’embrasser cette tension de manière productive. La seule façon d’être vraiment audacieux à long terme est d’être responsable dès le départ.
Nous appliquons de manière audacieuse l’IA dans nos produits révolutionnaires utilisés par des personnes partout dans le monde, dans nos contributions aux avancées scientifiques qui profitent aux personnes, et en aidant à relever les défis sociétaux.
Dans nos produits
L’IA est déjà présente dans de nombreux produits que des millions (et dans certains cas des milliards) de personnes utilisent déjà, tels que Google Maps, Google Translate, Google Lens et plus encore. Et maintenant, nous apportons l’IA pour aider les gens à allumer et à assister leur créativité avec Bard, à augmenter leur productivité avec les outils Workspace, et à révolutionner la façon dont ils accèdent à la connaissance avec Search Generative Experience. Plusieurs autres premiers exemples et expériences d’applications utiles peuvent être trouvés dans Google Labs.
En aidant à relever les défis sociétaux
Nous appliquons l’IA pour atténuer et s’adapter au changement climatique : en fournissant des prévisions de crues critiques – maintenant à plus de 20 pays, en suivant les limites des incendies de forêt en temps réel et en aidant à réduire les émissions de carbone en réduisant le trafic stop-and-go. Nous l’appliquons pour améliorer les soins de santé – y compris les soins maternels, les traitements contre le cancer et le dépistage de la tuberculose. Et nous avons récemment annoncé un nouveau grand modèle de langue qui pourrait être un outil utile pour les cliniciens : Med-PaLM. Plus tard cette année, Data Commons – un système qui organise les données de centaines de sources pour informer les approches des grands défis sociétaux, de la durabilité aux soins de santé en passant par l’emploi et l’économie dans de nombreux pays – sera accessible via Bard, le rendant encore plus utile.
- Jouez à I/O FLIP, notre jeu de cartes conçu par l’IA.
- Présentation du projet Gameface une souris de jeu sans les mains, alimentée par l’IA.
- 100 choses que nous avons annoncées à I/O 2023
Dans notre recherche définissant le domaine
L’IA aide les scientifiques à réaliser des avancées audacieuses dans de nombreux domaines, de la physique, des sciences des matériaux et de la santé qui bénéficieront à la société – prenez par exemple le programme AlphaFold de Google DeepMind. AlphaFold peut prédire avec précision la forme 3D de 200 millions de protéines, presque toutes les protéines cataloguées connues de la science – une réalisation qui nous a donné l’équivalent de près de 400 millions d’années de progrès de recherche en quelques semaines seulement. L’IA alimente également les progrès pour rendre l’information mondiale accessible à tous. Par exemple, il permet des entreprises ambitieuses comme notre initiative Moonshot 1,000 Languages – nous avons réalisé des progrès passionnants vers notre objectif de prendre en charge les 1 000 langues les plus parlées avec un modèle de discours universel formé sur plus de 400 langues.
Défis
Alors qu’il est enthousiasmant de voir ces percées audacieuses, nous savons que l’IA est une technologie encore émergente – et qu’il reste encore beaucoup à faire. Il est également important de reconnaître que l’IA a le potentiel d’aggraver les défis sociétaux existants – tels que les biais injustes – et de poser de nouveaux défis à mesure qu’elle devient plus avancée et que de nouvelles utilisations émergent, comme l’ont souligné nos propres recherches et celles des autres. C’est pourquoi nous croyons qu’il est impératif d’adopter une approche responsable de l’IA, guidée par les Principes d’IA que nous avons établis pour la première fois en 2018. Chaque année, nous publions des rapports de progrès sur la manière dont nous mettons nos Principes d’IA en pratique qui plongent profondément dans des exemples. Ce travail se poursuit, alors que l’IA devient plus capable et que nous apprenons des utilisateurs et des nouvelles utilisations des technologies, et que nous partageons ce que nous apprenons.
Évaluation de l’information
Un domaine qui préoccupe beaucoup de monde – y compris nous – est la désinformation. L’IA générative rend plus facile que jamais la création de nouveaux contenus, mais elle soulève également des questions supplémentaires sur la fiabilité de l’information en ligne. C’est pourquoi nous continuons à développer et à fournir aux gens des outils pour évaluer l’information en ligne. Dans les mois à venir, nous ajoutons un nouvel outil “À propos de cette image” dans Google Search. “À propos de cette image” fournira un contexte utile, tel que quand et où des images similaires ont peut-être été vues pour la première fois et où elles ont été vues en ligne, y compris dans les actualités, la vérification des faits et les sites sociaux. Plus tard cette année, “À propos de cette image” sera disponible dans Chrome et Google Lens.
Les Principes d’IA en action
Alors que nous appliquons nos Principes d’IA à nos produits, nous commençons également à voir des tensions potentielles en ce qui concerne l’audace et la responsabilité. Par exemple, Universal Translator est un service de doublage vidéo IA expérimental qui aide les experts à traduire la voix d’un orateur et à faire correspondre leurs mouvements de lèvres. Cela a un énorme potentiel pour augmenter la compréhension de l’apprentissage; cependant, sachant les risques qu’il pourrait poser entre les mains de personnes mal intentionnées, nous avons construit le service avec des garde-fous pour limiter les abus et l’avons rendu accessible uniquement aux partenaires autorisés.
Une autre manière de respecter nos Principes d’IA est d’innover pour relever les défis au fur et à mesure qu’ils se présentent. Par exemple, nous sommes l’un des premiers de l’industrie à automatiser les tests d’adversité en utilisant des LLM, ce qui a considérablement amélioré la vitesse, la qualité et la couverture des tests, permettant ainsi aux experts en sécurité de se concentrer sur les cas les plus difficiles. Pour aider à lutter contre la désinformation, nous intégrerons bientôt de nouvelles innovations telles que le tatouage numérique, les métadonnées et d’autres techniques dans nos derniers modèles génératifs. Nous progressons également sur les outils de détection de l’audio synthétique – dans notre travail AudioLM, nous avons formé un classificateur capable de détecter l’audio synthétique dans notre propre modèle AudioLM avec une précision de près de 99%.
Un effort collectif
Nous savons que la construction d’une IA responsable doit être un effort collectif impliquant des chercheurs, des scientifiques sociaux, des experts de l’industrie, des gouvernements, des créateurs, des éditeurs et des personnes qui utilisent l’IA dans leur vie quotidienne.
Nous partageons nos innovations avec d’autres pour augmenter l’impact, comme dans le cas de Perspective API, qui a été développé à l’origine par nos chercheurs chez Jigsaw pour atténuer la toxicité des commentaires en ligne. Nous l’appliquons maintenant à nos grands modèles de langage (LLM) – y compris tous les modèles mentionnés à I/O – et les chercheurs universitaires l’ont utilisé pour créer une évaluation de l’industrie standard utilisée par tous les LLM significatifs, y compris les modèles d’OpenAI et d’Anthropic.
Nous croyons que tout le monde bénéficie d’un écosystème web dynamique, aujourd’hui et à l’avenir. Pour soutenir cela, nous travaillerons avec la communauté web sur des moyens de donner aux éditeurs web le choix et le contrôle sur leur contenu web.
Une partie de ce qui rend l’IA un domaine si passionnant est que le potentiel de bénéficier aux personnes et à la société est immense et palpable, tout comme l’impératif de le développer et de l’utiliser de manière responsable. Tellement de choses changent et évoluent à mesure que l’IA progresse, et plus de personnes l’expérimentent, la partagent, la développent et l’utilisent. Nous apprenons constamment de nos recherches, de nos expériences, de nos utilisateurs et de la communauté élargie – et incorporons ce que nous apprenons dans notre approche. En regardant vers l’avenir, il y a tellement de choses que nous pouvons accomplir et tellement de choses que nous devons faire correctement – ensemble.
Je tiens à remercier et à reconnaître le travail inspirant et complexe de mes collègues des équipes Intelligence Artificielle Responsable, Innovation Responsable, Google.org, Labs, Jigsaw, Google Research et Google DeepMind.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Un programme d’action pour un progrès de l’IA responsable Opportunité, Responsabilité, Sécurité.
- Aider plus de personnes à rester en sécurité grâce à la prévision des inondations.
- 3 nouvelles façons dont l’IA générative peut vous aider dans votre recherche
- Bard s’améliore en logique et en raisonnement.
- Cas d’utilisation révolutionnaires de l’IA dans l’industrie logistique.
- Art Généré par l’IA Les Implications et les Débats Éthiques
- 10 erreurs que vous NE DEVRIEZ JAMAIS commettre en Python