Créer une culture de pionnier responsable

'Promouvoir une culture de pionnier responsable'

Comment garantir que nous bénéficions de la technologie la plus impactante développée aujourd’hui pour la société

En tant que directeur des opérations d’un des principaux laboratoires d’intelligence artificielle au monde, je passe beaucoup de temps à réfléchir à l’impact de nos technologies sur la vie des gens – et à la manière de nous assurer que nos efforts ont un résultat positif. C’est l’objectif de mon travail et le message essentiel que je transmets lorsque je rencontre des dirigeants mondiaux et des personnalités clés de notre industrie. Par exemple, cela a été au centre du débat sur l’équité par la technologie que j’ai animé cette semaine lors du Forum économique mondial à Davos, en Suisse.

Inspiré par les conversations importantes qui ont lieu à Davos sur la construction d’un monde plus vert, plus juste, meilleur, je voulais partager quelques réflexions sur mon propre parcours en tant que leader technologique, ainsi que sur la manière dont nous, chez DeepMind, abordons le défi de construire une technologie qui profite réellement à la communauté mondiale.

En 2000, j’ai pris un congé sabbatique de mon travail chez Intel pour visiter l’orphelinat au Liban où mon père a été élevé. Pendant deux mois, j’ai travaillé pour installer 20 ordinateurs dans le premier laboratoire informatique de l’orphelinat et pour former les élèves et les enseignants à les utiliser. Le voyage a commencé comme un moyen de rendre hommage à mon père. Mais être dans un endroit avec une infrastructure technique si limitée m’a également donné une nouvelle perspective sur mon propre travail. J’ai réalisé que sans un réel effort de la part de la communauté technologique, bon nombre des produits que je construisais chez Intel seraient inaccessibles à des millions de personnes. Je me suis rendu compte de manière aiguë comment cet écart d’accès exacerbait les inégalités; alors même que les ordinateurs résolvaient des problèmes et accéléraient le progrès dans certaines parties du monde, d’autres étaient toujours plus laissées de côté.

Après ce premier voyage au Liban, j’ai commencé à réévaluer mes priorités professionnelles. J’ai toujours voulu faire partie de la construction de technologies révolutionnaires. Mais quand je suis rentré aux États-Unis, ma focalisation s’est rétrécie sur l’aide à la construction de technologies qui pourraient avoir un impact positif et durable sur la société. Cela m’a conduit à occuper diverses fonctions à l’intersection de l’éducation et de la technologie, notamment en cofondant Team4Tech, une organisation à but non lucratif qui travaille à améliorer l’accès à la technologie pour les étudiants des pays en développement.

Quand j’ai rejoint DeepMind en tant que directeur des opérations en 2018, c’est en grande partie parce que j’ai pu constater que les fondateurs et l’équipe avaient la même focalisation sur l’impact social positif. En fait, chez DeepMind, nous défendons maintenant un terme qui reflète parfaitement mes propres valeurs et mes espoirs d’intégration de la technologie dans la vie quotidienne des gens : pionnier de manière responsable.

Je pense que pionnier de manière responsable devrait être une priorité pour toute personne travaillant dans la technologie. Mais je reconnais également que c’est particulièrement important en ce qui concerne des technologies puissantes et répandues comme l’intelligence artificielle. L’IA est sans doute la technologie la plus impactante développée aujourd’hui. Elle a le potentiel de bénéficier à l’humanité de nombreuses manières – de la lutte contre le changement climatique à la prévention et au traitement des maladies. Mais il est essentiel que nous tenions compte de ses impacts positifs et négatifs à long terme. Par exemple, nous devons concevoir les systèmes d’IA avec soin et réflexion pour éviter d’amplifier les biais humains, comme dans les contextes de l’embauche et de la police.

La bonne nouvelle, c’est que si nous remettons continuellement en question nos propres hypothèses sur la manière dont l’IA peut, et doit, être construite et utilisée, nous pouvons développer cette technologie de manière à ce qu’elle profite réellement à tous. Cela nécessite d’inviter la discussion et le débat, de procéder par itérations à mesure que nous apprenons, de mettre en place des mesures de sauvegarde sociales et techniques et de rechercher des perspectives diverses. Chez DeepMind, tout ce que nous faisons découle de notre mission d’utiliser l’intelligence pour faire progresser la société et bénéficier à l’humanité, et la construction d’une culture de pionnier de manière responsable est essentielle pour concrétiser cette mission.

À quoi ressemble concrètement la pionnière de manière responsable ? Je pense que cela commence par créer un espace pour des conversations ouvertes et honnêtes sur la responsabilité au sein d’une organisation. Un endroit où nous l’avons fait chez DeepMind est notre groupe de direction multidisciplinaire, qui conseille sur les risques potentiels et l’impact social de nos recherches.

L’évolution de notre gouvernance éthique et la formalisation de ce groupe ont été l’une de mes premières initiatives lorsque j’ai rejoint l’entreprise – et d’une manière quelque peu inhabituelle, je ne lui ai pas donné de nom ni même d’objectif spécifique avant que nous nous soyons rencontrés plusieurs fois. Je voulais que nous nous concentrions sur les aspects opérationnels et pratiques de la responsabilité, en commençant par un espace sans attentes dans lequel chacun pouvait parler franchement de ce que pionnier de manière responsable signifiait pour lui. Ces conversations ont été essentielles pour établir une vision partagée et une confiance mutuelle – ce qui nous a permis d’avoir des discussions plus ouvertes par la suite.

Un autre élément de la pionnière de manière responsable est d’adopter une philosophie et une approche kaizen. J’ai découvert le terme kaizen dans les années 1990, lorsque je suis allé à Tokyo travailler sur les normes technologiques du DVD pour Intel. C’est un mot japonais qui se traduit par “amélioration continue” – et dans le sens le plus simple, un processus kaizen est celui dans lequel de petites améliorations incrémentielles, réalisées en continu au fil du temps, conduisent à un système plus efficace et idéal. Mais c’est la mentalité derrière le processus qui compte vraiment. Pour que le kaizen fonctionne, tous ceux qui touchent au système doivent être à l’affût des faiblesses et des opportunités d’amélioration. Cela signifie que tout le monde doit avoir à la fois l’humilité d’admettre que quelque chose peut être cassé et l’optimisme de croire qu’il peut le changer pour le mieux.

Pendant mon temps en tant que COO de l’entreprise d’apprentissage en ligne Coursera, nous avons utilisé une approche kaizen pour optimiser notre structure de cours. Lorsque j’ai rejoint Coursera en 2013, les cours sur la plateforme avaient des délais stricts, et chaque cours était proposé seulement quelques fois par an. Nous avons rapidement appris que cela ne permettait pas suffisamment de flexibilité, nous avons donc pivoté vers un format entièrement à la demande et à son propre rythme. Les inscriptions ont augmenté, mais les taux de complétion ont baissé – il s’avère que trop de structure est stressant et inconfortable, mais trop peu conduit les gens à perdre leur motivation. Nous avons donc pivoté à nouveau vers un format où les sessions de cours commencent plusieurs fois par mois, et les apprenants travaillent vers des jalons hebdomadaires suggérés. Cela a pris du temps et des efforts pour y parvenir, mais l’amélioration continue a finalement abouti à une solution qui a permis aux personnes de bénéficier pleinement de leur expérience d’apprentissage.

Dans l’exemple ci-dessus, notre approche kaizen a été largement efficace parce que nous avons demandé des commentaires à notre communauté d’apprenants et avons écouté leurs préoccupations. C’est une autre partie cruciale de l’innovation responsable : reconnaître que nous n’avons pas toutes les réponses, et construire des relations qui nous permettent de puiser continuellement dans les contributions extérieures.

Pour DeepMind, cela signifie parfois consulter des experts sur des sujets tels que la sécurité, la confidentialité, la bioéthique et la psychologie. Cela peut également signifier s’adresser à des communautés diverses de personnes directement impactées par notre technologie, et les inviter à participer à une discussion sur ce qu’elles veulent et ont besoin. Et parfois, cela signifie simplement écouter les personnes de notre entourage – indépendamment de leur formation technique ou scientifique – lorsqu’elles parlent de leurs espoirs pour l’avenir de l’IA.

Fondamentalement, innover de manière responsable signifie donner la priorité aux initiatives axées sur l’éthique et l’impact social. Un domaine croissant de notre recherche chez DeepMind concerne la façon dont nous pouvons rendre les systèmes d’IA plus équitables et inclusifs. Au cours des deux dernières années, nous avons publié des recherches sur l’IA décoloniale, l’équité queer en IA, l’atténuation des risques éthiques et sociaux dans les modèles linguistiques d’IA, et bien plus encore. Dans le même temps, nous travaillons également à accroître la diversité dans le domaine de l’IA grâce à nos programmes de bourses dédiés. En interne, nous avons récemment commencé à organiser des sessions de la Communauté de l’IA Responsable qui réunissent différentes équipes et efforts travaillant sur la sécurité, l’éthique et la gouvernance – et plusieurs centaines de personnes se sont inscrites pour y participer.

Je suis inspiré par l’enthousiasme pour ce travail parmi nos employés et profondément fier de tous mes collègues de DeepMind qui mettent l’impact social au premier plan. En veillant à ce que la technologie profite à ceux qui en ont le plus besoin, je crois que nous pouvons faire de réels progrès face aux défis auxquels notre société est confrontée aujourd’hui. Dans ce sens, innover de manière responsable est un impératif moral – et personnellement, je ne peux pas penser à une meilleure façon d’avancer.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Apprentissage automatique

Des scientifiques améliorent la détection du delirium en utilisant l'IA et des EEG à réponse rapide.

Détecter le délire n’est pas facile, mais cela peut avoir un grand bénéfice : accélérer les soins essentiels au...

AI

Les chercheurs d'Alibaba présentent la série Qwen-Audio un ensemble de modèles audio-langage à grande échelle dotés de capacités universelles de compréhension audio.

Les chercheurs du groupe Alibaba ont introduit Qwen-Audio, qui répond au défi des modèles audio pré-entraînés limités...

AI

Les meilleurs outils pour l'analyse concurrentielle en 2023

Qu’est-ce que l’analyse de la concurrence? À quel point la marque de la concurrence est-elle connue dans ...

AI

Annonce de nouveaux outils pour aider chaque entreprise à adopter l'IA générative

Des startups aux grandes entreprises, des organisations de toutes tailles se lancent dans l'IA générative. Elles veul...