Relier les recherches de DeepMind aux produits d’Alphabet
Reconnecter DeepMind et les produits d'Alphabet.
Voir les postes ouverts : https://www.deepmind.com/careers/jobs?sort=alphabetical
Pour “Five minutes with” d’aujourd’hui, nous avons rencontré Gemma Jennings, chef de produit de l’équipe Applied, qui a animé une session sur les modèles de langage visionnel lors du AI Summit – l’un des plus grands événements mondiaux sur l’IA pour les entreprises.
Chez DeepMind…
Je fais partie de l’équipe Applied, qui aide à rendre la technologie DeepMind accessible au monde extérieur grâce aux produits et solutions d’Alphabet et de Google, comme WaveNet et Google Assistant, Maps et Search. En tant que chef de produit, je fais le lien entre les deux organisations, en travaillant en étroite collaboration avec les deux équipes pour comprendre la recherche et comment les gens peuvent l’utiliser. En fin de compte, nous voulons pouvoir répondre à la question : Comment pouvons-nous utiliser cette technologie pour améliorer la vie des gens dans le monde entier ?
Je suis particulièrement enthousiaste à propos de notre portefeuille de travaux sur la durabilité. Nous avons déjà contribué à réduire la quantité d’énergie nécessaire pour refroidir les centres de données de Google, mais il y a beaucoup plus que nous pouvons faire pour avoir un impact plus important et transformateur dans le domaine de la durabilité.
- Déverrouillage d’une classification d’image différentiellement privée de haute précision grâce à l’échelle
- BYOL-Explore Exploration avec Prédiction Bootstrap
- Mener un mouvement visant à renforcer l’apprentissage automatique en Afrique
Avant DeepMind…
J’ai travaillé chez John Lewis Partnership, un grand magasin britannique qui accorde une grande importance à sa mission sociétale. J’ai toujours aimé faire partie d’une entreprise ayant une mission sociétale, c’est pourquoi la mission de DeepMind de résoudre l’intelligence pour faire progresser la science et bénéficier à l’humanité résonnait vraiment en moi. J’étais curieuse de voir comment cet ethos se manifesterait au sein d’une organisation axée sur la recherche, et au sein de Google, l’une des plus grandes entreprises au monde. Ajoutez à cela mes connaissances académiques en psychologie expérimentale, en neurosciences et en statistiques, et DeepMind cochait toutes les cases.
Le AI Summit…
Est ma première conférence en personne depuis près de trois ans, donc je suis vraiment impatient de rencontrer des personnes travaillant dans le même secteur que moi et d’entendre ce sur quoi travaillent d’autres organisations.
Je suis impatient d’assister à quelques conférences sur la technologie de l’informatique quantique pour en apprendre davantage. Elle a le potentiel de conduire le prochain grand changement de paradigme en termes de puissance de calcul, ouvrant de nouveaux cas d’utilisation pour l’application de l’IA dans le monde et nous permettant de travailler sur des problèmes plus vastes et plus complexes.
Mon travail implique de nombreuses méthodes d’apprentissage profond et il est toujours passionnant d’entendre les différentes façons dont les gens utilisent cette technologie. Actuellement, ces types de modèles nécessitent une formation sur de grandes quantités de données – ce qui peut être coûteux, chronophage et nécessiter beaucoup de ressources compte tenu de la quantité de calcul nécessaire. Alors, quelle est la prochaine étape ? Et à quoi ressemble l’avenir de l’apprentissage profond ? Ce sont les types de questions auxquelles je cherche à répondre.
J’ai présenté…
La reconnaissance d’image à l’aide de réseaux neuronaux profonds, notre recherche récemment publiée sur les modèles de langage visionnel (VLMs). Pour ma présentation, j’ai discuté des avancées récentes dans la fusion de grands modèles de langage (LLMs) avec des représentations visuelles puissantes pour faire progresser l’état de l’art de la reconnaissance d’image.
Cette recherche fascinante a de nombreuses utilisations potentielles dans le monde réel. Elle pourrait, un jour, servir d’assistant pour soutenir l’apprentissage en classe et informel dans les écoles, ou aider les personnes aveugles ou malvoyantes à voir le monde qui les entoure, transformant ainsi leur quotidien.
Je veux que les gens repartent de la session…
Avec une meilleure compréhension de ce qui se passe après l’annonce d’une percée dans la recherche. Il y a tellement de recherches incroyables en cours, mais nous devons réfléchir à ce qui vient ensuite, comme les problèmes mondiaux que nous pourrions aider à résoudre. Et comment pouvons-nous utiliser nos recherches pour créer des produits et des services qui ont un objectif ?
L’avenir est prometteur et je suis impatient de découvrir de nouvelles façons d’appliquer notre recherche révolutionnaire pour aider des millions de personnes dans le monde entier.
Voir les postes ouverts : https://www.deepmind.com/careers/jobs?sort=alphabetical
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Conception de mécanisme centrée sur l’humain avec une IA démocratique
- Apprentissage de la physique intuitive dans un modèle d’apprentissage profond inspiré de la psychologie du développement
- Travailler en collaboration avec YouTube
- Les dernières recherches de DeepMind à ICML 2022
- Perceiver AR génération autoregressive à long contexte polyvalente
- Le cercle vertueux de la recherche en IA
- AlphaFold révèle la structure de l’univers des protéines