Apprentissage automatique, illustré apprentissage incrémental

Apprentissage automatique, illustré apprentissage incrémental

Comment les modèles apprennent de nouvelles informations au fil du temps, en maintenant et en développant les connaissances précédentes

Bienvenue dans la série illustrée sur l’apprentissage automatique. Si vous avez lu les autres articles de la série, vous connaissez le principe. Nous prenons un concept d’apprentissage automatique (qui peut sembler ennuyeux) et le rendons intéressant en l’illustrant ! Cet article portera sur un concept appelé Apprentissage incrémental, où les modèles d’apprentissage automatique apprennent de nouvelles informations au fil du temps, en maintenant et en développant les connaissances précédentes. Mais avant d’entrer dans les détails, parlons d’abord de ce à quoi ressemble le processus de construction des modèles aujourd’hui.

Nous suivons généralement un processus appelé apprentissage statique lors de la construction des modèles. Dans ce processus, nous entraînons un modèle en utilisant les dernières données disponibles. Nous ajustons et réglons le modèle lors du processus d’entraînement. Et une fois satisfait de ses performances, nous le déployons. Ce modèle est en production pendant un certain temps. Ensuite, nous remarquons que les performances du modèle se détériorent au fil du temps. C’est à ce moment-là que nous jetons le modèle existant et en construisons un nouveau en utilisant les dernières données disponibles. Et nous répétons ce même processus.

Illustrons cela avec un exemple concret. Prenons ce scénario hypothétique. Nous avons commencé à construire un modèle de fraude à la fin de janvier 2023. Ce modèle détecte si une transaction par carte de crédit est frauduleuse ou non. Nous entraînons notre modèle en utilisant toutes les données de transactions par carte de crédit que nous avions sur la période d’un an précédente (janvier 2022 à décembre 2022) et utilisons les données de transactions de ce mois-ci (janvier 2023) pour le tester.

À la fin du mois suivant, nous remarquons que le modèle ne fonctionne pas très bien avec les nouvelles données. Nous construisons donc un autre modèle, mais cette fois en utilisant les données de la période d’un an précédente (février 2022 à janvier 2023) pour l’entraîner, puis utilisons les données du mois en cours (février 2023) pour le tester. Et toutes les données en dehors de ces périodes d’entraînement et de test sont jetées.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

La gamme NVIDIA Studio ajoute le Microsoft Surface Laptop Studio 2 alimenté par RTX

Note de l’éditeur : Cet article fait partie de notre série hebdomadaire In the NVIDIA Studio, qui célèbre les a...

AI

LMSYS ORG Présente Chatbot Arena une plateforme de benchmark LLM collaborative avec des combats anonymes et aléatoires

De nombreux projets open source ont développé des modèles linguistiques complets pouvant être entraînés à effectuer d...

AI

Défi accepté l'animateur Sir Wade Neistadt mène une révolution robotique en un temps record cette semaine dans In the NVIDIA Studio.

Note de l’éditeur : cet article fait partie de notre série hebdomadaire Dans le Studio NVIDIA, qui célèbre les ...

Apprentissage automatique

3 Questions Jacob Andreas sur les grands modèles de langage.

Le scientifique du CSAIL décrit la recherche en traitement du langage naturel à travers des modèles d'apprentissage a...

AI

Déverrouillage de la transparence de l'IA Comment le regroupement des fonctionnalités d'Anthropic améliore l'interprétabilité des réseaux neuronaux.

Dans un article récent intitulé “Vers la monosémioté: décomposition des modèles linguistiques avec l’appr...

AI

Le patron de Google Search déclare que l'entreprise investit pour éviter de devenir une 'proie sur la route

Au début de sa défense contre l'antitrust, Google a attribué son succès à des investissements implacables, contrecarr...