Intégrer l’IA générative et l’apprentissage par renforcement pour s’améliorer soi-même

« Utiliser l'IA générative et l'apprentissage par renforcement pour se perfectionner »

Introduction

Dans le paysage en constante évolution de l’intelligence artificielle, deux acteurs clés se sont réunis pour repousser les frontières : l’IA générative et l’apprentissage par renforcement. Ces technologies de pointe, l’IA générative et l’apprentissage par renforcement, ont le potentiel de créer des systèmes d’IA auto-améliorants, nous rapprochant ainsi de la réalisation du rêve de machines capables d’apprendre et de s’adapter de manière autonome. Ces outils ouvrent la voie à des systèmes d’IA capables de s’améliorer d’eux-mêmes, nous rapprochant ainsi de l’idée de machines capables d’apprendre et de s’adapter par elles-mêmes.

L’IA a réalisé des merveilles remarquables ces dernières années, de la compréhension du langage humain à l’aide à la vision et à l’interprétation du monde qui nous entoure. Des modèles d’IA générative comme GPT-3 et des algorithmes d’apprentissage par renforcement tels que Deep Q-Networks se trouvent à l’avant-garde de ce progrès. Bien que ces technologies aient été transformantes individuellement, leur convergence ouvre de nouvelles dimensions et repousse les limites du monde vers plus de facilité.

Objectifs d’apprentissage

  • Acquérir une connaissance approfondie de l’apprentissage par renforcement, de ses algorithmes, des structures de récompense, du cadre général de l’apprentissage par renforcement et des politiques état-action pour comprendre comment les agents prennent des décisions.
  • Étudier comment ces deux branches peuvent être combinées de manière symbiotique pour créer des systèmes plus adaptatifs et intelligents, notamment dans des scénarios de prise de décision.
  • Étudier et analyser diverses études de cas démontrant l’efficacité et l’adaptabilité de l’intégration de l’IA générative avec l’apprentissage par renforcement dans des domaines tels que les soins de santé, les véhicules autonomes et la création de contenu.
  • Se familiariser avec les bibliothèques Python telles que TensorFlow, PyTorch, OpenAI’s Gym et les TF-Agents de Google pour acquérir une expérience pratique de codage dans la mise en œuvre de ces technologies.

Cet article a été publié dans le cadre du Data Science Blogathon.

IA générative : donner aux machines de la créativité

Les modèles d’IA générative, comme GPT-3 d’OpenAI, sont conçus pour générer du contenu, qu’il s’agisse de langage naturel, d’images, voire même de musique. Ces modèles fonctionnent sur le principe de prédire ce qui va suivre dans un contexte donné. Ils ont été utilisés pour tout, de la génération automatique de contenu aux chatbots capables de mimiquer une conversation humaine. La caractéristique principale de l’IA générative est sa capacité à créer quelque chose de nouveau à partir des schémas qu’elle apprend.

Apprentissage par renforcement : enseigner à l’IA à prendre des décisions

Source - Analytics Vidhya

L’apprentissage par renforcement (RL) est un autre domaine révolutionnaire. C’est la technologie qui permet à l’intelligence artificielle d’apprendre par essais et erreurs, tout comme le ferait un être humain. Elle a été utilisée pour enseigner à l’IA à jouer à des jeux complexes comme Dota 2 et Go. Les agents RL apprennent en recevant des récompenses ou des pénalités pour leurs actions et utilisent ces retours d’information pour s’améliorer avec le temps. En un sens, le RL donne à l’IA une forme d’autonomie, lui permettant de prendre des décisions dans des environnements dynamiques.

Le cadre de l’apprentissage par renforcement

Dans cette section, nous allons démystifier le cadre clé de l’apprentissage par renforcement :

Entité agissante : l’agent

Dans le domaine de l’intelligence artificielle et de l’apprentissage automatique, le terme “agent” fait référence au modèle computationnel chargé d’interagir avec un environnement externe désigné. Son rôle principal est de prendre des décisions et d’agir pour atteindre un objectif défini ou accumuler des récompenses maximales au fil des étapes.

Le monde autour : L’environnement

L'”environnement” signifie le contexte externe ou le système dans lequel l’agent opère. En essence, il constitue tous les facteurs qui sont hors du contrôle de l’agent, mais observables. Cela peut varier d’une interface de jeu virtuel à un environnement réel, comme un robot naviguant dans un labyrinthe. L’environnement est la “vérité de référence” contre laquelle les performances de l’agent sont évaluées.

Dans le jargon de l’apprentissage par renforcement, “état” ou représenté par “s,” décrit les différents scénarios dans lesquels l’agent pourrait se retrouver en interagissant avec l’environnement. Ces transitions d’état sont cruciales ; elles informent les observations de l’agent et influencent grandement ses mécanismes de prise de décision future.

Le Livre de règles de décision : Politique

Le terme “politique” encapsule la stratégie de l’agent pour sélectionner des actions correspondant à différents états. Elle sert de fonction de mappage de l’ensemble des états à un ensemble d’actions, définissant le modus operandi de l’agent dans sa quête pour atteindre ses objectifs.

Raffinement au fil du temps : Mises à jour de la politique

La “mise à jour de la politique” fait référence au processus itératif d’ajustement de la politique existante de l’agent. Il s’agit d’un aspect dynamique de l’apprentissage par renforcement, permettant à l’agent d’optimiser son comportement en fonction des récompenses historiques ou des expériences nouvellement acquises. Cela se fait grâce à des algorithmes spécialisés qui recalibrent la stratégie de l’agent.

Le moteur d’adaptation : Algorithmes d’apprentissage

Les algorithmes d’apprentissage fournissent le cadre mathématique qui permet à l’agent d’affiner sa politique. Selon le contexte, ces algorithmes peuvent être largement catégorisés en méthodes sans modèle, qui apprennent directement des interactions dans le monde réel, et en techniques basées sur un modèle qui exploitent un modèle simulé de l’environnement pour l’apprentissage.

La mesure du succès : Récompenses

Enfin, les “récompenses” sont des mesures quantifiables, distribuées par l’environnement, qui mesurent l’efficacité immédiate d’une action effectuée par l’agent. L’objectif global de l’agent est de maximiser la somme de ces récompenses sur une période, ce qui sert efficacement de métrique de performance.

En résumé, l’apprentissage par renforcement peut être réduit à une interaction continue entre l’agent et son environnement. L’agent traverse des états variables, prend des décisions en fonction d’une politique spécifique et reçoit des récompenses qui servent de retour d’information. Des algorithmes d’apprentissage sont mis en œuvre pour affiner itérativement cette politique, en veillant à ce que l’agent soit toujours sur une trajectoire vers un comportement optimisé dans les contraintes de son environnement.

La Synergie : Génération d’IA rencontre Apprentissage par Renforcement

Source – VentureBeat

La vraie magie opère lorsque la Génération d’IA rencontre l’Apprentissage par Renforcement. Les chercheurs en IA expérimentent et étudient la combinaison de ces deux domaines, l’IA et l’apprentissage par renforcement, pour créer des systèmes ou des dispositifs capables non seulement de générer du contenu, mais aussi d’apprendre des réactions des utilisateurs pour améliorer leurs résultats et obtenir un meilleur contenu AI.

  • Génération de contenu initial : L’IA générative, telle que GPT-3, génère du contenu en fonction d’une entrée ou d’un contexte donné. Ce contenu peut être n’importe quoi, des articles à l’art.
  • Boucle de rétroaction utilisateur : Une fois que le contenu est généré et présenté à l’utilisateur, toute rétroaction donnée devient un atout précieux pour former davantage le système d’IA.
  • Mécanisme d’apprentissage par renforcement (RL) : Utilisant cette rétroaction utilisateur, les algorithmes d’apprentissage par renforcement interviennent pour évaluer les parties du contenu qui ont été appréciées et celles qui nécessitent un affinement.
  • Génération de contenu adaptatif : Informée par cette analyse, l’IA générative adapte alors ses modèles internes pour mieux correspondre aux préférences des utilisateurs. Elle affine itérativement sa production, en intégrant les leçons tirées de chaque interaction.
  • Fusion des technologies : La combinaison de l’IA générative et de l’apprentissage par renforcement crée un écosystème dynamique où le contenu généré sert de terrain de jeu pour l’agent de RL. La rétroaction des utilisateurs fonctionne comme un signal de récompense, indiquant à l’IA comment s’améliorer.

Cette combinaison de l’IA générative et de l’apprentissage par renforcement permet un système hautement adaptatif et capable d’apprendre des réactions du monde réel, y compris des réactions humaines, ce qui permet d’obtenir des résultats plus alignés sur les besoins humains et plus efficaces.

Synergie des extraits de code

Comprenez la synergie entre l’Intelligence Artificielle Générative et l’Apprentissage par Renforcement :

import torchimport torch.nn as nnimport torch.optim as optim# Modèle simulé d'Intelligence Artificielle Générative (par exemple, un générateur de texte)class GenerativeAI(nn.Module):    def __init__(self):        super(GenerativeAI, self).__init__()        # Couches du modèle        self.fc = nn.Linear(10, 1)  # Exemple de couche        def forward(self, input):        output = self.fc(input)        # Génère du contenu, par exemple, un nombre        return output# Feedback utilisateur simulédef user_feedback(content):    return torch.rand(1)  # Feedback utilisateur simulé# Mise à jour par Apprentissage par Renforcementdef rl_update(model, optimizer, reward):    loss = -torch.log(reward)    optimizer.zero_grad()    loss.backward()    optimizer.step()# Initialisation du modèle et de l'optimisateurgen_model = GenerativeAI()optimizer = optim.Adam(gen_model.parameters(), lr=0.001)# Amélioration itérativefor epoch in range(100):    content = gen_model(torch.randn(1, 10))  # Entrée simulée    reward = user_feedback(content)    rl_update(gen_model, optimizer, reward)

Explication du code

  • Modèle d’Intelligence Artificielle Générative : C’est comme une machine qui essaie de générer du contenu, comme un générateur de texte. Dans ce cas, il est conçu pour prendre une entrée et produire une sortie.
  • Feedback Utilisateur : Imaginez des utilisateurs fournissant des retours sur le contenu généré par l’IA. Ces retours aident l’IA à apprendre ce qui est bon ou mauvais. Dans ce code, nous utilisons des retours aléatoires comme exemple.
  • Mise à jour par Apprentissage par Renforcement : Après avoir reçu des retours, l’IA se met à jour pour s’améliorer. Elle ajuste ses paramètres internes pour améliorer sa génération de contenu.
  • Amélioration Itérative : L’IA passe par de nombreux cycles (100 fois dans ce code) de génération de contenu, de réception de retours et d’apprentissage à partir de ceux-ci. Avec le temps, elle devient meilleure pour créer le contenu souhaité.

Ce code définit un modèle d’Intelligence Artificielle Générative de base et une boucle de feedback. L’IA génère du contenu, reçoit des retours aléatoires et s’ajuste sur 100 itérations pour améliorer ses capacités de création de contenu.

Dans une application réelle, vous utiliseriez un modèle plus sophistiqué et des feedbacks utilisateur plus nuancés. Cependant, cet extrait de code capture l’essence de la façon dont l’Intelligence Artificielle Générative et l’Apprentissage par Renforcement peuvent s’harmoniser pour construire un système qui non seulement génère du contenu, mais apprend également à l’améliorer sur la base des retours.

Applications dans le Monde Réel

Les possibilités découlant de la synergie entre l’Intelligence Artificielle Générative et l’Apprentissage par Renforcement sont infinies. Jetons un coup d’œil aux applications réelles :

Génération de Contenu

Le contenu créé par l’IA peut devenir de plus en plus personnalisé, s’alignant sur les goûts et les préférences des utilisateurs individuels.

Considérons un scénario où un agent d’Apprentissage par Renforcement utilise GPT-3 pour générer un flux d’actualités personnalisé. Après chaque article lu, l’utilisateur fournit des retours. Ici, imaginons que le feedback se résume simplement à un ‘j’aime’ ou ‘je n’aime pas’, qui sont ensuite transformés en récompenses numériques.

from transformers import GPT2LMHeadModel, GPT2Tokenizerimport torch# Initialisation du modèle GPT-2 et du tokenizertokenizer = GPT2Tokenizer.from_pretrained('gpt2')model = GPT2LMHeadModel.from_pretrained('gpt2')# Fonction de mise à jour par Apprentissage par Renforcementdef update_model(reward, optimizer):    loss = -torch.log(reward)    optimizer.zero_grad()    loss.backward()    optimizer.step()# Initialisation de l'optimisateuroptimizer = torch.optim.Adam(model.parameters(), lr=0.001)# Exemple de boucle d'Apprentissage par Renforcementfor epoch in range(10):    input_text = "Générer un article d'actualité sur la technologie."    input_ids = tokenizer.encode(input_text, return_tensors='pt')    with torch.no_grad():        output = model.generate(input_ids)    article = tokenizer.decode(output[0])    print(f"Article Généré : {article}")    # Obtenir le feedback de l'utilisateur (1 pour j'aime, 0 pour je n'aime pas)    reward = float(input("Avez-vous aimé l'article ? (1 pour oui, 0 pour non) : "))    update_model(torch.tensor(reward), optimizer)

Art et Musique

L’IA peut générer de l’art et de la musique qui résonnent avec les émotions humaines, faisant évoluer son style en fonction des retours du public. Un agent d’Apprentissage par Renforcement pourrait optimiser les paramètres d’un algorithme de transfert de style neuronal en se basant sur les retours pour créer de l’art ou de la musique qui résonne mieux avec les émotions humaines.

# En supposant qu'une fonction style_transfer(image, style) existe# Fonction de mise à jour RL similaire à l'exemple précédent# Boucle à travers les transferts de stylefor epoch in range(10):    new_art = style_transfer(content_image, style_image)    show_image(new_art)        reward = float(input("Avez-vous aimé l'art? (1 pour oui, 0 pour non) : "))    update_model(torch.tensor(reward), optimizer)

IA conversationnelle

Les chatbots et les assistants virtuels peuvent engager des conversations plus naturelles et contextuelles, ce qui les rend incroyablement utiles dans le service client. Les chatbots peuvent utiliser l’apprentissage par renforcement pour optimiser leurs modèles conversationnels en fonction de l’historique des conversations et des commentaires des utilisateurs.

# En supposant qu'une fonction chatbot_response(text, model) existe# Fonction de mise à jour RL similaire aux exemples précédentsfor epoch in range(10):    user_input = input("Vous : ")    bot_response = chatbot_response(user_input, model)        print(f"Bot : {bot_response}")        reward = float(input("La réponse vous a-t-elle été utile ? (1 pour oui, 0 pour non) : "))    update_model(torch.tensor(reward), optimizer)

Véhicules autonomes

Les systèmes d’IA dans les véhicules autonomes peuvent apprendre à partir d’expériences de conduite réelles, améliorant la sécurité et l’efficacité. Un agent RL dans un véhicule autonome pourrait ajuster son trajet en temps réel en fonction de diverses récompenses telles que l’efficacité énergétique, le temps ou la sécurité.

# En supposant qu'une fonction drive_car(state, policy) existe# Fonction de mise à jour RL similaire aux exemples précédentsfor epoch in range(10):    state = get_current_state()  # par exemple, la circulation, le carburant, etc.    action = drive_car(state, policy)        reward = get_reward(state, action)  # par exemple, le carburant économisé, le temps pris, etc.    update_model(torch.tensor(reward), optimizer)

Ces extraits de code sont illustratifs et simplifiés. Ils aident à manifester le concept selon lequel l’IA générative et RL peuvent collaborer pour améliorer l’expérience utilisateur dans divers domaines. Chaque extrait montre comment l’agent améliore de manière itérative sa politique en fonction des récompenses reçues, similaire à la façon dont on peut améliorer de manière itérative un modèle d’apprentissage profond tel qu’Unet pour la segmentation d’images radar.

Études de cas

Diagnostic et optimisation des traitements en santé

  • Problème : En santé, un diagnostic précis et rapide est crucial. Il est souvent difficile pour les praticiens médicaux de suivre les vastes quantités de littérature médicale et les meilleures pratiques évolutives.
  • Solution : Les modèles d’IA générative comme BERT peuvent extraire des informations à partir de textes médicaux. Un agent RL peut optimiser les plans de traitement en se basant sur les données historiques des patients et les recherches émergentes.
  • Étude de cas : Watson for Oncology d’IBM utilise l’IA générative et RL pour aider les oncologues à prendre des décisions de traitement en analysant les dossiers médicaux d’un patient par rapport à une vaste littérature médicale. Cela a amélioré l’exactitude des recommandations de traitement.

Vente au détail et shopping personnalisé

  • Problème : Dans le commerce électronique, personnaliser les expériences d’achat des clients est essentiel pour augmenter les ventes.
  • Solution : L’IA générative, comme GPT-3, peut générer des descriptions de produits, des évaluations et des recommandations. Un agent RL peut optimiser ces recommandations en fonction des interactions et des retours des utilisateurs.
  • Étude de cas : Amazon utilise l’IA générative pour générer des descriptions de produits et utilise RL pour optimiser les recommandations de produits. Cela a entraîné une augmentation significative des ventes et de la satisfaction des clients.

Création de contenu et marketing

  • Problème : Les marketeurs doivent créer du contenu captivant à grande échelle. Il est difficile de savoir ce qui résonnera auprès du public.
  • Solution : L’IA générative, telle que GPT-2, peut générer des articles de blog, du contenu sur les médias sociaux et des copies publicitaires. RL peut optimiser la génération de contenu en fonction des métriques d’engagement.
  • Étude de cas : HubSpot, une plateforme de marketing, utilise l’IA générative pour aider à la création de contenu. Ils utilisent RL pour affiner les stratégies de contenu en fonction de l’engagement des utilisateurs, ce qui se traduit par des campagnes marketing plus efficaces.

Développement de jeux vidéo

  • Problème : Créer des personnages non-joueurs (PNJ) avec des comportements réalistes et des environnements de jeu qui s’adaptent aux actions des joueurs est complexe et chronophage.
  • Solution : L’IA générative peut concevoir des niveaux de jeu, des personnages et des dialogues. Les agents RL peuvent optimiser le comportement des PNJ en fonction des interactions des joueurs.
  • Étude de cas : Dans l’industrie du jeu, des studios comme Ubisoft utilisent l’IA générative pour la création d’univers et RL pour l’IA des PNJ. Cette approche a permis d’obtenir des expériences de jeu plus dynamiques et captivantes.

Trading financier

  • Problème : Dans le monde hautement compétitif du trading financier, trouver des stratégies rentables peut être un défi.
  • Solution : L’IA générative peut aider dans l’analyse des données et la génération de stratégies. Les agents de RL peuvent apprendre et optimiser les stratégies de trading basées sur les données du marché et les objectifs définis par l’utilisateur.
  • Étude de cas : Des fonds spéculatifs comme Renaissance Technologies exploitent l’IA générative et le RL pour découvrir des algorithmes de trading rentables. Cela a conduit à des rendements substantiels sur les investissements.

Ces études de cas montrent comment la combinaison de l’IA générative et du RL transforme diverses industries en automatisant les tâches, en personnalisant les expériences et en optimisant les processus de prise de décision.

Considérations éthiques

Équité en IA

Garantir l’équité dans les systèmes d’IA est essentiel pour éviter les biais ou les discriminations. Les modèles d’IA doivent être entraînés sur des ensembles de données diversifiés et représentatifs. Déceler et atténuer les biais dans les modèles d’IA est un défi continu. Cela est particulièrement important dans des domaines tels que les prêts ou l’embauche, où des algorithmes biaisés peuvent avoir de graves conséquences réelles.

Reddition de comptes et responsabilité

À mesure que les systèmes d’IA continuent de progresser, la reddition de comptes et la responsabilité deviennent essentielles. Les développeurs, les organisations et les régulateurs doivent définir des lignes de responsabilité claires. Des lignes directrices et des normes éthiques doivent être établies pour tenir les individus et les organisations responsables des décisions et des actions des systèmes d’IA. Dans le domaine de la santé, par exemple, la responsabilité est primordiale pour garantir la sécurité des patients et la confiance dans le diagnostic assisté par l’IA.

Transparence et explicabilité

La nature “boîte noire” de certains modèles d’IA est préoccupante. Pour assurer une IA éthique et responsable, il est essentiel que les processus de prise de décision de l’IA soient transparents et compréhensibles. Les chercheurs et les ingénieurs doivent travailler à développer des modèles d’IA explicables et fournissant des informations sur les raisons d’une décision spécifique. Cela est crucial dans des domaines tels que la justice pénale, où les décisions prises par les systèmes d’IA peuvent avoir un impact significatif sur la vie des individus.

Le respect de la vie privée des données est un pilier de l’IA éthique. Les systèmes d’IA s’appuient souvent sur les données des utilisateurs, et obtenir un consentement éclairé pour l’utilisation des données est primordial. Les utilisateurs doivent avoir le contrôle sur leurs données et des mécanismes doivent être mis en place pour protéger les informations sensibles. Cette question est particulièrement importante dans les systèmes de personnalisation pilotés par l’IA, comme les moteurs de recommandation et les assistants virtuels.

Atténuation des préjudices

Les systèmes d’IA doivent être conçus pour éviter la création d’informations nuisibles, trompeuses ou fausses. Cela est particulièrement pertinent dans le domaine de la génération de contenu. Les algorithmes ne doivent pas générer de contenu qui promeut la haine, la désinformation ou les comportements nuisibles. Des directives et un suivi plus stricts sont essentiels dans les plateformes où les contenus générés par les utilisateurs sont courants.

Surveillance humaine et expertise éthique

La surveillance humaine reste cruciale. Même si l’IA devient de plus en plus autonome, les experts humains dans divers domaines doivent travailler de concert avec l’IA. Ils peuvent porter des jugements éthiques, affiner les systèmes d’IA et intervenir lorsque cela est nécessaire. Par exemple, dans les véhicules autonomes, un conducteur de sécurité humain doit être prêt à reprendre le contrôle dans des situations complexes ou imprévues.

Ces considérations éthiques sont au premier plan du développement et du déploiement de l’IA, garantissant que les technologies d’IA profitent à la société tout en respectant les principes d’équité, de responsabilité et de transparence. Aborder ces problèmes est essentiel pour une intégration responsable et éthique de l’IA dans nos vies.

Conclusion

Nous assistons à une période passionnante où l’IA générative et le RL commencent à se rejoindre. Cette convergence ouvre la voie à des systèmes d’IA auto-améliorateurs, capables à la fois de création innovante et de prise de décision efficace. Cependant, avec un grand pouvoir vient une grande responsabilité. Les avancées rapides de l’IA soulèvent des considérations éthiques cruciales pour son déploiement responsable. Alors que nous nous engageons dans ce voyage visant à créer une IA qui non seulement comprend, mais apprend et s’adapte également, nous ouvrons la porte à des possibilités illimitées d’innovation. Néanmoins, il est essentiel d’avancer avec intégrité éthique, en veillant à ce que la technologie que nous créons serve de force pour le bien, bénéficiant à l’humanité dans son ensemble.

Principales conclusions

  • L’IA générative et le Renforcement Apprentissage (RL) convergent pour créer des systèmes auto-améliorateurs, le premier se concentrant sur la génération de contenu et le second sur la prise de décision par le biais d’essais et d’erreurs.
  • Dans le RL, les composantes clés comprennent l’agent qui prend des décisions, l’environnement avec lequel l’agent interagit, et les récompenses qui servent de métriques de performance. Les politiques et les algorithmes d’apprentissage permettent à l’agent de s’améliorer avec le temps.
  • L’union de l’IA générative et du RL permet des systèmes qui génèrent du contenu et s’adaptent en fonction des commentaires des utilisateurs, améliorant ainsi leur production de manière itérative.
  • Un extrait de code Python illustre cette synergie en combinant un modèle d’IA générative simulé pour la génération de contenu avec le RL pour optimiser en fonction des commentaires des utilisateurs.
  • Les applications dans le monde réel sont vastes, notamment la génération de contenu personnalisé, la création artistique et musicale, l’IA conversationnelle, voire les véhicules autonomes.
  • Ces technologies combinées pourraient révolutionner la façon dont l’IA interagit avec les besoins et les préférences humaines, conduisant à des solutions plus personnalisées et efficaces.

Foire aux questions

Les médias présentés dans cet article ne sont pas la propriété d’Analytics Vidhya et sont utilisés à la discrétion de l’auteur.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Les programmes pilotes d'IA visent à réduire la consommation d'énergie et les émissions sur le campus du MIT

Une équipe interdépartementale dirige les efforts visant à utiliser l'apprentissage automatique pour augmenter l'effi...

AI

Orca LLM Simulation des processus de raisonnement de ChatGPT

Orca est un modèle de 13 milliards de paramètres qui apprend à imiter les processus de raisonnement des LFMs. Il util...

AI

Cet article AI présente RuLES Un nouveau cadre d'apprentissage automatique pour évaluer la conformité aux règles dans les grands modèles de langage face aux attaques adverses.

En réponse au déploiement croissant des Modèles de Langue à Large Mémoire (LLMs) avec des responsabilités réelles, un...

Science des données

JPL crée une archive PDF pour aider la recherche de logiciels malveillants.

Des scientifiques de données ont compilé 8 millions de PDF dans une archive open source pour améliorer la sécurité en...

AI

Clé maîtresse de la séparation de sources audio présentation d'AudioSep pour séparer tout ce que vous décrivez

L’Analyse Scénique Auditive par Calcul (CASA) est un domaine du traitement du signal audio qui se concentre sur...

AI

Organiser le cadre des changements de jeu de données L'exemple

J'ai récemment parlé des causes de la dégradation des performances du modèle, c'est-à-dire lorsque leur qualité de pr...