Un expert en neurosciences réclame un Neuroshield.

Expert in neuroscience demands a Neuroshield.

Dans un article de l’Institut Baker de politique publique de l’Université Rice, un expert en neuroscience soutient qu’il est “urgent” de développer un système de défense numérique contre l’IA. Cela intervient à une époque où l’on demande de plus en plus une réglementation de l’IA axée sur la sécurité de l’IA.

Harris Eyre, chercheur en santé cérébrale à l’Institut Baker, a déclaré qu’il fallait prendre des mesures pour réglementer l’IA avancée. Il a également souligné l’utilisation de l’IA dans les médias sociaux pour protéger les gens de ce qu’il appelle le “piratage” de l’IA, qui peut nuire aux relations interpersonnelles et à l’intelligence collective.

Dans l’article, Harris Eyre reconnaît comment l’IA a comblé les lacunes dans le monde, mais il souligne également de nombreux autres problèmes. Il écrit en partie: “Bien que cette technologie amène le monde entier sur nos appareils et offre de nombreuses opportunités pour l’épanouissement individuel et communautaire, elle peut également déformer la réalité et créer de fausses illusions”.

Mais au-delà des points de vue sur la réalité, ses préoccupations vont au-delà des effets micro pour se concentrer sur les effets macro sur la société. Il écrit: “En propageant la désinformation, les médias sociaux et l’IA représentent un défi direct pour le fonctionnement de nos démocraties”.

L’une des plus grandes préoccupations concerne les deep fakes. Eyre soutient qu’il est “urgent” de concevoir des politiques fondées sur les neurosciences qui peuvent aider à protéger les citoyens contre l’utilisation prédatrice de l’IA. Selon lui, il faut un “neurobouclier”.

Il écrit: “La façon dont nous interprétons la réalité qui nous entoure, la façon dont nous apprenons et réagissons, dépend de la façon dont notre cerveau est câblé… Il a été soutenu que, compte tenu de la montée rapide de la technologie, l’évolution n’a pas eu suffisamment de temps pour développer les régions du néocortex responsables des fonctions cognitives supérieures. Par conséquent, nous sommes biologiquement vulnérables et exposés”.

Le fonctionnement d’un neurobouclier se ferait selon une approche en trois volets. Tout d’abord, élaborer un code de conduite concernant l’objectivité de l’information. Ensuite, mettre en place des protections réglementaires et enfin créer une boîte à outils éducative pour les citoyens.

Eyre affirme que la coopération entre les éditeurs, les journalistes, les dirigeants des médias, les leaders d’opinion et les scientifiques du cerveau peut permettre d’établir un “code de conduite” qui soutient l’objectivité de l’information. “Comme le démontre les neurosciences, l’ambiguïté dans la compréhension des faits peut créer des ‘vérités alternatives’ qui sont fortement encodées dans notre cerveau”, explique-t-il.

Cette semaine, des géants de la technologie tels que Google, Microsoft et OpenAI se sont réunis pour former un organisme de l’industrie axé sur la sécurité de l’IA avancée. En Chine, le gouvernement travaille déjà à réglementer l’IA grâce à des filigranes sur les deep fakes et à des cadres réglementaires que les start-ups et les entreprises doivent suivre.

Note de l’éditeur: L’IA responsable devient un sujet critique dans le développement de l’IA, et si vous souhaitez rester à la pointe des derniers développements, vous devez entendre les leaders de l’industrie qui mènent la charge. Vous obtiendrez cela lors de la conférence ODSC West 2023 sur la sécurité et la sûreté de l’apprentissage automatique. Réservez votre place et inscrivez-vous dès aujourd’hui.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Meilleurs outils d'assistant de vente en intelligence artificielle pour 2023

Les solutions d’assistant de vente d’intelligence artificielle, souvent des assistants de vente virtuels,...

AI

Cet article sur l'IA montre comment la toxicité de ChatGPT peut augmenter jusqu'à six fois lorsqu'une personnalité lui est attribuée.

Avec les avancées technologiques récentes, les modèles de langage volumineux (LLMs) tels que GPT-3 et PaLM ont montré...

AI

Distillons ce que nous savons

Les chercheurs cherchent à réduire la taille des grands modèles GPT.

AI

Présentation d'OpenLLM Bibliothèque Open Source pour LLMs

Une plateforme conviviale pour exploiter des grands modèles de langage (LLM) en production, avec des fonctionnalités ...

AI

Emballage et déploiement faciles des ML classiques et des LLM avec Amazon SageMaker, partie 1 Améliorations de PySDK

Amazon SageMaker est un service entièrement géré qui permet aux développeurs et aux scientifiques des données de cons...