L’outil de détection de l’IA d’OpenAI échoue à détecter 74% du contenu généré par l’IA
L'outil de détection de l'IA d'OpenAI échoue à détecter 74% du contenu généré par l'IA. (The OpenAI AI detection tool fails to detect 74% of AI-generated content.)
OpenAI, le créateur du révolutionnaire chatbot génératif d’IA ChatGPT, a récemment fait les gros titres en abandonnant son outil de classification d’IA. Conçu pour différencier l’écriture humaine de l’écriture générée par l’IA, le faible taux de précision de l’outil a conduit à cette décision. Dans cet article, nous explorons les implications de ce développement, en examinant son impact sur la désinformation, l’éducation et les défis auxquels OpenAI est confronté.
Aussi à lire: La lettre de motivation générée par une IA d’un diplômé de l’IIT fait beaucoup rire
Les problèmes de précision du classificateur d’IA
OpenAI a officiellement annoncé l’abandon de son outil de classification d’IA, citant son faible taux de précision comme raison principale. L’entreprise a reconnu la nécessité d’amélioration et a souligné son engagement à recueillir des commentaires et à explorer de meilleures techniques pour vérifier la provenance du texte. Le classificateur d’IA a rencontré des difficultés en termes de précision, identifiant correctement un texte écrit par une IA comme “probablement écrit par une IA” seulement 26% du temps. De plus, il a mal classé un texte rédigé par un humain comme étant généré par une IA 9% du temps. Ces limitations ont conduit à sa fermeture.
Aussi à lire: Le détecteur d’IA identifie la Constitution américaine comme étant générée par une IA
- Découvrez ShortGPT un puissant cadre d’IA pour automatiser la création de contenu et rationaliser le processus de production vidéo.
- Des chercheurs chinois proposent une approche d’augmentation des données appelée CarveMix pour la segmentation des lésions cérébrales.
- Des chercheurs de Stanford présentent Sophia un optimiseur de deuxième ordre évolutif pour la pré-formation des modèles de langage.
Désinformation et contenu généré par l’IA
L’émergence du ChatGPT d’OpenAI a eu un impact considérable, suscitant des inquiétudes quant à la mauvaise utilisation potentielle du texte et de l’art générés par l’IA. Des études ont révélé que le contenu généré par l’IA, y compris les tweets, pourrait être plus persuasif que le contenu écrit par des humains. Cela soulève des questions sur la propagation de la désinformation.
Aussi à lire: PoisonGPT: Hugging Face LLM propage de fausses informations
Préoccupations éducatives et ChatGPT
Les éducateurs ont exprimé des inquiétudes quant à la dépendance excessive des étudiants à l’égard de ChatGPT pour accomplir leurs devoirs, craignant que cela puisse entraver l’apprentissage actif et favoriser la malhonnêteté académique. En réponse, certaines institutions éducatives, comme les écoles de New York, ont interdit l’accès à ChatGPT sur leurs sites.
Aussi à lire: BYJU’s utilise l’IA pour adapter votre parcours éducatif
Réglementation du contenu généré par l’IA
Les gouvernements ont été confrontés à un défi de réglementation du contenu généré par l’IA, car la révolution de l’IA d’OpenAI a provoqué une avalanche de textes et de médias générés par ordinateur. Sans stratégies de réglementation complètes, divers groupes et organisations ont pris l’initiative d’élaborer des lignes directrices pour lutter contre la désinformation.
Aussi à lire: ChatGPT se donne des lois pour s’autoréguler
Les difficultés d’OpenAI
Même OpenAI, une entreprise pionnière en IA, a admis ne pas avoir de solutions complètes pour différencier le contenu généré par l’IA et celui généré par des humains. La tâche devient de plus en plus difficile, et le départ du responsable de la confiance et de la sécurité ainsi que l’enquête de la Federal Trade Commission sur les pratiques de vérification des données d’OpenAI ont ajouté aux défis de l’entreprise. Alors qu’OpenAI fait ses adieux à son outil de détection de l’IA, l’entreprise se concentre sur le développement de mécanismes de détection de contenu audio et visuel généré par l’IA. Ce changement de cap reflète l’évolution du paysage des applications d’IA et la nécessité de relever les défis posés par la prolifération de contenu synthétique.
Aussi à lire: OpenAI et Meta poursuivis pour violation de droits d’auteur
Notre avis
La décision d’OpenAI de retirer son outil de détection de l’IA souligne les complexités croissantes dans le monde du contenu généré par l’IA. Les préoccupations concernant la désinformation, les défis dans l’éducation et la nécessité d’une réglementation solide posent des obstacles importants. Alors que le paysage de l’IA continue d’évoluer, OpenAI et d’autres organisations doivent se montrer à la hauteur, en recherchant une plus grande précision et responsabilité pour maintenir l’intégrité du contenu sur Internet.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Cet article sur l’IA montre une avenue pour créer de grandes quantités de données d’instruction avec différents niveaux de complexité en utilisant LLM plutôt que des humains.
- Un Aperçu des Autoencodeurs Variationnels
- Démission du responsable de la confiance et de la sécurité d’OpenAI quel impact sur ChatGPT ?
- Un employé de Shopify dévoile des licenciements pilotés par l’IA et une crise du service client
- Comment obtenir un plan personnalisé pour la science des données?
- Comment les LLM basés sur les Transformers extraient des connaissances de leurs paramètres
- 20 Alternatives à essayer en milieu de parcours en 2023