Fraude par « deepfake » pilotée par l’IA La bataille en cours du Kerala contre les escrocs
Fraud by AI-driven deepfake in Kerala's ongoing battle against scammers.
Depuis quelques mois, le Kerala a été témoin d’une recrudescence d’une forme sournoise de fraude exploitant la technologie “deepfake” pilotée par l’IA. Avec plus de 300 personnes perdant une somme stupéfiante de 4 crores de roupies à ces escrocs, l’État est aux prises avec une nouvelle vague de cybercriminalité. L’arnaque par IA cible des victimes vulnérables avec des opportunités alléchantes de “travail à domicile” et de “business à domicile”. Cet article examine le mode opératoire de ces escrocs, comment ils utilisent la technologie deepfake, et les efforts déployés par la police du Kerala pour lutter contre ce fléau.
Lire aussi: Les cybercriminels utilisent WormGPT pour violer la sécurité des e-mails
La montée en puissance des escroqueries
Selon les rapports de police, le nombre de cas pourrait être beaucoup plus élevé car tous les incidents ne sont pas signalés. Le Kerala est en tête de liste des États où ces activités frauduleuses sont endémiques, les escrocs en ligne dépouillant les résidents de l’État d’environ 10 crores de roupies par mois. Dans une tendance surprenante, les femmes et les femmes au foyer sont les principales cibles de ces escroqueries.
Lire aussi: FraudGPT: La montée alarmante des outils de cybercriminalité alimentés par l’IA
- Les meilleurs outils d’IA pour la comptabilité en 2023
- Découvrez BeLFusion Une approche de l’espace latent comportemental pour une prédiction réaliste et diversifiée des mouvements humains stochastiques à l’aide de la diffusion latente.
- Meta dévoile AudioCraft un outil d’IA pour transformer du texte en audio et en musique.
L’attrait des escrocs du “travail à domicile”
Les criminels initient le contact via WhatsApp ou Facebook, offrant des opportunités d’emploi pour travailler depuis chez soi. Ils attirent ensuite les victimes en leur promettant de gagner des récompenses en regardant des vidéos commerciales. Cependant, l’appât devient rapidement un piège lorsque les victimes se retrouvent empêtrées dans une série de tâches, accumulant des points qui aboutissent finalement à d’importantes demandes financières.
L’escroquerie commerciale ingénieuse
Un autre schéma frauduleux consiste à vendre des produits de grandes marques, attirant les victimes avec des offres apparemment irrésistibles. Les criminels créent une illusion de transactions légitimes, renforçant la confiance avant de proposer des opportunités d’achats plus importants. Les victimes se sentent bientôt trahies lorsque le groupe de médias sociaux impliqué dans l’escroquerie disparaît dans la nature.
Lire aussi: Les criminels utilisent l’IA pour se faire passer pour des proches
La menace de la technologie deepfake
La police du Kerala a récemment enquêté sur une affaire où des escrocs ont dupé une victime de 40 000 roupies en utilisant la technologie “deepfake” alimentée par l’IA. L’escroc a manipulé de manière convaincante la victime pour lui faire transférer de l’argent pour une urgence médicale fabriquée en se faisant passer pour un ancien collègue lors d’un appel vidéo. Cette tactique sophistiquée représente un défi majeur pour les organismes d’application de la loi dans la recherche et l’appréhension des coupables.
Lire aussi: Comment détecter et gérer les deepfakes à l’ère de l’IA?
La recherche de la justice par la police du Kerala
La cyber police de la ville de Kozhikode a agi rapidement en envoyant une équipe à Ahmedabad pour retrouver les accusés dans l’affaire du deepfake. L’enquête consiste à évaluer l’authenticité de l’adresse enregistrée dans un casino de Goa, que le coupable a utilisée pour enregistrer la carte SIM utilisée dans le crime. Cherchant l’aide de la police du Gujarat, la police du Kerala est déterminée à traduire les criminels en justice.
Lire aussi: L’UE appelle à des mesures pour identifier les deepfakes et le contenu IA
Notre avis
L’essor de la fraude “deepfake” pilotée par l’IA menace gravement les individus et leur argent durement gagné. Alors que le nombre de victimes augmente et que les pertes financières s’envolent, les organismes d’application de la loi du Kerala redoublent d’efforts pour lutter contre cette forme insidieuse de cybercriminalité. À l’ère de la technologie avancée, la sensibilisation et la vigilance deviennent des outils essentiels pour se protéger de ces schémas frauduleux. En restant informés et en adoptant la prudence dans les interactions en ligne, les citoyens peuvent contrecarrer les intentions malveillantes des escrocs et rendre le monde numérique plus sûr pour tous.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 40+ Outils AI Cool que vous devriez vérifier (août 2023)
- Dernières avancées dans les noyaux de CNN pour les modèles d’images volumineux
- La menace de la désinformation climatique propagée par la technologie d’IA générative
- Fuite de données Qu’est-ce que c’est et pourquoi cela cause l’échec de nos systèmes prédictifs
- Instagram va désormais étiqueter le contenu généré par l’IA
- Découvrez CREATOR un nouveau cadre d’IA novateur qui permet aux LLM de créer leurs propres outils grâce à la documentation et à la réalisation de code.
- Abacus AI présente un nouveau modèle de langage large à contexte long ouvert (LLM) rencontrez Giraffe