Fraude par « deepfake » pilotée par l’IA La bataille en cours du Kerala contre les escrocs

Fraud by AI-driven deepfake in Kerala's ongoing battle against scammers.

Depuis quelques mois, le Kerala a été témoin d’une recrudescence d’une forme sournoise de fraude exploitant la technologie “deepfake” pilotée par l’IA. Avec plus de 300 personnes perdant une somme stupéfiante de 4 crores de roupies à ces escrocs, l’État est aux prises avec une nouvelle vague de cybercriminalité. L’arnaque par IA cible des victimes vulnérables avec des opportunités alléchantes de “travail à domicile” et de “business à domicile”. Cet article examine le mode opératoire de ces escrocs, comment ils utilisent la technologie deepfake, et les efforts déployés par la police du Kerala pour lutter contre ce fléau.

Lire aussi: Les cybercriminels utilisent WormGPT pour violer la sécurité des e-mails

La montée en puissance des escroqueries

Selon les rapports de police, le nombre de cas pourrait être beaucoup plus élevé car tous les incidents ne sont pas signalés. Le Kerala est en tête de liste des États où ces activités frauduleuses sont endémiques, les escrocs en ligne dépouillant les résidents de l’État d’environ 10 crores de roupies par mois. Dans une tendance surprenante, les femmes et les femmes au foyer sont les principales cibles de ces escroqueries.

Lire aussi: FraudGPT: La montée alarmante des outils de cybercriminalité alimentés par l’IA

L’attrait des escrocs du “travail à domicile”

Les criminels initient le contact via WhatsApp ou Facebook, offrant des opportunités d’emploi pour travailler depuis chez soi. Ils attirent ensuite les victimes en leur promettant de gagner des récompenses en regardant des vidéos commerciales. Cependant, l’appât devient rapidement un piège lorsque les victimes se retrouvent empêtrées dans une série de tâches, accumulant des points qui aboutissent finalement à d’importantes demandes financières.

L’escroquerie commerciale ingénieuse

Un autre schéma frauduleux consiste à vendre des produits de grandes marques, attirant les victimes avec des offres apparemment irrésistibles. Les criminels créent une illusion de transactions légitimes, renforçant la confiance avant de proposer des opportunités d’achats plus importants. Les victimes se sentent bientôt trahies lorsque le groupe de médias sociaux impliqué dans l’escroquerie disparaît dans la nature.

Lire aussi: Les criminels utilisent l’IA pour se faire passer pour des proches

La menace de la technologie deepfake

La police du Kerala a récemment enquêté sur une affaire où des escrocs ont dupé une victime de 40 000 roupies en utilisant la technologie “deepfake” alimentée par l’IA. L’escroc a manipulé de manière convaincante la victime pour lui faire transférer de l’argent pour une urgence médicale fabriquée en se faisant passer pour un ancien collègue lors d’un appel vidéo. Cette tactique sophistiquée représente un défi majeur pour les organismes d’application de la loi dans la recherche et l’appréhension des coupables.

Lire aussi: Comment détecter et gérer les deepfakes à l’ère de l’IA?

La recherche de la justice par la police du Kerala

La cyber police de la ville de Kozhikode a agi rapidement en envoyant une équipe à Ahmedabad pour retrouver les accusés dans l’affaire du deepfake. L’enquête consiste à évaluer l’authenticité de l’adresse enregistrée dans un casino de Goa, que le coupable a utilisée pour enregistrer la carte SIM utilisée dans le crime. Cherchant l’aide de la police du Gujarat, la police du Kerala est déterminée à traduire les criminels en justice.

Lire aussi: L’UE appelle à des mesures pour identifier les deepfakes et le contenu IA

Notre avis

L’essor de la fraude “deepfake” pilotée par l’IA menace gravement les individus et leur argent durement gagné. Alors que le nombre de victimes augmente et que les pertes financières s’envolent, les organismes d’application de la loi du Kerala redoublent d’efforts pour lutter contre cette forme insidieuse de cybercriminalité. À l’ère de la technologie avancée, la sensibilisation et la vigilance deviennent des outils essentiels pour se protéger de ces schémas frauduleux. En restant informés et en adoptant la prudence dans les interactions en ligne, les citoyens peuvent contrecarrer les intentions malveillantes des escrocs et rendre le monde numérique plus sûr pour tous.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

50+ Nouveaux Outils d'Intelligence Artificielle de Pointe (novembre 2023)

Les outils d’IA se développent rapidement, de nouveaux outils étant régulièrement introduits. Découvrez ci-dess...

AI

3 façons de gagner de l'argent avec ChatGPT et l'IA

Suivez ces étapes simples pour multiplier vos revenus avec l'IA générative.

Apprentissage automatique

Si l'art est la façon dont nous exprimons notre humanité, où se situe l'IA ?

Le postdoctorant du MIT, Ziv Epstein SM '19, PhD '23, discute des problèmes découlant de l'utilisation de l'IA généra...

AI

Silicon Volley Les designers font appel à l'IA générative pour une assistance à puce

Un article de recherche publié aujourd’hui décrit comment l’IA générative peut aider l’un des effor...

AI

Les chercheurs de NVIDIA et de l'UT Austin ont présenté MimicGen un système autonome de génération de données pour la robotique.

Former des robots à effectuer différentes manipulations est rendu possible grâce à l’apprentissage par imitatio...

AI

Affinage de LLaMA sur des articles médicaux Découvrez le modèle PMC-LLaMA-A qui atteint des performances élevées sur les référentiels de questions-réponses biomédicales.

Le développement de grands modèles de langage (LLM), comme le ChatGPT d’OpenAI et le GPT-4, a transformé l̵...