Fraude par « deepfake » pilotée par l’IA La bataille en cours du Kerala contre les escrocs

Fraud by AI-driven deepfake in Kerala's ongoing battle against scammers.

Depuis quelques mois, le Kerala a été témoin d’une recrudescence d’une forme sournoise de fraude exploitant la technologie “deepfake” pilotée par l’IA. Avec plus de 300 personnes perdant une somme stupéfiante de 4 crores de roupies à ces escrocs, l’État est aux prises avec une nouvelle vague de cybercriminalité. L’arnaque par IA cible des victimes vulnérables avec des opportunités alléchantes de “travail à domicile” et de “business à domicile”. Cet article examine le mode opératoire de ces escrocs, comment ils utilisent la technologie deepfake, et les efforts déployés par la police du Kerala pour lutter contre ce fléau.

Lire aussi: Les cybercriminels utilisent WormGPT pour violer la sécurité des e-mails

La montée en puissance des escroqueries

Selon les rapports de police, le nombre de cas pourrait être beaucoup plus élevé car tous les incidents ne sont pas signalés. Le Kerala est en tête de liste des États où ces activités frauduleuses sont endémiques, les escrocs en ligne dépouillant les résidents de l’État d’environ 10 crores de roupies par mois. Dans une tendance surprenante, les femmes et les femmes au foyer sont les principales cibles de ces escroqueries.

Lire aussi: FraudGPT: La montée alarmante des outils de cybercriminalité alimentés par l’IA

L’attrait des escrocs du “travail à domicile”

Les criminels initient le contact via WhatsApp ou Facebook, offrant des opportunités d’emploi pour travailler depuis chez soi. Ils attirent ensuite les victimes en leur promettant de gagner des récompenses en regardant des vidéos commerciales. Cependant, l’appât devient rapidement un piège lorsque les victimes se retrouvent empêtrées dans une série de tâches, accumulant des points qui aboutissent finalement à d’importantes demandes financières.

L’escroquerie commerciale ingénieuse

Un autre schéma frauduleux consiste à vendre des produits de grandes marques, attirant les victimes avec des offres apparemment irrésistibles. Les criminels créent une illusion de transactions légitimes, renforçant la confiance avant de proposer des opportunités d’achats plus importants. Les victimes se sentent bientôt trahies lorsque le groupe de médias sociaux impliqué dans l’escroquerie disparaît dans la nature.

Lire aussi: Les criminels utilisent l’IA pour se faire passer pour des proches

La menace de la technologie deepfake

La police du Kerala a récemment enquêté sur une affaire où des escrocs ont dupé une victime de 40 000 roupies en utilisant la technologie “deepfake” alimentée par l’IA. L’escroc a manipulé de manière convaincante la victime pour lui faire transférer de l’argent pour une urgence médicale fabriquée en se faisant passer pour un ancien collègue lors d’un appel vidéo. Cette tactique sophistiquée représente un défi majeur pour les organismes d’application de la loi dans la recherche et l’appréhension des coupables.

Lire aussi: Comment détecter et gérer les deepfakes à l’ère de l’IA?

La recherche de la justice par la police du Kerala

La cyber police de la ville de Kozhikode a agi rapidement en envoyant une équipe à Ahmedabad pour retrouver les accusés dans l’affaire du deepfake. L’enquête consiste à évaluer l’authenticité de l’adresse enregistrée dans un casino de Goa, que le coupable a utilisée pour enregistrer la carte SIM utilisée dans le crime. Cherchant l’aide de la police du Gujarat, la police du Kerala est déterminée à traduire les criminels en justice.

Lire aussi: L’UE appelle à des mesures pour identifier les deepfakes et le contenu IA

Notre avis

L’essor de la fraude “deepfake” pilotée par l’IA menace gravement les individus et leur argent durement gagné. Alors que le nombre de victimes augmente et que les pertes financières s’envolent, les organismes d’application de la loi du Kerala redoublent d’efforts pour lutter contre cette forme insidieuse de cybercriminalité. À l’ère de la technologie avancée, la sensibilisation et la vigilance deviennent des outils essentiels pour se protéger de ces schémas frauduleux. En restant informés et en adoptant la prudence dans les interactions en ligne, les citoyens peuvent contrecarrer les intentions malveillantes des escrocs et rendre le monde numérique plus sûr pour tous.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Google AI présente SANPO Un ensemble de données vidéo multi-attributs pour la compréhension des scènes extérieures humaines égocentriques.

Pour des tâches telles que la conduite autonome, le modèle d’intelligence artificielle doit comprendre non seul...

AI

Utilisez la recherche et la conversation de Google Vertex AI pour construire un chatbot RAG.

Google a récemment lancé son service géré RAG (Retrieval Augmented Generator), Vertex AI Search & Conversation, e...

AI

Blocage de l'iMessage de Beeper Mini d'Apple, juste une partie de la grande saga de la bulle bleue/verte

Apple prend des mesures préventives pour protéger ses clients. Beeper prétend que le dernier geste d'Apple fait exact...

AI

Paytm pour protéger l'économie de l'Inde avec l'IA révolutionner la sécurité financière

Dans une démarche révolutionnaire appelée à redéfinir le paysage du secteur financier indien, One 97 Communications L...

AI

L'ancien PDG de Google donne du pouvoir à l'armée américaine avec l'IA et le Metaverse

L’avenir de l’armée américaine s’apprête à connaître une transformation révolutionnaire. Le changem...

Actualités sur l'IA

Bonne nouvelle ! La Chine et les États-Unis discutent des dangers de l'IA.

Les scientifiques des deux superpuissances mondiales sont préoccupés par les risques de l'IA - qui peut offrir un pon...