Comment les banques doivent tirer parti de l’IA responsable pour lutter contre la criminalité financière

Utilisation de l'IA responsable par les banques contre la criminalité financière

La fraude n’est certainement pas nouvelle dans le secteur des services financiers, mais récemment, il y a eu une accélération qui mérite d’être analysée plus en détail. À mesure que la technologie se développe et évolue à un rythme rapide, les criminels ont trouvé encore plus de moyens de contourner les barrières de conformité, ce qui a conduit à une course aux armements technologiques entre ceux qui tentent de protéger les consommateurs et ceux qui cherchent à leur nuire. Les fraudeurs combinent les technologies émergentes avec la manipulation émotionnelle pour escroquer les gens de milliers de dollars, laissant aux banques la responsabilité de renforcer leurs défenses pour lutter efficacement contre cette menace évolutive.

Pour lutter contre l’épidémie croissante de fraude, les banques elles-mêmes commencent à tirer parti des nouvelles technologies. Avec des banques disposant d’une mine de données qui n’ont pas été utilisées à leur plein potentiel, la technologie de l’IA a la capacité de permettre aux banques de repérer les comportements criminels avant même qu’ils ne se produisent en analysant de vastes ensembles de données.

Risques de fraude accrus

Il est positif de voir les gouvernements du monde entier adopter une approche proactive en matière d’IA, notamment aux États-Unis et en Europe. En avril, l’administration Biden a annoncé un investissement de 140 millions de dollars dans la recherche et le développement de l’intelligence artificielle – un pas en avant certain. Cependant, l’épidémie de fraude et le rôle de cette nouvelle technologie dans la facilitation des comportements criminels ne peuvent être surestimés – quelque chose que je pense que le gouvernement doit avoir fermement à l’esprit.

La fraude a coûté aux consommateurs 8,8 milliards de dollars en 2022, soit une augmentation de 44% par rapport à 2021. Cette augmentation drastique peut largement être attribuée à la disponibilité croissante de la technologie, y compris l’IA, que les escrocs commencent à manipuler.

La Federal Trade Commission (FTC) a noté que la forme de fraude la plus répandue signalée est celle des escroqueries d’imposteurs – avec des pertes de 2,6 milliards de dollars signalées l’année dernière. Il existe plusieurs types d’escroqueries d’imposteurs, allant des criminels se faisant passer pour des organismes gouvernementaux tels que l’IRS à des membres de la famille prétendant être en difficulté ; deux tactiques utilisées pour tromper les consommateurs vulnérables afin qu’ils transfèrent volontairement de l’argent ou des actifs.

En mars de cette année, la FTC a publié un avertissement supplémentaire concernant l’utilisation par les criminels de clips audio existants pour cloner les voix de parents grâce à l’IA. Dans l’avertissement, il est indiqué “Ne faites pas confiance à la voix”, un rappel frappant pour aider les consommateurs à éviter d’envoyer involontairement de l’argent aux fraudeurs.

Les types de fraude utilisés par les criminels deviennent de plus en plus variés et sophistiqués, avec les escroqueries romantiques continuant d’être un problème majeur. Le rapport récent de Feedzai, “L’impact humain de la fraude et de la criminalité financière sur la confiance des clients dans les banques”, a révélé que 42% des personnes aux États-Unis ont été victimes d’une escroquerie romantique.

L’IA générative, capable de générer du texte, des images et d’autres médias en réponse à des demandes, a permis aux criminels de travailler en masse, trouvant de nouvelles façons de tromper les consommateurs pour qu’ils leur remettent leur argent. ChatGPT a déjà été exploité par des fraudeurs, leur permettant de créer des messages très réalistes pour tromper les victimes en leur faisant croire qu’ils sont quelqu’un d’autre, et ce n’est que la partie émergée de l’iceberg.

À mesure que l’IA générative devient plus sophistiquée, il deviendra encore plus difficile pour les gens de différencier le réel du faux. Par conséquent, il est essentiel que les banques agissent rapidement pour renforcer leurs défenses et protéger leur base de clients.

L’IA comme outil défensif

Cependant, tout comme l’IA peut être utilisée comme un outil criminel, elle peut également aider efficacement à protéger les consommateurs. Elle peut travailler à grande vitesse en analysant de vastes quantités de données pour prendre des décisions intelligentes en un clin d’œil. À une époque où les équipes de conformité sont extrêmement surchargées, l’IA contribue à décider ce qui est une transaction frauduleuse et ce qui ne l’est pas.

En adoptant l’IA, certaines banques dressent des portraits complets de leurs clients, ce qui leur permet de détecter rapidement tout comportement inhabituel. Des ensembles de données comportementales tels que les tendances des transactions ou l’heure à laquelle les gens accèdent généralement à leurs services bancaires en ligne peuvent tous contribuer à se faire une idée du comportement habituel d’une personne.

Cela est particulièrement utile pour repérer la fraude par prise de contrôle de compte, une technique utilisée par les criminels pour se faire passer pour de véritables clients et prendre le contrôle d’un compte pour effectuer des paiements non autorisés. Si le criminel se trouve dans un fuseau horaire différent ou commence à essayer d’accéder de manière erratique au compte, cela signalera ce comportement suspect et déclenchera un rapport d’activité suspecte. L’IA peut accélérer ce processus en générant automatiquement les rapports ainsi qu’en les remplissant, ce qui permet de gagner du temps et de l’argent pour les équipes de conformité.

Une IA bien formée peut également aider à réduire les faux positifs, un fardeau considérable pour les institutions financières. Les faux positifs se produisent lorsque des transactions légitimes sont signalées comme suspectes et peuvent entraîner le blocage de la transaction d’un client – ou pire, de son compte.

Identifier à tort un client comme un fraudeur est l’un des principaux problèmes auxquels les banques sont confrontées. Les recherches de Feedzai ont révélé que la moitié des consommateurs quitteraient leur banque si elle bloquait une transaction légitime, même si elle la résolvait rapidement. L’IA peut contribuer à réduire ce fardeau en dressant un meilleur portrait du client qui peut travailler rapidement pour déterminer si une transaction est légitime.

Cependant, il est primordial que les institutions financières adoptent une IA responsable et sans biais. Encore une technologie relativement nouvelle, qui dépend des compétences acquises à partir de comportements existants, elle peut adopter des comportements biaisés et prendre des décisions incorrectes, ce qui pourrait également avoir un impact négatif sur les banques et les institutions financières si elle n’est pas correctement mise en œuvre.

Les institutions financières ont la responsabilité d’en apprendre davantage sur l’IA éthique et responsable et de s’aligner avec des partenaires technologiques pour surveiller et atténuer les biais de l’IA, tout en protégeant également les consommateurs contre la fraude.

La confiance est la monnaie la plus importante qu’une banque détient et les clients veulent se sentir en sécurité en sachant que leur banque fait tout son possible pour les protéger. En agissant rapidement et de manière responsable, les institutions financières peuvent exploiter l’IA pour ériger des barrières contre les fraudeurs et se positionner au mieux pour protéger leurs clients contre les menaces criminelles en constante évolution.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more