Site icon aivancity blog

dAIsy : Une Intelligence Artificielle défensive pour perturber les escrocs téléphoniques

La voix est douce, légèrement hésitante. Elle parle de sa famille, demande des précisions, perd volontairement le fil… mais ce n’est pas une véritable personne âgée. À l’autre bout du fil, un escroc pense avoir piégé une cible vulnérable. Il ne se doute pas qu’il est en train de gaspiller son temps face à une intelligence artificielle conçue pour le piéger.

C’est précisément l’objectif de Daisy (ou dAIsy), le nouveau chatbot lancé par O2, l’opérateur de téléphonie mobile britannique. Conçu pour mener en bateau les escrocs qui tentent d’arnaquer des personnes vulnérables, Daisy incarne une grand-mère numérique, lente, attachante, mais surtout… extrêmement patiente. Voici comment ça marche.

Ce type d’initiative s’inscrit dans la continuité de projets comme Jolly Roger Telephone Co., aux États-Unis, qui utilisent des bots vocaux imitant des “mamies” pour rendre la vie difficile aux escrocs téléphoniques.

Une réponse originale à une menace bien réelle : selon la FTC américaine, plus de 2,5 millions de plaintes pour escroqueries téléphoniques ont été enregistrées en 2024 aux États-Unis, causant plus de 1,1 milliard de dollars de pertes1.

L’IA utilise une combinaison de technologies accessibles mais bien orchestrées :

Le bot simule une conversation réelle tout en adoptant une posture confuse mais polie, ce qui pousse les arnaqueurs à poursuivre le dialogue.

Selon les données internes du projet, les IA de Jolly Roger détournent en moyenne 15 à 25 minutes par appel, avec des records dépassant les 40 minutes de conversation2.

Cette stratégie s’inscrit dans une nouvelle catégorie d’intelligence artificielle : l’IA défensive proactive, qui agit non seulement en amont (filtrage), mais aussi en perturbant les actions malveillantes.

Plutôt que de simplement bloquer les appels, cette IA utilise l’arme du temps pour réduire l’efficacité opérationnelle des réseaux de fraude. Un escroc occupé par une fausse victime ne peut pas contacter d’autres cibles — un levier puissant contre les attaques de masse.

Des tests menés sur des numéros de leurre ont montré que ces IA ont permis de réduire de 28 % le nombre d’appels actifs dans certains réseaux d’arnaques automatisés3.

Derrière cette idée malicieuse, plusieurs questions importantes se posent :

Si la finalité est défensive, les outils utilisés relèvent des mêmes technologies que celles qui alimentent les deepfakes vocaux ou les IA manipulatrices. Cela appelle donc une gouvernance responsable, même dans des usages humoristiques ou justiciers.

Ce projet montre qu’il est possible de détourner les capacités de l’intelligence artificielle vers des formes de cybersécurité créative, sans déployer d’infrastructure lourde ni mobiliser des moyens industriels.

Au lieu de recourir à la surveillance, il s’appuie sur l’humour, le détournement et la ruse — des armes anciennes, mais ici réactualisées par l’IA.

Au-delà de l’efficacité tactique, ces bots participent aussi à la sensibilisation du public sur les arnaques téléphoniques, en vulgarisant les méthodes frauduleuses et en fournissant des cas concrets à observer.

Découvrez également cet article éclairant : Intelligence artificielle et défense du futur : le champ de bataille déterminant pour l’autonomie de l’Europe
Il explore comment l’IA redéfinit la défense européenne face aux cybermenaces et aux menaces hybrides, dans un contexte similaire à celui des escroqueries téléphoniques ciblées — soulignant le rôle de l’IA comme outil de dissuasion et de protection citoyenne.

1. Federal Trade Commission (FTC). (2024). Consumer Sentinel Network Data Book.
https://www.ftc.gov/

2. Jolly Roger Telephone Co. (2025). Grandma Bots: Stats and Outcomes.
https://jollyrogertelephone.com/

3. MIT CSAIL. (2025). AI Counter-Scam Systems in Telephony: A Case Study.
https://csail.mit.edu/ai-voice-defense

Quitter la version mobile