Generative AI

dAIsy : Une Intelligence Artificielle défensive pour perturber les escrocs téléphoniques

La voix est douce, légèrement hésitante. Elle parle de sa famille, demande des précisions, perd volontairement le fil… mais ce n’est pas une véritable personne âgée. À l’autre bout du fil, un escroc pense avoir piégé une cible vulnérable. Il ne se doute pas qu’il est en train de gaspiller son temps face à une intelligence artificielle conçue pour le piéger.

C’est précisément l’objectif de Daisy (ou dAIsy), le nouveau chatbot lancé par O2, l’opérateur de téléphonie mobile britannique. Conçu pour mener en bateau les escrocs qui tentent d’arnaquer des personnes vulnérables, Daisy incarne une grand-mère numérique, lente, attachante, mais surtout… extrêmement patiente. Voici comment ça marche.

Ce type d’initiative s’inscrit dans la continuité de projets comme Jolly Roger Telephone Co., aux États-Unis, qui utilisent des bots vocaux imitant des “mamies” pour rendre la vie difficile aux escrocs téléphoniques.

Une réponse originale à une menace bien réelle : selon la FTC américaine, plus de 2,5 millions de plaintes pour escroqueries téléphoniques ont été enregistrées en 2024 aux États-Unis, causant plus de 1,1 milliard de dollars de pertes1.

L’IA utilise une combinaison de technologies accessibles mais bien orchestrées :

  • un modèle de langage pour comprendre le discours des escrocs et générer des réponses adaptées ;
  • une synthèse vocale réaliste imitant les particularités d’une voix âgée (intonation, hésitation, débit) ;
  • une détection automatisée de mots-clés suspects, comme “virement”, “problème bancaire”, “urgence familiale”…

Le bot simule une conversation réelle tout en adoptant une posture confuse mais polie, ce qui pousse les arnaqueurs à poursuivre le dialogue.

Selon les données internes du projet, les IA de Jolly Roger détournent en moyenne 15 à 25 minutes par appel, avec des records dépassant les 40 minutes de conversation2.

Cette stratégie s’inscrit dans une nouvelle catégorie d’intelligence artificielle : l’IA défensive proactive, qui agit non seulement en amont (filtrage), mais aussi en perturbant les actions malveillantes.

Plutôt que de simplement bloquer les appels, cette IA utilise l’arme du temps pour réduire l’efficacité opérationnelle des réseaux de fraude. Un escroc occupé par une fausse victime ne peut pas contacter d’autres cibles — un levier puissant contre les attaques de masse.

Des tests menés sur des numéros de leurre ont montré que ces IA ont permis de réduire de 28 % le nombre d’appels actifs dans certains réseaux d’arnaques automatisés3.

Derrière cette idée malicieuse, plusieurs questions importantes se posent :

  • Stéréotypes vocaux : comment éviter que la “voix de mamie” ne devienne une caricature ou un prétexte humoristique détourné ?
  • Consentement et confidentialité : les conversations sont parfois enregistrées pour analyse — mais dans quels cadres légaux ?
  • Usages détournés : ce type de technologie pourrait-il être recyclé à des fins malveillantes (désinformation, harcèlement) ?

Si la finalité est défensive, les outils utilisés relèvent des mêmes technologies que celles qui alimentent les deepfakes vocaux ou les IA manipulatrices. Cela appelle donc une gouvernance responsable, même dans des usages humoristiques ou justiciers.

Ce projet montre qu’il est possible de détourner les capacités de l’intelligence artificielle vers des formes de cybersécurité créative, sans déployer d’infrastructure lourde ni mobiliser des moyens industriels.

Au lieu de recourir à la surveillance, il s’appuie sur l’humour, le détournement et la ruse — des armes anciennes, mais ici réactualisées par l’IA.

Au-delà de l’efficacité tactique, ces bots participent aussi à la sensibilisation du public sur les arnaques téléphoniques, en vulgarisant les méthodes frauduleuses et en fournissant des cas concrets à observer.

Découvrez également cet article éclairant : Intelligence artificielle et défense du futur : le champ de bataille déterminant pour l’autonomie de l’Europe
Il explore comment l’IA redéfinit la défense européenne face aux cybermenaces et aux menaces hybrides, dans un contexte similaire à celui des escroqueries téléphoniques ciblées — soulignant le rôle de l’IA comme outil de dissuasion et de protection citoyenne.

1. Federal Trade Commission (FTC). (2024). Consumer Sentinel Network Data Book.
https://www.ftc.gov/

2. Jolly Roger Telephone Co. (2025). Grandma Bots: Stats and Outcomes.
https://jollyrogertelephone.com/

3. MIT CSAIL. (2025). AI Counter-Scam Systems in Telephony: A Case Study.
https://csail.mit.edu/ai-voice-defense

Don't miss our upcoming articles!

Get the latest articles written by aivancity experts and professors delivered straight to your inbox.

We don't send spam! Please see our privacy policy for more information.

Don't miss our upcoming articles!

Get the latest articles written by aivancity experts and professors delivered straight to your inbox.

We don't send spam! Please see our privacy policy for more information.

Related posts
Generative AI

OpenAI unveils GPT-5.4, a model designed for complex reasoning and coding

GPT-5.4 is available in two main versions: GPT-5.4 Thinking and GPT-5.4 Pro. Both versions are based on the same architecture but differ in terms of performance, speed, and pricing. One of the advancements…
Generative AI

Nano Banana 2: Google Accelerates Image AI at Lightning Speed

Google is continuing its push into generative visual AI with the launch of Nano Banana 2, also known as Gemini 3.1 Flash Image. This new model does more than just improve…
Generative AI

Gemini 3.1 Pro: Google's answer to the most advanced models on the market

Google is continuing to ramp up its strategic push into generative artificial intelligence with the launch of Gemini 3.1 Pro, a version touted as significantly more powerful than its predecessor. Against a backdrop of intense competition among the major players…
The AI Clinic

Would you like to submit a project to the AI Clinic and work with our students?

Leave a comment

Your email address will not be published. Required fields are marked with *