Une voix de grand-mère, une IA redoutable
La voix est douce, légèrement hésitante. Elle parle de sa famille, demande des précisions, perd volontairement le fil… mais ce n’est pas une véritable personne âgée. À l’autre bout du fil, un escroc pense avoir piégé une cible vulnérable. Il ne se doute pas qu’il est en train de gaspiller son temps face à une intelligence artificielle conçue pour le piéger.
C’est précisément l’objectif de Daisy (ou dAIsy), le nouveau chatbot lancé par O2, l’opérateur de téléphonie mobile britannique. Conçu pour mener en bateau les escrocs qui tentent d’arnaquer des personnes vulnérables, Daisy incarne une grand-mère numérique, lente, attachante, mais surtout… extrêmement patiente. Voici comment ça marche.
Ce type d’initiative s’inscrit dans la continuité de projets comme Jolly Roger Telephone Co., aux États-Unis, qui utilisent des bots vocaux imitant des “mamies” pour rendre la vie difficile aux escrocs téléphoniques.
Une réponse originale à une menace bien réelle : selon la FTC américaine, plus de 2,5 millions de plaintes pour escroqueries téléphoniques ont été enregistrées en 2024 aux États-Unis, causant plus de 1,1 milliard de dollars de pertes1.
Comment fonctionne cette IA anticon
L’IA utilise une combinaison de technologies accessibles mais bien orchestrées :
- un modèle de langage pour comprendre le discours des escrocs et générer des réponses adaptées ;
- une synthèse vocale réaliste imitant les particularités d’une voix âgée (intonation, hésitation, débit) ;
- une détection automatisée de mots-clés suspects, comme “virement”, “problème bancaire”, “urgence familiale”…
Le bot simule une conversation réelle tout en adoptant une posture confuse mais polie, ce qui pousse les arnaqueurs à poursuivre le dialogue.
Selon les données internes du projet, les IA de Jolly Roger détournent en moyenne 15 à 25 minutes par appel, avec des records dépassant les 40 minutes de conversation2.
Une forme d’IA défensive et créative
Cette stratégie s’inscrit dans une nouvelle catégorie d’intelligence artificielle : l’IA défensive proactive, qui agit non seulement en amont (filtrage), mais aussi en perturbant les actions malveillantes.
Plutôt que de simplement bloquer les appels, cette IA utilise l’arme du temps pour réduire l’efficacité opérationnelle des réseaux de fraude. Un escroc occupé par une fausse victime ne peut pas contacter d’autres cibles — un levier puissant contre les attaques de masse.
Des tests menés sur des numéros de leurre ont montré que ces IA ont permis de réduire de 28 % le nombre d’appels actifs dans certains réseaux d’arnaques automatisés3.
Quels enjeux techniques et éthiques ?
Derrière cette idée malicieuse, plusieurs questions importantes se posent :
- Stéréotypes vocaux : comment éviter que la “voix de mamie” ne devienne une caricature ou un prétexte humoristique détourné ?
- Consentement et confidentialité : les conversations sont parfois enregistrées pour analyse — mais dans quels cadres légaux ?
- Usages détournés : ce type de technologie pourrait-il être recyclé à des fins malveillantes (désinformation, harcèlement) ?
Si la finalité est défensive, les outils utilisés relèvent des mêmes technologies que celles qui alimentent les deepfakes vocaux ou les IA manipulatrices. Cela appelle donc une gouvernance responsable, même dans des usages humoristiques ou justiciers.
Quand l’humour rencontre la cybersécurité
Ce projet montre qu’il est possible de détourner les capacités de l’intelligence artificielle vers des formes de cybersécurité créative, sans déployer d’infrastructure lourde ni mobiliser des moyens industriels.
Au lieu de recourir à la surveillance, il s’appuie sur l’humour, le détournement et la ruse — des armes anciennes, mais ici réactualisées par l’IA.
Au-delà de l’efficacité tactique, ces bots participent aussi à la sensibilisation du public sur les arnaques téléphoniques, en vulgarisant les méthodes frauduleuses et en fournissant des cas concrets à observer.
Pour aller plus loin
Découvrez également cet article éclairant : Intelligence artificielle et défense du futur : le champ de bataille déterminant pour l’autonomie de l’Europe
Il explore comment l’IA redéfinit la défense européenne face aux cybermenaces et aux menaces hybrides, dans un contexte similaire à celui des escroqueries téléphoniques ciblées — soulignant le rôle de l’IA comme outil de dissuasion et de protection citoyenne.
Références
1. Federal Trade Commission (FTC). (2024). Consumer Sentinel Network Data Book.
https://www.ftc.gov/
2. Jolly Roger Telephone Co. (2025). Grandma Bots: Stats and Outcomes.
https://jollyrogertelephone.com/
3. MIT CSAIL. (2025). AI Counter-Scam Systems in Telephony: A Case Study.
https://csail.mit.edu/ai-voice-defense