IA GénérativesNon catégorisé

dAIsy : Une Intelligence Artificielle défensive pour perturber les escrocs téléphoniques

La voix est douce, légèrement hésitante. Elle parle de sa famille, demande des précisions, perd volontairement le fil… mais ce n’est pas une véritable personne âgée. À l’autre bout du fil, un escroc pense avoir piégé une cible vulnérable. Il ne se doute pas qu’il est en train de gaspiller son temps face à une intelligence artificielle conçue pour le piéger.

C’est précisément l’objectif de Daisy (ou dAIsy), le nouveau chatbot lancé par O2, l’opérateur de téléphonie mobile britannique. Conçu pour mener en bateau les escrocs qui tentent d’arnaquer des personnes vulnérables, Daisy incarne une grand-mère numérique, lente, attachante, mais surtout… extrêmement patiente. Voici comment ça marche.

Ce type d’initiative s’inscrit dans la continuité de projets comme Jolly Roger Telephone Co., aux États-Unis, qui utilisent des bots vocaux imitant des “mamies” pour rendre la vie difficile aux escrocs téléphoniques.

Une réponse originale à une menace bien réelle : selon la FTC américaine, plus de 2,5 millions de plaintes pour escroqueries téléphoniques ont été enregistrées en 2024 aux États-Unis, causant plus de 1,1 milliard de dollars de pertes1.

L’IA utilise une combinaison de technologies accessibles mais bien orchestrées :

  • un modèle de langage pour comprendre le discours des escrocs et générer des réponses adaptées ;
  • une synthèse vocale réaliste imitant les particularités d’une voix âgée (intonation, hésitation, débit) ;
  • une détection automatisée de mots-clés suspects, comme “virement”, “problème bancaire”, “urgence familiale”…

Le bot simule une conversation réelle tout en adoptant une posture confuse mais polie, ce qui pousse les arnaqueurs à poursuivre le dialogue.

Selon les données internes du projet, les IA de Jolly Roger détournent en moyenne 15 à 25 minutes par appel, avec des records dépassant les 40 minutes de conversation2.

Cette stratégie s’inscrit dans une nouvelle catégorie d’intelligence artificielle : l’IA défensive proactive, qui agit non seulement en amont (filtrage), mais aussi en perturbant les actions malveillantes.

Plutôt que de simplement bloquer les appels, cette IA utilise l’arme du temps pour réduire l’efficacité opérationnelle des réseaux de fraude. Un escroc occupé par une fausse victime ne peut pas contacter d’autres cibles — un levier puissant contre les attaques de masse.

Des tests menés sur des numéros de leurre ont montré que ces IA ont permis de réduire de 28 % le nombre d’appels actifs dans certains réseaux d’arnaques automatisés3.

Derrière cette idée malicieuse, plusieurs questions importantes se posent :

  • Stéréotypes vocaux : comment éviter que la “voix de mamie” ne devienne une caricature ou un prétexte humoristique détourné ?
  • Consentement et confidentialité : les conversations sont parfois enregistrées pour analyse — mais dans quels cadres légaux ?
  • Usages détournés : ce type de technologie pourrait-il être recyclé à des fins malveillantes (désinformation, harcèlement) ?

Si la finalité est défensive, les outils utilisés relèvent des mêmes technologies que celles qui alimentent les deepfakes vocaux ou les IA manipulatrices. Cela appelle donc une gouvernance responsable, même dans des usages humoristiques ou justiciers.

Ce projet montre qu’il est possible de détourner les capacités de l’intelligence artificielle vers des formes de cybersécurité créative, sans déployer d’infrastructure lourde ni mobiliser des moyens industriels.

Au lieu de recourir à la surveillance, il s’appuie sur l’humour, le détournement et la ruse — des armes anciennes, mais ici réactualisées par l’IA.

Au-delà de l’efficacité tactique, ces bots participent aussi à la sensibilisation du public sur les arnaques téléphoniques, en vulgarisant les méthodes frauduleuses et en fournissant des cas concrets à observer.

Découvrez également cet article éclairant : Intelligence artificielle et défense du futur : le champ de bataille déterminant pour l’autonomie de l’Europe
Il explore comment l’IA redéfinit la défense européenne face aux cybermenaces et aux menaces hybrides, dans un contexte similaire à celui des escroqueries téléphoniques ciblées — soulignant le rôle de l’IA comme outil de dissuasion et de protection citoyenne.

1. Federal Trade Commission (FTC). (2024). Consumer Sentinel Network Data Book.
https://www.ftc.gov/

2. Jolly Roger Telephone Co. (2025). Grandma Bots: Stats and Outcomes.
https://jollyrogertelephone.com/

3. MIT CSAIL. (2025). AI Counter-Scam Systems in Telephony: A Case Study.
https://csail.mit.edu/ai-voice-defense

Recevez le
"Parlons IA"
chaque semaine dans votre votre boîte de réception

Nous sélectionnons chaque semaine un article pour vous tenir informé de l'actualité de l'Intelligence Artificielle

Nous ne spammons pas ! Consultez notre politique de données personnelles pour plus d’informations.

Postes connexes
IA Génératives

Coloriser le passé : quand l’intelligence artificielle de Google sublime les photos en noir et blanc

Les vieilles photos en noir et blanc ont une aura particulière : elles figent le passé, capturent une époque, évoquent des souvenirs souvent intimes ou familiaux. Mais elles restent parfois difficiles d’accès pour les jeunes générations, peu familières de leur contexte visuel. Grâce aux avancées récentes de l’intelligence artificielle, il devient désormais possible de redonner des couleurs au passé, avec une précision saisissante.
IA GénérativesNon catégorisé

ChatGPT passe à la vitesse supérieure : OpenAI dévoile GPT‑5

L’annonce était attendue depuis plus d’un an. Le 20 août 2025, OpenAI a officiellement dévoilé GPT 5, la nouvelle version de son modèle de langage phare, intégrée à ChatGPT et à l’API OpenAI. Cette sortie intervient dans un contexte de forte concurrence, alors que Claude 3.5 d’Anthropic, Gemini 2 de Google et DeepSeek-Vision font évoluer à grande vitesse le paysage de l’intelligence artificielle générative.
IA Génératives

Gemini dans l’écosystème Apple : vers un Siri plus intelligent, made by Google

Apple et Google ont longtemps incarné une rivalité emblématique du monde technologique. L’un prônant le contrôle vertical de l’expérience utilisateur, l’autre favorisant une approche plus ouverte et axée sur les services en ligne. Mais en juin 2025, à l’occasion de sa conférence WWDC, Apple a surpris en annonçant l’intégration de Gemini, le modèle d’IA générative développé par Google, dans certaines fonctionnalités avancées de Siri.
La clinique de l'IA

Vous souhaitez soumettre un projet à la clinique de l'IA et travailler avec nos étudiants.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *