IA GénérativesNon catégorisé

dAIsy : Une Intelligence Artificielle défensive pour perturber les escrocs téléphoniques

La voix est douce, légèrement hésitante. Elle parle de sa famille, demande des précisions, perd volontairement le fil… mais ce n’est pas une véritable personne âgée. À l’autre bout du fil, un escroc pense avoir piégé une cible vulnérable. Il ne se doute pas qu’il est en train de gaspiller son temps face à une intelligence artificielle conçue pour le piéger.

C’est précisément l’objectif de Daisy (ou dAIsy), le nouveau chatbot lancé par O2, l’opérateur de téléphonie mobile britannique. Conçu pour mener en bateau les escrocs qui tentent d’arnaquer des personnes vulnérables, Daisy incarne une grand-mère numérique, lente, attachante, mais surtout… extrêmement patiente. Voici comment ça marche.

Ce type d’initiative s’inscrit dans la continuité de projets comme Jolly Roger Telephone Co., aux États-Unis, qui utilisent des bots vocaux imitant des “mamies” pour rendre la vie difficile aux escrocs téléphoniques.

Une réponse originale à une menace bien réelle : selon la FTC américaine, plus de 2,5 millions de plaintes pour escroqueries téléphoniques ont été enregistrées en 2024 aux États-Unis, causant plus de 1,1 milliard de dollars de pertes1.

L’IA utilise une combinaison de technologies accessibles mais bien orchestrées :

  • un modèle de langage pour comprendre le discours des escrocs et générer des réponses adaptées ;
  • une synthèse vocale réaliste imitant les particularités d’une voix âgée (intonation, hésitation, débit) ;
  • une détection automatisée de mots-clés suspects, comme “virement”, “problème bancaire”, “urgence familiale”…

Le bot simule une conversation réelle tout en adoptant une posture confuse mais polie, ce qui pousse les arnaqueurs à poursuivre le dialogue.

Selon les données internes du projet, les IA de Jolly Roger détournent en moyenne 15 à 25 minutes par appel, avec des records dépassant les 40 minutes de conversation2.

Cette stratégie s’inscrit dans une nouvelle catégorie d’intelligence artificielle : l’IA défensive proactive, qui agit non seulement en amont (filtrage), mais aussi en perturbant les actions malveillantes.

Plutôt que de simplement bloquer les appels, cette IA utilise l’arme du temps pour réduire l’efficacité opérationnelle des réseaux de fraude. Un escroc occupé par une fausse victime ne peut pas contacter d’autres cibles — un levier puissant contre les attaques de masse.

Des tests menés sur des numéros de leurre ont montré que ces IA ont permis de réduire de 28 % le nombre d’appels actifs dans certains réseaux d’arnaques automatisés3.

Derrière cette idée malicieuse, plusieurs questions importantes se posent :

  • Stéréotypes vocaux : comment éviter que la “voix de mamie” ne devienne une caricature ou un prétexte humoristique détourné ?
  • Consentement et confidentialité : les conversations sont parfois enregistrées pour analyse — mais dans quels cadres légaux ?
  • Usages détournés : ce type de technologie pourrait-il être recyclé à des fins malveillantes (désinformation, harcèlement) ?

Si la finalité est défensive, les outils utilisés relèvent des mêmes technologies que celles qui alimentent les deepfakes vocaux ou les IA manipulatrices. Cela appelle donc une gouvernance responsable, même dans des usages humoristiques ou justiciers.

Ce projet montre qu’il est possible de détourner les capacités de l’intelligence artificielle vers des formes de cybersécurité créative, sans déployer d’infrastructure lourde ni mobiliser des moyens industriels.

Au lieu de recourir à la surveillance, il s’appuie sur l’humour, le détournement et la ruse — des armes anciennes, mais ici réactualisées par l’IA.

Au-delà de l’efficacité tactique, ces bots participent aussi à la sensibilisation du public sur les arnaques téléphoniques, en vulgarisant les méthodes frauduleuses et en fournissant des cas concrets à observer.

Découvrez également cet article éclairant : Intelligence artificielle et défense du futur : le champ de bataille déterminant pour l’autonomie de l’Europe
Il explore comment l’IA redéfinit la défense européenne face aux cybermenaces et aux menaces hybrides, dans un contexte similaire à celui des escroqueries téléphoniques ciblées — soulignant le rôle de l’IA comme outil de dissuasion et de protection citoyenne.

1. Federal Trade Commission (FTC). (2024). Consumer Sentinel Network Data Book.
https://www.ftc.gov/

2. Jolly Roger Telephone Co. (2025). Grandma Bots: Stats and Outcomes.
https://jollyrogertelephone.com/

3. MIT CSAIL. (2025). AI Counter-Scam Systems in Telephony: A Case Study.
https://csail.mit.edu/ai-voice-defense

Ne ratez pas nos prochains articles !

Recevez les prochains articles écrits par les experts et professeurs aivancity directement dans votre boîte de réception.

Nous ne spammons pas ! Consultez notre politique de données personnelles pour plus d’informations.

Ne ratez pas nos prochains articles !

Recevez les prochains articles écrits par les experts et professeurs aivancity directement dans votre boîte de réception.

Nous ne spammons pas ! Consultez notre politique de données personnelles pour plus d’informations.

Related posts
IA Génératives

Google transforme la météorologie avec une IA capable de prévoir l’évolution heure par heure

Google accélère dans la météorologie numérique avec « WeatherNext 2 », un modèle de prévision ultra-performant capable d’anticiper l’évolution du temps heure par heure. Cette nouvelle génération d’IA, conçue dans la continuité des travaux de DeepMind en…
IA Génératives

Étude : la moitié des enfants utilisent ChatGPT, souvent avec le soutien parental

OpenAI poursuit l’évolution de ChatGPT avec une fonctionnalité qui pourrait transformer les usages collaboratifs de l’intelligence artificielle. L’entreprise a commencé à tester les discussions de groupe dans quatre pays pilotes. Cette nouvelle capacité permet à…
IA Génératives

Nano Banana 2, la future IA de Google qui floute la frontière entre image générée et photo réelle

La fuite de Nano Banana 2 révèle la prochaine avancée majeure de Google dans la génération d’images. Cette nouvelle version, qui succède à un premier modèle viral en 2024, promet une expérience visuelle d’un réalisme…
La clinique de l'IA

Vous souhaitez soumettre un projet à la clinique de l'IA et travailler avec nos étudiants.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *