Ethics & Security

Cybersécurité : 86 % des grandes entreprises s’appuient désormais sur l’intelligence artificielle

Face à la multiplication des cyberattaques, les grandes entreprises ne font plus confiance qu’à l’humain. L’intelligence artificielle (IA) est désormais devenue le nouveau bouclier numérique des organisations mondiales. Une étude récente du cabinet d’analyse IDC, réalisée en collaboration avec l’entreprise américaine de cybersécurité Fortinet, révèle que 86 % des grandes entreprises ont déjà intégré des solutions d’IA dans leur stratégie de défense numérique1.

L’enquête, menée auprès de plus de 400 responsables IT en Asie-Pacifique, Amérique du Nord et Europe, met en lumière une tendance irréversible : l’automatisation et l’apprentissage machine sont désormais les piliers de la cybersécurité moderne.

Les cyberattaques sont devenues plus fréquentes, plus sophistiquées et plus coûteuses. En 2024, le coût moyen d’une violation de données a atteint 4,88 millions de dollars selon IBM Security, un record historique2. En parallèle, le nombre d’incidents signalés à l’échelle mondiale a augmenté de 38 % entre 2022 et 2024, touchant particulièrement les secteurs de la finance, de la santé et de l’énergie.

L’IA apparaît donc comme une nécessité stratégique :

  • 73 % des entreprises interrogées déclarent qu’elles seraient incapables de gérer la complexité actuelle des menaces sans IA.
  • 61 % affirment que l’IA a permis de réduire de moitié le temps de détection et de réponse aux incidents.
  • Et près de 40 % estiment que ces outils ont évité des pertes financières directes lors d’attaques ciblées.

 « Nous sommes entrés dans l’ère de la cybersécurité prédictive : l’intelligence artificielle ne réagit plus, elle anticipe », résume Michael Xie, président et directeur technique de Fortinet.

Les solutions de cybersécurité fondées sur l’IA ne se contentent plus d’analyser les menaces connues. Elles apprennent de chaque attaque, construisent des modèles comportementaux et anticipent les signaux faibles d’une intrusion. Grâce à des algorithmes d’auto-apprentissage, ces systèmes détectent en quelques millisecondes des comportements anormaux sur un réseau d’entreprise ou dans le cloud.

Fortinet, l’un des pionniers de cette approche, déploie désormais un modèle baptisé FortiAI, capable d’analyser plus de 10 milliards d’événements quotidiens dans le monde.
L’outil combine apprentissage supervisé et non supervisé pour repérer des schémas inconnus, une arme précieuse contre les attaques “zéro-day”, encore invisibles aux antivirus traditionnels.

L’étude d’IDC indique que :

  • 57 % des grandes entreprises utilisent aujourd’hui des systèmes d’analyse comportementale basés sur l’IA,
  • 45 % intègrent des agents autonomes capables de bloquer une menace sans intervention humaine,
  • et 34 % testent déjà des solutions de cybersécurité générative, capables de produire des scénarios d’attaque fictifs pour entraîner les défenses.

Si cette enquête met en avant la région Asie-Pacifique, c’est parce qu’elle enregistre l’une des croissances les plus rapides en matière de cybersécurité basée sur l’IA.
Au Vietnam, plus de 8 grandes entreprises sur 10 affirment avoir recours à des solutions d’IA pour protéger leurs systèmes d’information, selon l’étude IDC-Fortinet1.

Ce pays, en plein essor numérique, a vu les cyberattaques augmenter de 47 % entre 2023 et 2024, notamment dans les secteurs bancaires et gouvernementaux.
Les entreprises y investissent massivement dans l’IA pour renforcer la détection automatisée, filtrer le trafic malveillant et réduire le besoin d’expertise locale, encore limitée.

En Europe, les chiffres suivent la même tendance : selon ENISA, près de 80 % des grandes entreprises européennes utilisent désormais des systèmes d’analyse automatisée pour prévenir les intrusions. En France, la loi sur la sécurité numérique de 2025 encourage explicitement l’usage de l’IA dans les infrastructures critiques, sous condition de transparence des algorithmes.

Les entreprises qui ont adopté l’IA en cybersécurité témoignent d’une réduction moyenne de 60 % des incidents critiques.
Les algorithmes permettent de :

  • détecter les attaques 30 fois plus vite que les équipes humaines,
  • automatiser jusqu’à 70 % des réponses,
  • et réduire de 45 % le volume de fausses alertes, longtemps considérées comme un frein à la réactivité.

La combinaison entre IA et supervision humaine crée une forme d’intelligence “hybride” :
l’algorithme repère, classe et neutralise, pendant que les analystes se concentrent sur les menaces stratégiques et les scénarios complexes.

« L’humain garde le dernier mot, mais la machine lui donne de la hauteur de vue », explique Nguyen Thanh Binh, directeur technique d’une grande entreprise énergétique vietnamienne interrogée par IDC.

Si l’IA renforce la sécurité, elle ouvre aussi de nouvelles vulnérabilités.
Les experts alertent sur le risque de cyberattaques alimentées par IA, capables de contourner les filtres automatisés ou de falsifier des données d’apprentissage. Selon Gartner, 20 % des cyberattaques en 2025 exploiteront des outils d’IA générative pour créer du code malveillant ou des campagnes de phishing ultra-ciblées. La frontière entre défense et attaque devient donc plus floue : les deux camps utilisent la même technologie.

Les chercheurs d’IDC insistent sur la nécessité d’une gouvernance algorithmique claire, incluant :

  • des protocoles d’audit réguliers,
  • des bases de données d’entraînement vérifiées,
  • et une supervision humaine continue pour éviter les biais décisionnels.

L’Union européenne travaille déjà sur un cadre réglementaire spécifique : le Cyber Resilience Act, prévu pour 2026, qui imposera aux entreprises de démontrer la transparence et la robustesse de leurs systèmes d’IA.

L’adoption massive de l’IA marque un tournant dans la cybersécurité mondiale. Les grandes entreprises comprennent que la défense numérique ne repose plus sur la réaction, mais sur la prévision et l’apprentissage en continu. Pour autant, la technologie seule ne suffit pas. Les experts s’accordent à dire que la cybersécurité de demain sera hybride : une collaboration entre machines apprenantes et professionnels formés à interpréter, corriger et orienter les décisions de l’IA.

 « L’intelligence artificielle ne remplace pas l’intelligence humaine : elle la prolonge », rappelle Ken Xie, fondateur de Fortinet.

Pour approfondir, consultez notre article « DINOv3 par Meta : l’auto‑supervision au service d’une analyse visuelle de précision » qui montre comment l’IA améliore la fiabilité des systèmes de détection et de reconnaissance, un enjeu clé pour la cybersécurité moderne.

1.IDC & Fortinet. (2024). *Cybersecurity Skills Gap and AI Adoption Report*
https://www.fortinet.com/content/dam/fortinet/assets/reports/report-idc-ai-cybersecurity-2024.pdf

2. IBM Security. (2024). *Cost of a Data Breach Report 2024*.
https://www.ibm.com/reports/data-breach

Recevez le
"Parlons IA"
chaque semaine dans votre votre boîte de réception

Nous sélectionnons chaque semaine un article pour vous tenir informé de l'actualité de l'Intelligence Artificielle

Nous ne spammons pas ! Consultez notre politique de données personnelles pour plus d’informations.

Postes connexes
Ethics & Security

L’IA de Google entre dans la cybersécurité : un nouvel agent pour protéger le code des développeurs

La cybersécurité devient un champ d’application prioritaire pour l’intelligence artificielle. Confronté à la complexité croissante des systèmes informatiques et à la multiplication des attaques ciblant les chaînes logicielles, Google dévoile un nouvel agent d’intelligence artificielle…
Ethics & Security

Vibe hacking : quand les utilisateurs manipulent le comportement des IA génératives

Depuis l’émergence des grands modèles de langage, l’attention des chercheurs et développeurs s’est portée sur la sécurisation de leurs réponses. Les mécanismes de filtrage, d’alignement et de contrôle ont pour objectif de rendre les IA “utiles, honnêtes et inoffensives”. Pourtant, une nouvelle forme de contournement, plus subtile que les jailbreaks ou les prompt injections, commence à faire parler d’elle : le « vibe hacking ».
Avancées technologiques en IAEthics & SecurityHumans & robotsIA & EducationInnovation & IAJobs & Workplace

Parlons IA – 11 Avril 2025

Une sélection d’articles sur l’IA : nouveautés tech, réflexions éthiques, modèles innovants et impacts sur l’éducation et le travail.
La clinique de l'IA

Vous souhaitez soumettre un projet à la clinique de l'IA et travailler avec nos étudiants.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *