Par Dr. Tawhid CHTIOUI, Président-fondateur d’aivancity, la Grande Ecole de l’IA et de la Data
1. L’illusion confortable de la formation technique
À la fin de 2025, un consensus étrange s’est installé. Face à l’irruption de l’intelligence artificielle dans toutes les sphères de la société, le monde a décidé de former, massivement, rapidement, gratuitement… Comme pour conjurer l’angoisse par la pédagogie.
Former à l’IA est devenu un impératif. Mais une question demeure soigneusement évitée : former à quoi ?
Jamais l’IA n’a été aussi accessible. En quelques clics, chacun peut désormais apprendre à dialoguer avec des modèles, à générer du texte, du code, des images, à automatiser des tâches complexes. Jamais, pourtant, la compréhension collective de ce que l’IA fait réellement à nos sociétés n’a été aussi fragile. Nous apprenons à manier une puissance que nous ne pensons pas.
La scène est presque caricaturale. Les grandes plateformes ouvrent leurs cours. Les universités diffusent leurs enseignements. Microsoft lance un AI Learning Challenge mondial et met en accès libre des dizaines de modules orientés compétences, productivité, usage d’outils et certifications professionnelles. Google déploie Google Skills, une plateforme de milliers de contenus gratuits sur l’IA, centrés sur le machine learning, les API, les usages cloud et l’optimisation des workflows. Stanford ouvre au public ses cours emblématiques de deep learning et de NLP : un geste académique fort, mais dont le périmètre reste largement technique, les dimensions sociétales n’apparaissant qu’à la marge. MIT diffuse massivement ses cours de machine learning et d’IA via OpenCourseWare ; quelques modules abordent l’éthique, mais ils restent périphériques face au cœur technique de l’offre.
Partout, les intitulés se répètent, comme un mantra rassurant : AI for Everyone, Prompt Engineering, Machine Learning Basics, Build with AI. Le message implicite est puissant, presque rassurant : comprendre l’IA, ce serait savoir l’utiliser : cliquer, paramétrer, optimiser. Produire plus vite, coder plus efficacement, automatiser davantage.
Ainsi, on apprend à parler aux modèles, mais pas à leur déléguer (ou non) des décisions. On apprend à optimiser des algorithmes, mais pas à interroger les rapports de pouvoir qu’ils redessinent. On apprend à produire plus vite, mais pas à comprendre ce qui se déplace silencieusement : le travail, la responsabilité, la souveraineté, la confiance.
Ce réductionnisme n’est pas anodin. Il est confortable. Car la technique rassure : elle est mesurable, enseignable, certifiable. Elle donne l’illusion du contrôle. Elle permet de croire que l’IA n’est qu’un nouvel outil, sophistiqué certes, mais fondamentalement neutre. Comme si apprendre à utiliser l’électricité suffisait à comprendre la société industrielle…
Or l’intelligence artificielle n’est pas un simple progrès technique. Elle est une rupture anthropologique douce, un glissement progressif de la décision, du jugement et de la médiation vers des systèmes que nous concevons, mais que nous ne maîtrisons déjà plus pleinement.
À force de former uniquement à l’usage, nous préparons des sociétés habiles, mais aveugles. Des organisations efficaces, mais dépendantes. Des individus compétents, mais désarmés face aux conséquences de ce qu’ils manipulent.
Dès lors, la vraie question n’est pas pédagogique. Elle est politique, culturelle, civilisationnelle : peut-on sérieusement prétendre former une société à l’IA en lui apprenant seulement à cliquer sur des modèles, sans jamais lui apprendre à penser le monde qu’ils sont en train de transformer ?
2. Le malentendu fondateur : maîtriser la technique n’est pas comprendre l’IA
Il y a, au cœur du débat contemporain sur l’intelligence artificielle, un malentendu originel. Un glissement sémantique discret mais lourd de conséquences : nous avons confondu maîtrise technique et compréhension réelle.
Savoir entraîner un modèle, écrire un prompt efficace ou intégrer une API est devenu, par raccourci, synonyme de « comprendre l’IA ». Comme si l’apprentissage d’un langage de programmation suffisait à saisir ce que la programmation fait au monde. Comme si l’on pouvait appréhender la finance en apprenant à manier un tableur, ou la démocratie en connaissant la procédure du vote.
Cette confusion est rassurante. Elle permet de transformer une révolution profonde en problème de compétences. Elle déplace l’angoisse collective vers une solution simple : former plus, plus vite, plus techniquement. Mais elle repose sur une illusion dangereuse : celle selon laquelle l’IA serait une technologie parmi d’autres, complexe certes, mais fondamentalement neutre et maîtrisable.
Or l’intelligence artificielle n’est pas un outil isolé. Elle est une infrastructure invisible de décision. Elle ne se contente pas d’exécuter des tâches ; elle oriente, hiérarchise, priorise, recommande. Elle influence ce que nous voyons, ce que nous croyons, ce que nous sélectionnons, ce que nous rejetons. Elle agit moins comme une machine que comme un filtre permanent du réel.
Comprendre l’IA, ce n’est donc pas seulement savoir comment elle fonctionne, mais comprendre ce qu’elle déplace.
Elle déplace le pouvoir vers ceux qui possèdent les modèles, les données, les infrastructures. Elle déplace la responsabilité des individus vers des systèmes, puis des systèmes vers des organisations difficiles à identifier. Elle déplace le travail, en automatisant non plus seulement l’exécution, mais l’analyse, l’évaluation, parfois le jugement lui-même.
La formation exclusivement technique laisse ces déplacements hors champ. Elle apprend à optimiser sans interroger, à déployer sans arbitrer, à accélérer sans réfléchir à la direction. Elle produit des experts capables de faire fonctionner des systèmes qu’ils ne sont pas toujours en mesure de questionner.
Plus inquiétant encore : cette approche alimente une forme de déresponsabilisation collective. Si l’IA est perçue comme un simple outil, alors ses effets deviennent des effets secondaires ; ses biais, des imperfections techniques ; ses impacts sociaux, des externalités inévitables. La technique absorbe la critique, et la pensée se retire.
Mais une société ne peut pas déléguer sa compréhension du monde aux ingénieurs de ses infrastructures. Elle ne peut pas confier à des modèles statistiques le soin de redéfinir, seuls, les règles du jeu économique, social et politique.
Former à l’IA sans former à son sens, à ses limites et à ses conséquences, c’est produire une expertise sans boussole.
La question n’est donc pas de savoir si nous avons besoin de plus de compétences techniques.
Nous en avons besoin, évidemment.
La question est plus vertigineuse : que devient une société qui sait utiliser des systèmes qu’elle ne sait plus penser ?
3. L’intelligence artificielle comme fait social total
(ou pourquoi former à l’IA en 2026 ne peut plus être une affaire de technique)
L’intelligence artificielle ne transforme pas seulement nos outils. Elle transforme les conditions mêmes de la décision humaine. Elle agit sur le travail, l’économie, la gouvernance, la démocratie, l’environnement, simultanément, silencieusement, systématiquement. Elle n’est pas un secteur : elle est un milieu. C’est précisément pour cette raison que l’IA constitue un fait social total. Et c’est précisément pour cette raison qu’une formation réduite à la technique est structurellement insuffisante.
Prenons l’éthique, par exemple. Jamais elle n’a été autant invoquée. Chartes, principes, déclarations abondent. Et pourtant, l’écart entre le discours et la réalité est abyssal : 82 % des entreprises affirment disposer de principes d’IA responsable, mais seules 27 % ont mis en place des processus opérationnels concrets pour les appliquer (MIT Sloan Management Review, 2024). Autrement dit, l’éthique reste largement déclarative. Former à l’IA sans former à l’ingénierie de la responsabilité, c’est former à des systèmes puissants dépourvus de garde-fous effectifs.
La gouvernance constitue un autre angle mort majeur. Lorsqu’elle est structurée, transversale, assumée, elle réduit pourtant de 40 % les incidents liés aux biais, à la conformité ou aux usages non maîtrisés (McKinsey, Global AI Survey). Mais la gouvernance ne s’enseigne pas dans un tutoriel. Elle suppose de penser la responsabilité humaine derrière chaque décision algorithmique, de relier technique, métier, risque et stratégie. Sans cela, l’IA devient une boîte noire organisationnelle, performante, mais incontrôlable.
La transparence et l’explicabilité illustrent la même fracture. Plus de 60 % des citoyens européens estiment que les systèmes d’IA devraient pouvoir expliquer leurs décisions (OCDE, Trust in AI Report). Non pas parce qu’ils réclament une transparence totale, mais parce que la confiance exige une compréhension minimale. Or expliquer une décision algorithmique n’est pas un problème de code ; c’est un problème de responsabilité, de pédagogie, de proportionnalité au risque. Là encore, la formation purement technique passe à côté de l’essentiel.
Les données, socle de toute IA, révèlent une autre illusion. 55 % des projets d’IA échouent à cause de problèmes de qualité ou de gouvernance des données (Gartner, AI Project Failure Analysis). Ce n’est pas un échec algorithmique, c’est un échec organisationnel. À l’horizon 2026, la question n’est plus d’accumuler toujours plus de données, mais de choisir, documenter, gouverner et de poser frontalement les enjeux de souveraineté et de dépendance stratégique, notamment en Europe.
Les biais algorithmiques, eux, ne relèvent plus du soupçon mais du constat : plus de 65 % des systèmes d’IA évalués présentent des biais mesurables affectant certains groupes sociaux (Nature Machine Intelligence). Et pourtant, aucun algorithme ne corrigera seul des inégalités qui relèvent de choix sociaux et politiques. Former à l’IA sans former à l’arbitrage, c’est croire que la justice peut être automatisée.
À mesure que l’IA s’insère dans des processus critiques, elle devient aussi une nouvelle surface d’attaque. Les risques liés aux manipulations de données et aux attaques adversariales figurent parmi les menaces majeures identifiées à l’horizon 2026 (NIST, AI Risk Management Framework). Là encore, la sécurité de l’IA ne peut être pensée indépendamment de la résilience globale des organisations. Ce n’est pas une compétence isolée ; c’est une culture.
Et puis il y a l’angle que l’on préfère souvent éviter : l’environnement. La consommation énergétique des data centers pourrait doubler d’ici fin 2026, en grande partie sous l’effet de l’IA générative (Agence Internationale de l’Énergie). Former à l’IA sans former à la sobriété, c’est naturaliser une fuite en avant technologique dont le coût écologique est déjà visible.
Enfin, au cœur de tous ces enjeux, se trouve la question la plus délicate : la responsabilité humaine. Plus les systèmes semblent performants, plus les individus ont tendance à sur-déléguer leurs décisions (Harvard Business School, studies on automation bias). L’automatisation devient alors une abdication douce. Former à l’IA sans former au droit au désaccord, à la reprise en main, à la vigilance humaine, c’est préparer des sociétés où la décision se déplace sans que la responsabilité ne suive.
La régulation, notamment européenne, pose un socle minimal. Plus de 80 % des usages d’IA à haut risque seront soumis à des obligations renforcées d’ici 2026 (Commission européenne, AI Act impact assessment). Mais la conformité n’est pas une vision. Elle ne remplace ni la culture, ni la compréhension, ni la capacité à penser l’IA comme un système qui engage la société tout entière.
Former à l’IA en 2026, ce n’est donc pas transmettre des compétences isolées. C’est apprendre à naviguer dans un monde où la technique, l’économie, la politique, l’éthique et l’environnement sont désormais indissociables. Toute formation qui ignore cette complexité ne prépare pas à l’avenir : elle le simplifie dangereusement.
4. Former à l’IA en 2026 : changer de paradigme éducatif
À ce stade, une évidence s’impose : la fracture éducative n’est plus technique. Elle est culturelle, politique et économique. Elle oppose non pas ceux qui savent coder à ceux qui ne savent pas, mais ceux qui comprennent ce que l’IA transforme à ceux qui ne voient en elle qu’un outil de plus à maîtriser.
Former à l’IA en 2026 ne peut donc plus consister à empiler des compétences techniques, aussi sophistiquées soient-elles. Il s’agit d’un changement de paradigme : passer d’une logique d’usage à une logique de compréhension, de gouvernance et de responsabilité.
Trois verbes devraient désormais structurer toute formation sérieuse à l’IA.
- Comprendre, d’abord.
Comprendre ce que l’IA fait réellement aux organisations, aux métiers, aux institutions. Comprendre comment elle redéfinit la valeur du travail, déplace les centres de décision, modifie les rapports de pouvoir, accélère certaines dynamiques économiques tout en en fragilisant d’autres. Comprendre que l’IA n’est pas seulement un gain de productivité, mais une transformation profonde des structures sociales.
- Gouverner, ensuite.
Former à l’IA, c’est former à la décision : quand automatiser, pourquoi le faire, jusqu’où aller et quand s’arrêter. Gouverner l’IA suppose de savoir arbitrer entre performance et risque, innovation et soutenabilité, efficacité et équité. Cela implique de poser des cadres, d’organiser des responsabilités humaines claires, d’accepter que certaines décisions ne puissent pas, ou ne doivent pas, être déléguées.
- Assumer, enfin.
Assumer les impacts humains, sociaux, environnementaux et démocratiques des choix technologiques. Assumer que toute automatisation produit des effets secondaires. Assumer que l’IA n’est jamais neutre, parce qu’elle cristallise des choix, des priorités, des valeurs. Former à l’IA, c’est donc former à la responsabilité, pas seulement juridique, mais morale et politique.
Dans ce cadre, la technique ne disparaît pas. Elle change de statut. Elle devient un moyen, indispensable, mais jamais une fin. Un langage à maîtriser, non un horizon à vénérer.
C’est précisément à partir de cette conviction qu’est née aivancity. Non comme une école d’ingénieurs de plus, ni comme une école de management spécialisée, mais comme une école hybride, pensée dès l’origine pour répondre à cette transformation systémique. L’IA n’y est pas abordée comme une discipline isolée, mais comme un objet transversal, situé à l’intersection de la technologie, du business et de la société.
Ce choix n’est pas un positionnement marketing. Il est le fruit d’un constat simple : former uniquement des experts techniques, sans les armer pour comprendre les implications économiques, sociales et éthiques de ce qu’ils conçoivent, revient à créer une expertise sans boussole. À l’inverse, parler d’IA sans en maîtriser les fondements techniques conduit à une pensée abstraite, déconnectée des réalités opérationnelles. L’hybridation n’est donc pas un compromis ; elle est une nécessité.
C’est aussi là que le rôle des écoles, des universités et des acteurs académiques devient irremplaçable. Les plateformes savent enseigner des outils. Elles excellent à diffuser des savoir-faire opérationnels, rapides, standardisés. Mais elles ne forment ni des consciences, ni des capacités de pilotage à long terme.
Le monde académique, lui, ne peut plus se contenter d’être un fournisseur de compétences techniques avancées. Il doit assumer une responsabilité intellectuelle : celle de mettre en perspective, de relier, de complexifier. Il doit porter une vision de long terme, capable de dépasser les cycles technologiques et les effets de mode. Il doit surtout relier ce que l’on sépare trop souvent : la technologie, l’économie, la société, l’éthique, le politique.
Former à l’IA ne peut donc plus se réduire à former des informaticiens. Former à l’IA, c’est former des dirigeants capables de décider. Des managers capables d’arbitrer. Des juristes capables de comprendre ce qu’ils régulent. Des designers capables d’anticiper les usages et les effets. Des ingénieurs capables de questionner ce qu’ils construisent. Et, plus largement, des citoyens capables de ne pas subir des systèmes qu’ils utilisent.
Ce n’est pas une ambition marginale. C’est une nécessité démocratique. Car une société qui délègue sa compréhension de l’IA à quelques experts techniques renonce, de fait, à une part de sa souveraineté intellectuelle. Former autrement à l’IA, ce n’est pas ralentir le progrès. C’est lui donner une direction, une légitimité et une chance de durer.
5. Conclusion : Former une société, pas seulement des utilisateurs
La question n’est plus de savoir si nous allons former massivement à l’intelligence artificielle. Cela est déjà en cours. La vraie question est plus vertigineuse : que sommes-nous en train de former, exactement ?
Si former à l’IA consiste à apprendre à manier des outils toujours plus puissants sans interroger ce qu’ils font à nos décisions, à nos organisations, à nos démocraties, alors nous formerons des sociétés efficaces, mais vulnérables ; rapides, mais dépendantes ; innovantes, mais privées de boussole.
À l’inverse, former à l’IA comme à un fait social total, c’est accepter la complexité. C’est reconnaître que la technique ne peut plus être séparée de la responsabilité, que la performance ne peut plus être pensée sans la soutenabilité, que l’automatisation ne peut plus progresser sans un effort conscient de reprise en main humaine. C’est comprendre que l’IA n’est pas seulement un enjeu de compétences, mais un choix de société.
2026 marque une ligne de crête. D’un côté, la tentation de la facilité : former vite, former large, former technique, et croire que cela suffira. De l’autre, une exigence plus difficile mais plus féconde : former des esprits capables de comprendre, de gouverner et d’assumer l’IA dans toute sa portée.
Ce choix n’est pas technologique. Il est éducatif, politique et civilisationnel. Car au fond, l’enjeu n’est pas de savoir si nous saurons utiliser l’intelligence artificielle.
L’enjeu est de savoir si nous saurons rester intelligents collectivement en la déployant.
Références
- European Commission. (2024). Impact assessment accompanying the proposal for a regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).
https://digital-strategy.ec.europa.eu - Gartner. (2024). Why AI projects fail: Data quality, governance, and organizational readiness.
https://www.gartner.com - Harvard Business School. (2023). Automation bias and human decision-making in AI-supported environments. Working Paper.
https://www.hbs.edu - International Energy Agency. (2024). Electricity 2024: Data centres, artificial intelligence and energy demand.
https://www.iea.org - McKinsey & Company. (2024). The state of AI: Global AI survey.
https://www.mckinsey.com - MIT Sloan Management Review. (2024). From principles to practice: Operationalizing responsible AI.
https://sloanreview.mit.edu - National Institute of Standards and Technology. (2023). AI Risk Management Framework (AI RMF 1.0).
https://www.nist.gov - Nature Machine Intelligence. (2023). A meta-analysis of algorithmic bias across machine learning systems, 5(4), 312–326.
https://www.nature.com - Organisation for Economic Co-operation and Development. (2023). Trust in artificial intelligence.
https://www.oecd.org - World Economic Forum. (2023). The future of jobs report.
https://www.weforum.org - Microsoft. (2025, September 4). New commitments to advance AI skills and education.
https://blogs.microsoft.com/on-the-issues/2025/09/04/new-white-house-commitments/ - Microsoft. (2025). AI learning challenge & LinkedIn Learning AI pathways.
https://www.linkedin.com/learning - Google. (2025, October 21). Introducing Google Skills: Free learning paths for AI and digital skills.
https://blog.google/outreach-initiatives/education/google-skills/ - Google Cloud. (2025). Machine learning and generative AI training catalog.
https://cloud.google.com/training - Stanford University. (2025). Artificial intelligence and machine learning courses (open access).
https://online.stanford.edu - Stanford University. (2025). CS230: Deep Learning; CS224N: Natural Language Processing with Deep Learning.
https://www.youtube.com/@stanfordonline - Massachusetts Institute of Technology. (2025). MIT OpenCourseWare – Artificial intelligence and machine learning.
https://ocw.mit.edu - Massachusetts Institute of Technology. (2025). Ethics of AI Bias; Ethics for Engineers: Artificial Intelligence.
https://openlearning.mit.edu

