Quand une machine dit « je ne sais pas », il est temps de réinventer l’éducation.
Par Dr. Tawhid CHTIOUI, Président-fondateur d’aivancity, la Grande Ecole de l’IA et de la Data
Imaginez. Vous posez une question à une intelligence artificielle dernier cri, bardée de neurones artificiels, gavée de données planétaires, plus connectée que votre ado un samedi soir, et elle vous répond, sans rougir : « Je ne sais pas. »
Pas une erreur de chargement. Pas une panne serveur. Non : un acte volontaire de modestie algorithmique.
À l’autre bout de la machine, vous restez bouche bée. Comme si ChatGPT s’était soudain découvert un doute existentiel.
Cette scène n’est pas de la science-fiction. Elle est le fruit d’une innovation bien réelle, signée Themis AI, une start-up surgie des laboratoires du MIT, qui vient de doter les IA génératives d’un super-pouvoir inattendu : le doute. Une IA qui hésite. Une IA qui choisit de ne pas répondre. Une IA qui nous ressemble… quand on est honnête. Un acte de lucidité programmé.
Révolution ? Plutôt conversion.
Car depuis des années, nous avons dressé les machines à répondre à tout, à parler plus qu’à réfléchir, à asséner plus qu’à questionner. On leur a confié la mission d’éclairer le monde… tout en leur interdisant de dire qu’elles ne voient pas clair.
Dans cette grande comédie numérique, les enseignants ont longtemps été les premiers relégués au rang de figurants. On a voulu remplacer leur voix par des voix de synthèse, leurs doutes par des certitudes automatisées, leur lenteur féconde par une réactivité instantanée.
Mais voilà que l’IA elle-même fait un pas de côté. Voilà qu’elle découvre que le savoir sans conscience n’est que ruine de la cognition. Voilà qu’elle redonne au doute ses lettres de noblesse.
Et si c’était ça, la vraie leçon ?
Et si l’éducation du XXIe siècle ne consistait plus à répondre à toutes les questions, mais à apprendre à poser les bonnes ? À ne plus empiler les savoirs, mais à cultiver une compétence plus rare, plus subversive, plus féconde : Savoir dire « Je ne sais pas. Et c’est pour ça que je cherche. »
1. L’IA doute donc elle pense ? Quand le MIT programme l’humilité
Au cœur de cette mini-révolution, un geste simple mais radical : apprendre à une intelligence artificielle à reconnaître qu’elle ne sait pas. C’est exactement ce que fait Themis AI, la start-up fondée par des chercheurs du MIT. Leur idée ? Ajouter une « couche de conscience des limites » aux grands modèles de langage. Une sorte de filtre qui mesure, en temps réel, le niveau de confiance de l’IA sur sa propre réponse. Et si le doute est trop grand, la machine répond : « Je ne sais pas. »
Un refus d’obstacle ? Non. Une prouesse technique doublée d’un tournant éthique. Car ce n’est pas en perfectionnant les performances du modèle qu’on renforce la confiance. C’est en lui offrant la capacité à douter de lui-même.
En réduisant de 64 % les hallucinations dans les usages professionnels, Themis AI n’a pas seulement amélioré un outil : elle a redéfini les critères de maturité d’une intelligence artificielle.
Mais le plus fascinant, c’est que cette innovation technologique… rattrape tout juste ce que l’école aurait dû faire depuis longtemps.
Car en vérité, le doute n’est pas une faiblesse. C’est une méthode. Une posture. Une compétence.
Et si une IA peut apprendre à douter, pourquoi notre éducation persiste-t-elle à valoriser l’assurance plus que la lucidité ? À primer les réponses rapides plutôt que les questions lentes ?
2. Le prof n’est plus Google sur pattes (et c’est tant mieux)
Pendant des siècles, l’autorité du professeur reposait sur un avantage décisif : il savait. Il détenait le contenu, contrôlait le savoir, et s’autorisait à corriger ceux qui s’égaraient. C’était le gardien du temple cognitif.
Puis Internet est arrivé, puis Wikipédia, puis ChatGPT… Et soudain, ce rôle de distributeur officiel du savoir est devenu aussi obsolète qu’un lecteur de cassettes. Le prof encyclopédie ? Dépassé.
Le prof moteur de recherche ? Déclassé.
Mais ce déclassement apparent est en fait une formidable opportunité de réinvention. Car si l’IA est capable de réciter, reformuler, même de rédiger avec un brio troublant, elle ne sait toujours pas accompagner, contextualiser, douter, nuancer, faire grandir.
Or c’est précisément ce qu’un professeur du XXIe siècle doit faire :
ne plus transmettre des réponses, mais orchestrer des cheminements.
Le prof devient architecte de compétences.
Son rôle n’est plus de tout savoir, mais d’aider à savoir mieux. Pas d’imposer une vérité, mais de construire des espaces d’exploration. Pas de craindre l’IA, mais de l’utiliser comme un miroir pédagogique, révélant les zones floues, les angles morts, les non-dits. Autrement dit, là où l’IA produit du contenu, le professeur fabrique du sens.
Et dans un monde saturé d’informations générées à la chaîne, le sens est devenu une denrée bien plus précieuse que le savoir brut. Une IA peut rédiger une dissertation parfaite. Mais elle ne peut pas expliquer pourquoi cette question vaut la peine d’être posée.
Alors, non, le professeur n’est pas mort. Il a juste changé de costume. Il a troqué la blouse du sachant pour le casque de chantier du bâtisseur de compétences. Et son plus bel outil ? Le doute…
3. Et si Socrate avait programmé ChatGPT ?
Il aurait probablement commencé par lui enlever la parole.
Puis, il lui aurait appris à poser des questions. Pas des questions pour obtenir des réponses. Des questions pour faire douter la réponse. Des questions pour explorer l’ombre autour de la certitude. Des questions comme des trous dans le savoir, où la pensée peut respirer.
Parce que Socrate, on l’oublie trop vite, n’a jamais rien enseigné. Il n’a jamais donné de cours magistral, jamais corrigé un devoir, jamais mis une note sur dix. Il n’a fait que dialoguer, inlassablement. Et quand on le pressait pour qu’il tranche, il répondait : « Tout ce que je sais, c’est que je ne sais rien. »
Aujourd’hui, il serait recalé à l’agrégation…
Mais son esprit, lui, revient en force, et par la porte qu’on n’attendait pas : celle des machines.
Themis AI, ce module d’humilité artificielle, ne fait rien d’autre qu’instituer une version algorithmique du doute socratique. Il ne cherche pas à rendre l’IA plus savante, mais plus lucide. Moins arrogante. Plus fiable, justement parce qu’elle sait qu’elle peut se tromper.
Et si l’école s’en inspirait ?
Si on apprenait à nos élèves à détecter les angles morts d’un raisonnement, y compris quand il est bien présenté, bien écrit, même signé ChatGPT ? Si on réhabilitait l’incertitude comme outil d’apprentissage, et non comme faiblesse à corriger ?
Parce qu’au fond, l’intelligence n’est pas l’art de répondre vite, c’est la capacité à rester dans la question sans paniquer.
Alors oui : L’IA doute, donc elle pense. Et si elle commence à penser comme Socrate, c’est peut-être à l’éducation humaine d’en faire autant.
4. Erreur 404 : humilité not found (jusqu’à maintenant)
Ces derniers jours, les titres ont tonné comme des autopsies prématurées :
- « L’IA générative rend plus bête. »
- « ChatGPT fait chuter notre esprit critique. »
- « Les étudiants copient, les cerveaux s’éteignent. »
La dernière salve ? Une étude du MIT menée auprès de 54 participants (âgés de 18 à 39 ans), divisés en trois groupes (utilisateurs de ChatGPT, de Google Search ou de « cerveau seul »). Résultat : le groupe ChatGPT présentait une activité cérébrale significativement plus faible : moins de créativité, moins de mémoire et des essais jugés « sans âme » et « uniformes »[i]. Un constat du même tonneau pointe une atrophie de la pensée critique chez ceux qui font « confiance » à l’IA.
À croire que l’intelligence artificielle serait une sorte de micro-ondes cognitif : pratique, rapide, mais qui tue le goût de cuisiner. Sauf qu’il y a un petit problème dans ce raisonnement : ce n’est pas l’IA qui rend bête, c’est l’usage qu’on en fait.
Donnez une perceuse à un enfant de trois ans, il ne vous construira pas une cabane. Donnez ChatGPT à un système éducatif formaté pour les réponses, les barèmes et les dissertations, vous obtiendrez… des clones de réponses.
Mais si vous donnez cette même IA à des esprits entraînés à douter, à questionner, à décortiquer, alors elle devient un adversaire intellectuel redoutable. Un terrain d’entraînement. Un sparring-partner du raisonnement.
Ce n’est pas l’outil qui fait le niveau, c’est le niveau qui fait l’outil.
Alors, oui, l’IA peut vous faire perdre vos neurones.
Mais seulement si vous avez appris à obéir, pas à explorer.
Seulement si on vous a fait croire que « avoir la bonne réponse » est plus important que « comprendre pourquoi cette réponse tient debout ».
Autrement dit : ce n’est pas l’intelligence artificielle qui nous menace. C’est la pédagogie artificielle.
Et si on veut éviter de devenir des zombies intellectuels assistés par processeur, il est peut-être temps de remettre du doute, de l’humilité et de la friction dans nos apprentissages. De cesser de faire croire qu’il y a toujours une bonne réponse. De cesser de noter la vitesse au lieu de la profondeur. De transformer l’erreur en méthode, l’ignorance en départ, l’incertitude en boussole.
5. Vers une pédagogie du doute : apprendre à ne pas savoir
Et si on repensait l’éducation, pas seulement l’École, mais l’éducation au sens large, comme une gymnastique de l’incertitude ?
Non plus un défilé de bonnes réponses bien alignées, mais un laboratoire du pas-sûr, un terrain de jeu pour tester, formuler, s’égarer et recommencer.
Car si les IA savent générer du texte, elles ne savent toujours pas générer du sens critique. Elles n’ont ni intuition, ni doute fécond, ni cette petite voix intérieure qui dit : « Hmm, vraiment ? »
Et si l’école doit préparer les citoyens de demain, elle ferait bien d’enseigner ce que les machines ne feront jamais : penser contre soi-même.
Et si nous voulons préparer des esprits capables de résister à l’illusion algorithmique, il faudra bien plus que des professeurs engagés : il faudra aussi des parents éveillés.
Oui, éduquer au doute commence à la maison. Quand on cesse de répondre à toutes les questions avec assurance. Quand on dit à un enfant : « Je ne sais pas, mais on peut chercher ensemble. » Quand on valorise la curiosité plus que la certitude, la recherche plus que la récitation.
Alors, que pourrait-on faire concrètement ? Voici un petit programme radicalement raisonnable pour éduquer – à l’école et à la maison – à l’incertitude :
- Apprendre à dire “Je ne sais pas” (et en être fier)
Transformer l’aveu d’ignorance en rite initiatique.
A l’école, commencer chaque cours par une question que personne ne peut résoudre tout de suite même avec ChatGpt. Créer des badges « je ne sais pas encore » plutôt que des notes « tu t’es trompé ».
A la maison, quand un enfant pose une question, résister à l’instinct de tout expliquer. Répondre parfois : “Bonne question… tu veux qu’on cherche ensemble ?” Lui montrer que même les grands ne savent pas tout, et que ce n’est pas grave. C’est même excitant.
- Enseigner la pensée paradoxale
Et si deux affirmations opposées pouvaient être… tous les deux utiles ?
A l’école, développer l’art du « oui, mais », du « ça dépend », du « regarde sous un autre angle ». Faire du doute une compétence, pas un bug. Faire aimer les nuances, les complexités, les zones grises.
À la maison, arrêter de répondre aux « c’est vrai ou faux ? » par des « vrai » ou « faux » absolus. Parfois, dire : « C’est plus compliqué que ça. » Lire ensemble des histoires sans gentils ni méchants évidents. Montrer que le monde n’est pas binaire, et que c’est ce qui le rend intéressant.
- Réhabiliter l’erreur comme méthode
L’erreur n’est pas une faute. C’est le brouillon de l’intelligence.
A l’école, plutôt que « corriger », analysons les écarts, les hypothèses ratées, les intuitions mal formulées. Montrer que la pensée se construit sur des écarts, pas des certitudes. Une intelligence sans erreur est une intelligence sans apprentissage.
À la maison, quand un enfant se trompe, éviter les « tu vois, tu ne réfléchis pas ! » et préférer : « Intéressant… qu’est-ce que tu voulais dire ? », l’aider à déplier son raisonnement, à corriger par lui-même, sans honte. Créer un climat où l’erreur n’est pas une faute, mais un tremplin.
- Mettre l’IA à l’épreuve (et non l’inverse)
A l’école, au lieu d’interdire ChatGPT, apprenons à lui poser de vraies questions. À repérer ses hallucinations, à évaluer sa confiance, à débattre de ses limites. Faisons des machines des objets d’étude, pas des oracles.
À la maison, explorer l’IA avec les enfants, pas dans leur dos. Lui demander : « Qu’en penses-tu ? », puis « Et toi, tu es d’accord ? ». Apprendre à vérifier, à douter, à creuser. Montrer que ce n’est pas parce que c’est bien formulé que c’est juste.
- Former des enquêteurs, pas des encyclopédistes
L’élève du futur n’a pas besoin de tout savoir. Il doit savoir formuler une problématique, poser une hypothèse, tester une intuition, démonter un raisonnement. En bref, devenir un enquêteur du réel, un artisan du doute, un architecte de vérité mobile.
À l’école, remplacer les contrôles de connaissances par des mini-enquêtes. Apprendre à chercher, à formuler une hypothèse, à articuler un doute. Faire de l’élève un détective du réel, pas un dépositaire de savoirs.
À la maison, encourager la curiosité. Quand l’enfant dit « je ne comprends pas », ne pas lui donner la réponse, mais lui tendre une piste. L’aider à chercher dans plusieurs sources. Lui apprendre que comprendre est un chemin, pas une case à cocher.
Parce que dans un monde saturé de certitudes automatisées, le vrai luxe cognitif, c’est de ne pas savoir. De chercher, longtemps. De douter, intelligemment. Et de comprendre, enfin, que ce n’est pas la réponse qui compte. C’est la manière dont on s’en approche.
Conclusion – Le courage de ne pas savoir
Et si la plus grande révolution éducative de notre siècle n’était pas technologique, mais philosophique ? Et si ce que l’IA nous apprenait de plus précieux n’était pas la rapidité, la productivité ou la performance… mais la modestie ?
Car oui, il faut oser le dire : nous avons trop enseigné à répondre, et trop peu à chercher. Nous avons bâti des systèmes où celui qui doute est lent, faible, désorienté. Où l’erreur est punie, l’incertitude stigmatisée, la nuance mal vue.
Mais le doute, c’est la respiration de l’intelligence, la pause nécessaire entre l’information et la compréhension, le souffle avant le saut.
Et voilà qu’une IA nous le rappelle. Qu’un algorithme ose enfin dire ce que tant d’enseignants n’osent plus formuler : « Je ne sais pas. »
Le coming-out de l’IA, ce n’est pas qu’elle pense : c’est qu’elle ne sait pas tout.Et c’est peut-être la chose la plus intelligente qu’elle ait jamais dite.
C’est peut-être le début de quelque chose de grand. Pas une fin du savoir, mais une renaissance.
Un basculement d’une éducation verticale où l’on verse du savoir dans des crânes ouverts, à une éducation circulaire, dialogique, socratique.
Alors à celles et ceux qui enseignent, qui forment, qui accompagnent : Ne craignez plus d’ignorer.
Craignez de feindre de savoir. Faites du doute un outil, de l’humilité un style, de l’incertitude une pédagogie. Non pas pour renoncer à comprendre. Mais pour réapprendre à penser.
Parce que face aux machines qui prétendent tout savoir, l’acte le plus humain, le plus libre, le plus puissant, c’est peut-être, simplement… de dire : « Je ne sais pas. Et c’est pour ça que je suis vivant. »
A propos de l’auteur : Dr. Tawhid CHTIOUI
Sélectionné parmi les 25 personnalités mondiales les plus influentes dans le domaine de l’IA et des données par Keyrus (Janvier 2025), Tawhid CHTIOUI est expert international, conférencier et serial entrepreneur dans le domaine de l’enseignement supérieur et la formation. Il est Président fondateur d’aivancity, la Grande École de l’intelligence artificielle et de la Data. Titulaire d’un Doctorat en Sciences de Gestion de l’université Paris Dauphine et du leadership development program in Higher Education de la Harvard University, il a occupé des fonctions scientifiques et dirigeantes dans différentes écoles de commerce en France et à l’international. Tawhid CHTIOUI est Chevalier (2016) puis Officier (2022) de l’ordre des Palmes Académiques et a également reçu plusieurs prix internationaux à l’instar du « Top 100 Leaders in Education Award » du Global Forum on Education & Learning, « The Name in science & Education Award » du Socrates Committee Oxford Debate University of the Future et le Top 10 Most Inspiring People in Education, 2022 émis par CIO VIEWS, et du “Trophée de la Pédagogie” 2024 d’Eduniversal.
Références
• https://www.medialab-factory.com/ia-intelligence-artificielle-rend-plus-bete-ou-augmente-creativite/