Par Dr. Tawhid CHTIOUI, Président fondateur d’aivancity, la Grande Ecole de l’IA et de la Data
Un enfant de dix ans s’installe devant l’écran. Curieux, il tape un mot qu’il a entendu à l’école mais qu’il n’arrive pas à imaginer : ornithorynque. Il veut voir à quoi ressemble ce drôle d’animal que ses camarades ont décrit comme un mélange impossible de canard et de castor. Il s’attend à rire, à s’émerveiller, à découvrir la fantaisie de la nature.
Mais ce qui s’affiche sur sa tablette, ce sont des dizaines d’images contradictoires. Certaines sont réelles, issues de photographes animaliers. D’autres sont des illusions numériques, générées par des intelligences artificielles : un ornithorynque fluorescent, un ornithorynque avec des ailes, un ornithorynque dansant sur deux pattes. Pour lui, qui ne connaît pas encore l’animal, la frontière entre le vrai et le faux devient floue. Sa première rencontre avec le vivant se fait dans un monde où un clic sur deux mène à une fiction.
Cette scène n’est pas de la science-fiction. Elle est notre présent. Car un basculement silencieux a eu lieu : plus de la moitié du trafic Internet mondial est générée par des bots, et plus de la moitié des contenus textuels hébergés en ligne sont désormais produits ou traduits par des IA. Ce qui devait être la bibliothèque de l’humanité est en train de devenir un gigantesque labyrinthe d’échos artificiels.
Internet était né pour relier les hommes, prolonger leur mémoire, élargir leur horizon. Aujourd’hui, il devient un espace où machines et algorithmes dialoguent entre eux, tissant une toile qui ressemble de moins en moins à un miroir du monde humain. Le constat est vertigineux : l’Internet n’est plus majoritairement humain.
Alors une question se pose, urgente et abyssale : que devient un monde où l’on ne sait plus si la première image que l’on offre à un enfant est celle d’un animal… ou celle d’un fantasme numérique ?
1. Les nouvelles fractures d’un Internet automatisé : économie, culture, science, société
Imaginez un Internet où la majorité des visiteurs ne sont plus de simples internautes en chair et en os, et où l’essentiel des articles, images ou vidéos ne sort plus de l’esprit humain. Ce scénario digne de la science-fiction est désormais une réalité bien concrète. En l’espace de quelques années, le Web a discrètement basculé dans un double phénomène inédit : plus de la moitié du trafic mondial est généré par des robots informatiques, et une part tout aussi majoritaire du contenu en ligne est produite, ou au moins traduite, par des intelligences artificielles. Ce renversement, passé presque inaperçu au quotidien, marque pourtant un tournant profond dans l’histoire d’Internet, un moment charnière où les machines prennent les commandes de la production et de la circulation de l’information.
Pour la première fois depuis la création du Web, le trafic est dominé par des acteurs non humains. Selon le rapport Bad Bot 2025 de la société de cybersécurité Imperva, 51 % de l’ensemble du trafic mondial en 2024 provenait de programmes automatisés, contre 49 % seulement pour nous autres humains. Ce franchissement symbolique consacre un renversement inédit : le Web est désormais plus
fréquenté par des machines que par des personnes. Et le détail des chiffres en dit long : sur ces 51 %, près de 37 % sont imputables à des “bad bots”, utilisés pour le spam, la fraude ou les attaques informatiques, tandis que seulement 14 % relèvent de robots “bénéfiques” comme les crawlers des moteurs de recherche. La frontière numérique ressemble de plus en plus à un champ de bataille où des essaims de machines invisibles se disputent chaque milliseconde de bande passante.
En parallèle de cette robotisation du trafic, un autre basculement s’opère : la production de contenu en ligne est devenue, elle aussi, massivement artificielle. Une étude d’Amazon Web Services publiée en 2024 estime qu’environ 57 % des textes disponibles sur Internet sont désormais générés par des IA ou traduits automatiquement. Autrement dit, plus de la moitié des articles, posts, commentaires et fils de discussion ne sont plus directement le fruit d’une plume humaine. Derrière ce chiffre se cache une mécanique industrielle : des fermes de contenus automatisées, capables de produire des milliers de textes en un temps record, nourrissent le Web d’une prose standardisée et bon marché. Sur certaines plateformes comme Quora ou Medium, plus d’un tiers des publications récentes sont déjà générées par IA. Sur les réseaux sociaux, une étude parue dans Nature estime qu’environ 20 % des messages entourant les grands événements mondiaux proviennent désormais de comptes automatisés. Il est donc devenu banal de débattre en ligne sans s’en rendre compte avec une entité algorithmique.
Ce déferlement a ouvert une nouvelle ère de l’économie de l’information. Le coût marginal de la production d’un texte, d’une image ou d’une vidéo tend vers zéro : là où il fallait rémunérer des journalistes, des photographes ou des traducteurs, une IA peut fournir en quelques secondes des centaines de contenus calibrés. Des médias comme BuzzFeed ou CNET ont déjà testé l’écriture automatisée d’articles, parfois avec des résultats calamiteux. Dans ce modèle, l’abondance ne rime pas avec richesse : plus on publie, moins chaque contenu a de valeur. Une “commoditisation” de l’information qui transforme Internet en supermarché de textes interchangeables, au détriment de la qualité et de la singularité.
Au-delà de l’économie, c’est la diversité culturelle elle-même qui vacille. Puisque les grands modèles de langage s’appuient principalement sur des corpus anglophones, leurs productions tendent à uniformiser les styles et à effacer les nuances locales. Dans de nombreuses langues minoritaires, l’essentiel du contenu disponible provient de traductions automatiques issues de l’anglais, nivelant les références culturelles. Derrière la prolifération apparente d’informations se cache donc une homogénéisation insidieuse : un Web aux accents multiples qui parle de plus en plus d’une seule voix.
Le monde de la science et de la connaissance n’est pas épargné. Revues prédatrices et bases de données voient affluer des milliers d’articles générés par IA, truffés d’erreurs, de références inventées ou de formulations absurdes. Le risque est immense : que ces faux savoirs contaminent les corpus académiques eux-mêmes, servant ensuite à entraîner les modèles futurs. C’est le paradoxe du serpent qui se mord la queue : les IA, en inondant Internet de contenus artificiels, risquent d’empoisonner leur propre source d’apprentissage et d’entraîner ce que des chercheurs appellent le model collapse, un lent déclin cognitif où chaque génération de machine apprend un peu moins du réel et un peu plus de ses propres illusions.
À cela s’ajoute un paradoxe écologique. Produire des milliards de textes, d’images et de vidéos artificielles consomme de l’énergie, occupe des serveurs, sollicite d’immenses centres de données. Remplir Internet de vide coûte cher à la planète. Un océan d’informations inutiles, mais bien réelles
dans leur empreinte carbone, sature les infrastructures. L’infobésité n’est pas seulement cognitive, elle est aussi énergétique.
Enfin, cette métamorphose du Web transforme notre rapport aux autres. Interagir en ligne, c’est désormais courir le risque de parler à une machine sans le savoir. Cette incertitude sape la confiance : suis-je en train de discuter avec un ami, un inconnu, ou un bot bien entraîné ? Certains développent même des liens affectifs avec des chatbots compagnons, brouillant la frontière entre relation authentique et interaction simulée. La “solitude connectée” prend ici un sens nouveau : être entouré de voix, mais ne plus savoir lesquelles sont humaines.
Ce double basculement, un trafic majoritairement non humain et des contenus massivement artificiels, ne constitue pas une simple évolution technique. C’est une révolution silencieuse. Aucun coup d’éclat ne l’a annoncé, aucun changement visible ne l’a signalée. Et pourtant, le paysage est bouleversé. Internet, né pour relier les humains, devient un carrefour où humains et machines se croisent à parts égales, un lieu où les algorithmes produisent et consomment l’information à une échelle colossale.
Dans ce Web hybride, la frontière de la réalité se brouille. L’information devient un flux composite, indissociable de contributions humaines et de productions synthétiques. Pour les décideurs comme pour les citoyens, l’urgence est de prendre conscience de ce renversement discret mais profond : Internet n’est plus uniquement un forum global des voix humaines, c’est aussi un écosystème autonome d’agents artificiels qui publient, amplifient et parfois manipulent le récit du monde.
Internet n’est plus seulement un miroir de nos vies. C’est devenu une scène où les machines tiennent la moitié des conversations, et où leurs voix, parfois utiles, parfois toxiques, façonnent désormais le brouhaha mondial.
2. Ripostes, régulations et dilemmes éthiques
Face à cette marée de contenus artificiels et de bots omniprésents, les grandes plateformes n’ont pas tardé à réagir. Google affine sans cesse ses algorithmes pour détecter et déréférencer les “fermes à contenus” automatisées qui parasitent les résultats de recherche. Meta supprime chaque jour des millions de faux comptes, tout en expérimentant des outils d’étiquetage des contenus générés par IA. YouTube a introduit une obligation de signaler explicitement les vidéos manipulées ou synthétiques, sous peine de sanctions. Les plateformes, longtemps accusées d’avoir fermé les yeux, cherchent désormais à préserver un minimum de confiance. Mais leur réponse reste ambivalente : ces mêmes entreprises investissent massivement dans l’IA générative, intégrant les outils qui nourrissent le problème.
Les États, eux aussi, commencent à légiférer. En Californie, une loi impose déjà que tout bot interagissant avec des humains à des fins commerciales ou politiques déclare sa nature non-humaine. L’Union européenne, avec son AI Act, prévoit l’obligation de signaler clairement tout contenu généré artificiellement, qu’il s’agisse d’un texte, d’une image ou d’un deepfake. Les gouvernements cherchent à instaurer un “droit de savoir” : l’internaute doit pouvoir identifier s’il fait face à une voix humaine ou à une machine.
Des initiatives privées tentent de compléter ce cadre encore embryonnaire. Certaines entreprises militent pour des chartes d’éthique numérique, des labels de type “human content verified” destinés
à certifier les productions authentiquement humaines. Des ONG ou collectifs citoyens explorent des méthodes de traçabilité, en intégrant des signatures invisibles dans les fichiers générés par IA. Mais ces efforts restent dispersés, sans standard global.
Car les limites sont immenses. Techniquement, distinguer un texte humain d’un texte généré devient de plus en plus difficile à mesure que les modèles progressent. Juridiquement, la disparité entre régions complique l’action : un deepfake interdit en Europe peut circuler librement ailleurs. Politiquement, la tentation de surcensure est réelle : au nom de la lutte contre les faux, certains régimes pourraient museler les vraies voix dissidentes. Économiquement enfin, il n’est pas certain que les grandes plateformes aient intérêt à freiner un flux de contenus qui maintient l’utilisateur captif, même au prix de sa qualité.
Derrière ces tentatives de riposte se cachent des questions autrement plus profondes, qui dépassent la régulation technique ou juridique. Qu’est-ce qu’un contenu authentique à l’ère des IA génératives ? Si un texte nous émeut, peu importe qu’il ait été écrit par une main humaine ou par une machine : doit-on le juger “moins vrai” ? Mais si tout peut être fabriqué, que devient la confiance qui fonde le lien social et politique ?
La question de la responsabilité n’est pas moins vertigineuse. Lorsqu’une IA diffuse une fausse information, qui blâmer ? Le développeur du modèle ? L’utilisateur qui a saisi la requête ? L’entreprise qui héberge le service ? À mesure que la chaîne de production se complexifie, la notion de responsabilité se dilue, menaçant notre capacité à rendre des comptes.
Enfin, c’est la notion même d’intelligence collective qui vacille. Internet était censé incarner la sagesse des foules, l’accumulation des contributions humaines. Que reste-t-il de ce projet lorsque la majorité des voix en ligne sont artificielles ? Peut-on encore parler de dialogue, de débat public, ou ne s’agit-il plus que d’une immense salle d’échos où les machines recyclent leurs propres productions ? Cette transformation risque d’accentuer une fracture numérique nouvelle : entre ceux qui maîtrisent ces technologies et savent en tirer parti, et ceux qui les subissent sans défense, noyés dans un océan de signaux contradictoires.
Nous pensions réguler des flux de données, nous voilà confrontés à un enjeu existentiel : préserver la dignité de la parole humaine dans un espace où les machines parlent plus fort que nous.
Ce n’est pas seulement Internet qu’il s’agit de réguler, mais le contrat social qu’il porte en lui. Entre authenticité et illusion, entre mémoire humaine et bruit algorithmique, c’est à nous de décider si le Web restera un espace de vérité partagée ou s’il deviendra le plus grand théâtre d’ombres de l’histoire.
3. Quel Internet pour demain ?
En 2040, chercher une information pourrait ressembler à entrer dans une bibliothèque infinie où neuf livres sur dix auraient été complètement rédigés par des machines, compilant d’autres livres de machines, jusqu’à en perdre la saveur du réel. Dans ces rayonnages saturés, le texte véritablement humain deviendrait rare, presque clandestin, comme une pièce originale au milieu d’un marché de copies.
Si nous laissons faire, le Web s’asphyxiera sous cette prolifération : trop de faux, trop de bruit, trop de confiance perdue. Chacun se repliera derrière des espaces privés, fermés, filtrés, où l’on ne parlera qu’aux identités certifiées. Dans ce futur, la promesse originelle d’Internet comme forum ouvert serait brisée.
Mais d’autres voies existent. Déjà se dessine un Internet hybride où humains et IA cohabitent à découvert, à condition d’imposer la transparence. La vérification d’identité numérique et les labels de type « human content » pourraient devenir des sceaux de confiance : savoir qui parle, savoir d’où vient ce que l’on lit. L’encadrement légal, s’il est international et cohérent, permettrait d’harmoniser les règles et d’éviter les angles morts d’un monde fragmenté.
La technologie elle-même peut être mobilisée comme contrepoids : développer des outils de détection intégrés, former chaque citoyen à l’esprit critique numérique, encourager la création de bulles d’authenticité où le contenu humain est mis en avant et reconnu. Dans ces espaces, la parole, l’image, le récit n’auraient de valeur que parce qu’ils émanent d’une expérience vécue. L’authenticité pourrait devenir la monnaie rare du Web, recherchée comme on recherche l’or dans le sable.
Reste à repenser les modèles économiques. Tant que l’abondance automatisée sera récompensée par des revenus publicitaires, la pollution informationnelle triomphera. Inversement, si les plateformes choisissent de rémunérer l’originalité, l’expertise, la traçabilité, alors l’Internet pourra retrouver un cercle vertueux.
L’avenir ne se résume pas à choisir entre un Web asphyxié, un Web hybride, un Web humaniste ou un Web des machines. Ces forces coexistent déjà. Tout dépendra des décisions prises maintenant : la bibliothèque saturée ou le salon de vérité, le marché des illusions ou le chantier d’un nouvel humanisme numérique. L’Internet de 2040 ne sera rien d’autre que le reflet de nos choix d’aujourd’hui.
Conclusion
Nous vivons un basculement discret mais colossal. Pour la première fois de son histoire, Internet n’est plus majoritairement humain : le trafic y est dominé par des bots, les contenus par des intelligences artificielles. Ce réseau né pour relier des esprits, partager des savoirs et prolonger la mémoire collective devient un espace où les machines produisent et consomment leurs propres échos.
Ce double constat n’est pas une anecdote statistique : c’est un seuil symbolique. Un miroir brisé. L’humanité risque de perdre la maîtrise de l’outil qu’elle a inventé pour se dire elle-même. L’alternative est claire : subir un web automatisé, saturé de bruit et d’illusions, ou inventer un nouvel humanisme numérique qui rende à la parole humaine sa rareté et sa valeur.
Le choix est entre nos mains. Car dans vingt ans, la question sera implacable : lirons-nous encore les autres, leurs joies, leurs colères, leurs récits, ou seulement les reflets de machines qui s’alimentent entre elles, un vacarme artificiel où nos voix se dissoudraient à jamais ?
Bibliographie
1. Imperva — 2025 Bad Bot Report: How AI is Supercharging the Bot Threat Fournit les chiffres clés sur le trafic non humain : 51 % du trafic global en 2024 est généré par des bots ; 37 % du trafic total par « bad bots ». (Imperva)
2. Digital Trends / AWS — 57 % of the Internet may already be AI sludge Étude montrant qu’environ 57 % des contenus (ou phrases) en ligne sont générés ou traduits par IA, principalement via des traductions automatiques en plusieurs langues. (Digital Trends)
3. Windows Central — “57 % of online content is AI-generated or translated …” Reprise de l’étude AWS, précisant les effets sur la qualité des résultats de recherche, le modèle d’apprentissage, etc. (Windows Central)
4. ArXiv (étude universitaire) — A Shocking Amount of the Web is Machine Translated: Insights from Multi-Way Parallelism (Thompson, Dhaliwal, Frisch, Tobias Domhan, Marcello Federico) Donne les résultats de la recherche multi-langue, parallèle, et les implications pour les langues à faible ressources. (arXiv)
5. Ng, Lynnette Hui Xian & Carley, Kathleen M. (2025). A global comparison of social media bot and human characteristics. Scientific Reports, vol. 15, article n° 10973. « Chatter on social media about global events comes from 20 % bots and 80 % humans. »