Avancées technologiques en IAIA Génératives

Qwen3 : le modèle d’Alibaba qui défie OpenAI et DeepSeek en mathématiques et en codage

Alors que les grands modèles de langage sont dominés par les États-Unis, la Chine renforce progressivement sa position sur le terrain de l’intelligence artificielle de haut niveau. Avec Qwen3, Alibaba ambitionne de proposer un modèle compétitif dans les domaines stratégiques du raisonnement mathématique et de la génération de code. L’enjeu n’est pas seulement technologique, il est aussi symbolique. Dans un contexte international de plus en plus polarisé, la capacité à produire des modèles performants et fiables devient un indicateur de souveraineté numérique.

Selon le dernier rapport de Hugging Face, les contributions chinoises représentent désormais 29 % des nouveaux modèles publiés sur la plateforme1. Qwen3 s’inscrit dans cette dynamique ascendante, en visant explicitement les performances de GPT-4, Claude 3 et DeepSeek sur les tâches de type STEM (science, technologie, ingénierie, mathématiques).

La famille Qwen3 se décline en plusieurs variantes :

  • Qwen3-7B, modèle compact adapté à l’inférence locale
  • Qwen3-72B, grand modèle dense
  • Qwen3-MoE, architecture Mixture of Experts, plus économe en calcul

En avril 2025, Alibaba a annoncé que Qwen3-72B surpassait GPT-4 sur certains benchmarks de mathématiques avancées, notamment MATH et GSM8K, tout en atteignant plus de 81 % de réussite sur HumanEval, un standard de génération de code Python2.

Le modèle repose sur un pré-entraînement massif multilingue, enrichi de jeux de données mathématiques structurés (proofwiki, arXiv, MathQA) et de millions d’exemples de code. Un alignement renforcé a été opéré via des techniques de reinforcement learning from human feedback (RLHF), focalisées sur la rigueur logique et la lisibilité du code généré.

Voici un tableau comparatif des scores atteints par Qwen3 et ses concurrents sur des benchmarks de référence :

ModèleGSM8K (raisonnement mathématique)MATH (problèmes formels)HumanEval (code Python)MBPP (programmation simple)Licence
Qwen3-72B89,6 %54,1 %81,2 %71,5 %Apache 2.0
GPT-4~92 %~50 %~88 %~77 %Propriétaire
DeepSeek Coder88,8 %N/A84,1 %75,3 %MIT
Claude 3 Opus89,3 %~47 %~83 %~72 %Propriétaire

Sources combinées : rapports techniques publiés, tests indépendants reproductibles (avril à juillet 2025)

Ce tableau montre que Qwen3 rivalise sérieusement avec les meilleurs modèles du marché, tout en étant publié sous une licence ouverte. Il se distingue notamment par ses performances sur les mathématiques formelles, un domaine historiquement difficile pour les LLM.

Les compétences logiques et algorithmiques d’un modèle ne sont pas anecdotiques. Elles conditionnent sa capacité à :

  • structurer une réponse étape par étape
  • gérer des dépendances complexes dans des chaînes de raisonnement
  • générer du code exécutable, optimisé et compréhensible

Ces capacités sont désormais recherchées dans plusieurs secteurs : éducation scientifique, assistance à la recherche, prototypage logiciel, automatisation de tâches techniques. En 2025, près de 44 % des développeurs interrogés par Stack Overflow déclaraient utiliser une IA pour tester ou écrire du code au quotidien3.

Malgré son ouverture relative, Qwen3 présente certaines zones grises :

  • absence de détail sur les corpus exacts utilisés, notamment en code propriétaire
  • documentation limitée pour la reproductibilité complète des résultats
  • évaluations parfois effectuées en interne, sans tiers vérificateur

Par ailleurs, l’architecture Mixture of Experts peut introduire des variations non déterministes dans les résultats, rendant plus difficile l’évaluation stable du modèle.

Plus un modèle devient performant, plus les questions liées à son usage deviennent sensibles :

  • en éducation, peut-il favoriser la triche automatisée, ou au contraire renforcer l’apprentissage ?
  • en cybersécurité, peut-il générer du code potentiellement dangereux ou contournant des systèmes ?
  • en propriété intellectuelle, comment vérifier qu’il ne reproduit pas du code protégé vu dans son entraînement ?
  • dans les milieux sensibles, comme la finance, la médecine ou la justice, quels garde-fous encadrent la génération automatique d’algorithmes ?

La puissance d’un modèle en mathématiques ou en programmation soulève ainsi la question d’une gouvernance technique et éthique spécifique, encore insuffisamment anticipée dans les régulations en cours.

En publiant Qwen3 sous licence Apache, tout en obtenant des performances comparables aux leaders fermés, Alibaba pose un jalon stratégique. Le modèle montre qu’il est possible de combiner ouverture, puissance et spécialisation, dans un domaine très exigeant.

Cela renforce l’idée d’un monde IA multipolaire, où des modèles chinois, américains et européens coexisteront, chacun avec ses choix d’architecture, de licence et d’usage. Mais pour que cette diversité soit bénéfique, elle devra s’accompagner d’un effort collectif en matière d’interopérabilité, de documentation et de transparence scientifique.

Découvrez également sur notre blog DeepSeek R1‑0528 : le modèle open source qui rivalise avec les IA avancées, un article qui examine comment DeepSeek se positionne face aux géants de l’IA ouverte.

1. Hugging Face. (2025). The Open LLM Ecosystem Report Q2.
https://huggingface.co/

2. Alibaba DAMO Academy. (2025). Qwen3 Technical Report.
https://modelscope.cn/

3. Stack Overflow Developer Survey. (2025). How Developers Use AI Tools.
https://stackoverflow.blog/

Recevez le
"Parlons IA"
chaque semaine dans votre votre boîte de réception

Nous sélectionnons chaque semaine un article pour vous tenir informé de l'actualité de l'Intelligence Artificielle

Nous ne spammons pas ! Consultez notre politique de données personnelles pour plus d’informations.

Postes connexes
IA Génératives

Anthropic franchit un cap historique : 183 milliards de dollars de valorisation

Le secteur de l’intelligence artificielle connaît une croissance fulgurante, portée par les avancées des modèles génératifs et les investissements massifs des grandes entreprises technologiques. Au cœur de cette dynamique, un nom revient avec insistance : Anthropic. Moins de trois ans après sa création, la start-up américaine a récemment franchi un cap symbolique avec une valorisation estimée à 183 milliards de dollars.
IA Génératives

« Discussions temporaires » sur Gemini : un pas vers une IA plus respectueuse de la vie privée

L’émergence des intelligences artificielles génératives, capables d’interagir en langage naturel, transforme en profondeur notre rapport aux technologies. Ces outils conversationnels deviennent des assistants du quotidien, que ce soit pour travailler, apprendre, créer ou s’informer.
IA Génératives

ChatGPT passe à la vitesse supérieure : OpenAI dévoile GPT‑5

L’annonce était attendue depuis plus d’un an. Le 20 août 2025, OpenAI a officiellement dévoilé GPT 5, la nouvelle version de son modèle de langage phare, intégrée à ChatGPT et à l’API OpenAI. Cette sortie intervient dans un contexte de forte concurrence, alors que Claude 3.5 d’Anthropic, Gemini 2 de Google et DeepSeek-Vision font évoluer à grande vitesse le paysage de l’intelligence artificielle générative.
La clinique de l'IA

Vous souhaitez soumettre un projet à la clinique de l'IA et travailler avec nos étudiants.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *