Site icon aivancity blog

Qwen3 : le modèle d’Alibaba qui défie OpenAI et DeepSeek en mathématiques et en codage

Alors que les grands modèles de langage sont dominés par les États-Unis, la Chine renforce progressivement sa position sur le terrain de l’intelligence artificielle de haut niveau. Avec Qwen3, Alibaba ambitionne de proposer un modèle compétitif dans les domaines stratégiques du raisonnement mathématique et de la génération de code. L’enjeu n’est pas seulement technologique, il est aussi symbolique. Dans un contexte international de plus en plus polarisé, la capacité à produire des modèles performants et fiables devient un indicateur de souveraineté numérique.

Selon le dernier rapport de Hugging Face, les contributions chinoises représentent désormais 29 % des nouveaux modèles publiés sur la plateforme1. Qwen3 s’inscrit dans cette dynamique ascendante, en visant explicitement les performances de GPT-4, Claude 3 et DeepSeek sur les tâches de type STEM (science, technologie, ingénierie, mathématiques).

La famille Qwen3 se décline en plusieurs variantes :

En avril 2025, Alibaba a annoncé que Qwen3-72B surpassait GPT-4 sur certains benchmarks de mathématiques avancées, notamment MATH et GSM8K, tout en atteignant plus de 81 % de réussite sur HumanEval, un standard de génération de code Python2.

Le modèle repose sur un pré-entraînement massif multilingue, enrichi de jeux de données mathématiques structurés (proofwiki, arXiv, MathQA) et de millions d’exemples de code. Un alignement renforcé a été opéré via des techniques de reinforcement learning from human feedback (RLHF), focalisées sur la rigueur logique et la lisibilité du code généré.

Voici un tableau comparatif des scores atteints par Qwen3 et ses concurrents sur des benchmarks de référence :

ModèleGSM8K (raisonnement mathématique)MATH (problèmes formels)HumanEval (code Python)MBPP (programmation simple)Licence
Qwen3-72B89,6 %54,1 %81,2 %71,5 %Apache 2.0
GPT-4~92 %~50 %~88 %~77 %Propriétaire
DeepSeek Coder88,8 %N/A84,1 %75,3 %MIT
Claude 3 Opus89,3 %~47 %~83 %~72 %Propriétaire

Sources combinées : rapports techniques publiés, tests indépendants reproductibles (avril à juillet 2025)

Ce tableau montre que Qwen3 rivalise sérieusement avec les meilleurs modèles du marché, tout en étant publié sous une licence ouverte. Il se distingue notamment par ses performances sur les mathématiques formelles, un domaine historiquement difficile pour les LLM.

Les compétences logiques et algorithmiques d’un modèle ne sont pas anecdotiques. Elles conditionnent sa capacité à :

Ces capacités sont désormais recherchées dans plusieurs secteurs : éducation scientifique, assistance à la recherche, prototypage logiciel, automatisation de tâches techniques. En 2025, près de 44 % des développeurs interrogés par Stack Overflow déclaraient utiliser une IA pour tester ou écrire du code au quotidien3.

Malgré son ouverture relative, Qwen3 présente certaines zones grises :

Par ailleurs, l’architecture Mixture of Experts peut introduire des variations non déterministes dans les résultats, rendant plus difficile l’évaluation stable du modèle.

Plus un modèle devient performant, plus les questions liées à son usage deviennent sensibles :

La puissance d’un modèle en mathématiques ou en programmation soulève ainsi la question d’une gouvernance technique et éthique spécifique, encore insuffisamment anticipée dans les régulations en cours.

En publiant Qwen3 sous licence Apache, tout en obtenant des performances comparables aux leaders fermés, Alibaba pose un jalon stratégique. Le modèle montre qu’il est possible de combiner ouverture, puissance et spécialisation, dans un domaine très exigeant.

Cela renforce l’idée d’un monde IA multipolaire, où des modèles chinois, américains et européens coexisteront, chacun avec ses choix d’architecture, de licence et d’usage. Mais pour que cette diversité soit bénéfique, elle devra s’accompagner d’un effort collectif en matière d’interopérabilité, de documentation et de transparence scientifique.

Découvrez également sur notre blog DeepSeek R1‑0528 : le modèle open source qui rivalise avec les IA avancées, un article qui examine comment DeepSeek se positionne face aux géants de l’IA ouverte.

1. Hugging Face. (2025). The Open LLM Ecosystem Report Q2.
https://huggingface.co/

2. Alibaba DAMO Academy. (2025). Qwen3 Technical Report.
https://modelscope.cn/

3. Stack Overflow Developer Survey. (2025). How Developers Use AI Tools.
https://stackoverflow.blog/

Quitter la version mobile