Avancées technologiques en IAInnovation & compétitivité par l’IA

GPT‑OSS : OpenAI publie ses premiers modèles open source depuis 2019

Depuis 2019, OpenAI s’était éloigné de son engagement initial pour l’open source, optant pour une stratégie plus commerciale et contrôlée autour de ses modèles propriétaires (GPT‑3, GPT‑4, puis GPT‑4o). C’est donc avec une certaine surprise que la communauté IA a accueilli, en juillet 2025, le lancement de GPT‑OSS, une famille de modèles publiée sous licence open source1

Dans un contexte marqué par l’essor de concurrents ouverts comme Mistral, Meta (LLaMA) ou DeepSeek, cette décision marque un tournant tactique pour OpenAI, et relance le débat sur la place de l’open source dans le développement de l’intelligence artificielle avancée.

La famille GPT‑OSS comprend deux modèles :

  • GPT‑OSS‑1.0B, un petit modèle de 1 milliard de paramètres
  • GPT‑OSS‑3.6B, un modèle intermédiaire de 3,6 milliards de paramètres

Ces modèles ont été entraînés sur des corpus multilingues filtrés, avec une attention particulière portée à la diversité des données et à la sécurité des générations. Bien que compacts, ils obtiennent des résultats compétitifs sur plusieurs benchmarks classiques d’évaluation2 :

BenchmarkGPT‑OSS‑3.6BRéférence (taille équivalente)
MMLU61,2 %Mistral-7B (63,9 %)
ARC (challenges logiques)74,4 %LLaMA‑3‑8B (75,1 %)
GSM8K (mathématiques)66,0 %DeepSeek Coder‑6B (68,5 %)

Résultats juillet 2025, évaluations indépendantes (Eleuther AI, LMSys)3

Les modèles sont disponibles sur GitHub et Hugging Face, accompagnés d’une documentation complète et d’exemples d’intégration via l’API open source de LangChain.

Bien que publiés sous une licence MIT, les modèles GPT‑OSS ne sont pas destinés à concurrencer GPT‑4o. Ils n’incluent ni vision, ni génération vocale, ni instruction tuning avancé. Il s’agit de modèles de base, centrés sur la compréhension et la génération de texte.

OpenAI précise que ces modèles sont proposés à des fins de recherche, de prototypage et de tests de sécurité, notamment pour favoriser l’auditabilité et l’expérimentation responsable. Les fichiers de pondération sont disponibles sans restriction, mais l’utilisation à grande échelle nécessite une mention explicite de la provenance.

Ce choix stratégique traduit une volonté de concilier transparence minimaleet maîtrise des risques, dans un climat de forte pression réglementaire.

La publication de GPT‑OSS ouvre plusieurs perspectives concrètes :

  • Accès à des modèles compacts mais performants, adaptés aux cas d’usage embarqués ou souverains
  • Reproductibilité des expériences académiques, grâce à un modèle entièrement documenté
  • Facilité d’intégration dans des chaînes de traitement open source (transformers, outils NLP, chatbots spécialisés)

Pour de nombreux chercheurs ou développeurs, ces modèles offrent un compromis acceptable entre performance, taille, et flexibilité. GPT‑OSS pourrait ainsi être utilisé comme base pour des projets pédagogiques, des assistants sectoriels, ou des tests de robustesse.

L’open source en IA n’est pas neutre. Il soulève des tensions entre :

  • la nécessité de transparence scientifique, souvent citée par la communauté académique
  • le risque de détournement ou de mauvaise utilisation, notamment pour générer du spam, des contenus manipulatoires ou des systèmes difficiles à auditer
  • la pression concurrentielle, dans laquelle les acteurs fermés peuvent paraître opaques ou inaccessibles

Dans ce contexte, OpenAI semble vouloir rééquilibrer son image, en proposant une ouverture partielle, sans compromettre la monétisation de ses modèles phares.

Ce mouvement peut également être lu comme une réponse indirecte aux appels des institutions et des régulateurs en faveur d’IA plus auditables, dans l’esprit de l’AI Act européen.

Le lancement de GPT‑OSS intervient quelques semaines après que Meta a publié les modèles LLaMA 3, que Mistral a élargi l’accès à Mixtral, et que DeepSeek a ouvert ses variantes Coder et Flow. Dans ce contexte, l’absence d’offre ouverte d’OpenAI devenait difficile à justifier.

GPT‑OSS s’inscrit donc dans une stratégie hybride :

  • modèles open source de base pour la recherche et les développeurs
  • modèles propriétaires (GPT‑4, GPT‑4o) pour l’API commerciale et les services premium
  • partenariats ciblés avec des fournisseurs de cloud et d’infrastructure (Microsoft, Azure)

Ce modèle de diffusion progressive pourrait préfigurer une cohabitation durable entre IA fermées et IA ouvertes, chacune répondant à des attentes différentes.

Découvrez également : Meta mise 14,8 milliards € sur Scale AI : une étape décisive vers la superintelligence.
Cet article examine comment Meta finance une infrastructure de données ambitieuse, complémentaire aux approches open source comme GPT‑OSS.

1. OpenAI. (2025). Introducing GPT-OSS Models.
https://openai.com/research/gpt-oss

2. LMSys(2025) Open LLM Benchmark Leaderboard.
https://huggingface.co/spaces/lmsys/chatbot-arena

3. Eleuther AI. (2025). GPT OSS Evaluation and Comparison.
https://www.eleuther.ai

Postes connexes
Avancées technologiques en IARecherche en IA

MLE-STAR : la recette de Google pour structurer efficacement l’ingénierie du Machine Learning

Google, fort de son expérience dans le déploiement d’IA à grande échelle, propose une réponse méthodologique à ce constat avec le cadre MLE-STAR. Conçu comme une synthèse des bonnes pratiques en ingénierie logicielle adaptées au ML, ce référentiel vise à structurer les projets IA de manière plus fiable, plus modulaire et plus durable.
Avancées technologiques en IAIA Génératives

Qwen3 : le modèle d’Alibaba qui défie OpenAI et DeepSeek en mathématiques et en codage

Alors que les grands modèles de langage sont dominés par les États-Unis, la Chine renforce progressivement sa position sur le terrain de l’intelligence artificielle de haut niveau. Avec Qwen3, Alibaba ambitionne de proposer un modèle compétitif dans les domaines stratégiques du raisonnement mathématique et de la génération de code.
Avancées technologiques en IAIA AgentiqueInnovation & compétitivité par l’IA

ChatGPT Agent : OpenAI introduit une IA capable de planifier, exécuter… et apprendre

Depuis l’émergence des grands modèles de langage, l’intelligence artificielle conversationnelle a progressé rapidement en matière de compréhension, de génération et d’interactivité. Mais jusqu’à présent, les assistants comme ChatGPT, Claude ou Gemini restaient limités à un rôle d’interlocuteur, sans pouvoir agir directement dans un environnement numérique.
La clinique de l'IA

Vous souhaitez soumettre un projet à la clinique de l'IA et travailler avec nos étudiants.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *