Site icon aivancity blog

GPT‑OSS : OpenAI publie ses premiers modèles open source depuis 2019

Depuis 2019, OpenAI s’était éloigné de son engagement initial pour l’open source, optant pour une stratégie plus commerciale et contrôlée autour de ses modèles propriétaires (GPT‑3, GPT‑4, puis GPT‑4o). C’est donc avec une certaine surprise que la communauté IA a accueilli, en juillet 2025, le lancement de GPT‑OSS, une famille de modèles publiée sous licence open source1

Dans un contexte marqué par l’essor de concurrents ouverts comme Mistral, Meta (LLaMA) ou DeepSeek, cette décision marque un tournant tactique pour OpenAI, et relance le débat sur la place de l’open source dans le développement de l’intelligence artificielle avancée.

La famille GPT‑OSS comprend deux modèles :

Ces modèles ont été entraînés sur des corpus multilingues filtrés, avec une attention particulière portée à la diversité des données et à la sécurité des générations. Bien que compacts, ils obtiennent des résultats compétitifs sur plusieurs benchmarks classiques d’évaluation2 :

BenchmarkGPT‑OSS‑3.6BRéférence (taille équivalente)
MMLU61,2 %Mistral-7B (63,9 %)
ARC (challenges logiques)74,4 %LLaMA‑3‑8B (75,1 %)
GSM8K (mathématiques)66,0 %DeepSeek Coder‑6B (68,5 %)

Résultats juillet 2025, évaluations indépendantes (Eleuther AI, LMSys)3

Les modèles sont disponibles sur GitHub et Hugging Face, accompagnés d’une documentation complète et d’exemples d’intégration via l’API open source de LangChain.

Bien que publiés sous une licence MIT, les modèles GPT‑OSS ne sont pas destinés à concurrencer GPT‑4o. Ils n’incluent ni vision, ni génération vocale, ni instruction tuning avancé. Il s’agit de modèles de base, centrés sur la compréhension et la génération de texte.

OpenAI précise que ces modèles sont proposés à des fins de recherche, de prototypage et de tests de sécurité, notamment pour favoriser l’auditabilité et l’expérimentation responsable. Les fichiers de pondération sont disponibles sans restriction, mais l’utilisation à grande échelle nécessite une mention explicite de la provenance.

Ce choix stratégique traduit une volonté de concilier transparence minimaleet maîtrise des risques, dans un climat de forte pression réglementaire.

La publication de GPT‑OSS ouvre plusieurs perspectives concrètes :

Pour de nombreux chercheurs ou développeurs, ces modèles offrent un compromis acceptable entre performance, taille, et flexibilité. GPT‑OSS pourrait ainsi être utilisé comme base pour des projets pédagogiques, des assistants sectoriels, ou des tests de robustesse.

L’open source en IA n’est pas neutre. Il soulève des tensions entre :

Dans ce contexte, OpenAI semble vouloir rééquilibrer son image, en proposant une ouverture partielle, sans compromettre la monétisation de ses modèles phares.

Ce mouvement peut également être lu comme une réponse indirecte aux appels des institutions et des régulateurs en faveur d’IA plus auditables, dans l’esprit de l’AI Act européen.

Le lancement de GPT‑OSS intervient quelques semaines après que Meta a publié les modèles LLaMA 3, que Mistral a élargi l’accès à Mixtral, et que DeepSeek a ouvert ses variantes Coder et Flow. Dans ce contexte, l’absence d’offre ouverte d’OpenAI devenait difficile à justifier.

GPT‑OSS s’inscrit donc dans une stratégie hybride :

Ce modèle de diffusion progressive pourrait préfigurer une cohabitation durable entre IA fermées et IA ouvertes, chacune répondant à des attentes différentes.

Découvrez également : Meta mise 14,8 milliards € sur Scale AI : une étape décisive vers la superintelligence.
Cet article examine comment Meta finance une infrastructure de données ambitieuse, complémentaire aux approches open source comme GPT‑OSS.

1. OpenAI. (2025). Introducing GPT-OSS Models.
https://openai.com/research/gpt-oss

2. LMSys(2025) Open LLM Benchmark Leaderboard.
https://huggingface.co/spaces/lmsys/chatbot-arena

3. Eleuther AI. (2025). GPT OSS Evaluation and Comparison.
https://www.eleuther.ai

Quitter la version mobile