Avancées technologiques en IAInnovation & compétitivité par l’IA

GPT‑OSS : OpenAI publie ses premiers modèles open source depuis 2019

Depuis 2019, OpenAI s’était éloigné de son engagement initial pour l’open source, optant pour une stratégie plus commerciale et contrôlée autour de ses modèles propriétaires (GPT‑3, GPT‑4, puis GPT‑4o). C’est donc avec une certaine surprise que la communauté IA a accueilli, en juillet 2025, le lancement de GPT‑OSS, une famille de modèles publiée sous licence open source1

Dans un contexte marqué par l’essor de concurrents ouverts comme Mistral, Meta (LLaMA) ou DeepSeek, cette décision marque un tournant tactique pour OpenAI, et relance le débat sur la place de l’open source dans le développement de l’intelligence artificielle avancée.

La famille GPT‑OSS comprend deux modèles :

  • GPT‑OSS‑1.0B, un petit modèle de 1 milliard de paramètres
  • GPT‑OSS‑3.6B, un modèle intermédiaire de 3,6 milliards de paramètres

Ces modèles ont été entraînés sur des corpus multilingues filtrés, avec une attention particulière portée à la diversité des données et à la sécurité des générations. Bien que compacts, ils obtiennent des résultats compétitifs sur plusieurs benchmarks classiques d’évaluation2 :

BenchmarkGPT‑OSS‑3.6BRéférence (taille équivalente)
MMLU61,2 %Mistral-7B (63,9 %)
ARC (challenges logiques)74,4 %LLaMA‑3‑8B (75,1 %)
GSM8K (mathématiques)66,0 %DeepSeek Coder‑6B (68,5 %)

Résultats juillet 2025, évaluations indépendantes (Eleuther AI, LMSys)3

Les modèles sont disponibles sur GitHub et Hugging Face, accompagnés d’une documentation complète et d’exemples d’intégration via l’API open source de LangChain.

Bien que publiés sous une licence MIT, les modèles GPT‑OSS ne sont pas destinés à concurrencer GPT‑4o. Ils n’incluent ni vision, ni génération vocale, ni instruction tuning avancé. Il s’agit de modèles de base, centrés sur la compréhension et la génération de texte.

OpenAI précise que ces modèles sont proposés à des fins de recherche, de prototypage et de tests de sécurité, notamment pour favoriser l’auditabilité et l’expérimentation responsable. Les fichiers de pondération sont disponibles sans restriction, mais l’utilisation à grande échelle nécessite une mention explicite de la provenance.

Ce choix stratégique traduit une volonté de concilier transparence minimaleet maîtrise des risques, dans un climat de forte pression réglementaire.

La publication de GPT‑OSS ouvre plusieurs perspectives concrètes :

  • Accès à des modèles compacts mais performants, adaptés aux cas d’usage embarqués ou souverains
  • Reproductibilité des expériences académiques, grâce à un modèle entièrement documenté
  • Facilité d’intégration dans des chaînes de traitement open source (transformers, outils NLP, chatbots spécialisés)

Pour de nombreux chercheurs ou développeurs, ces modèles offrent un compromis acceptable entre performance, taille, et flexibilité. GPT‑OSS pourrait ainsi être utilisé comme base pour des projets pédagogiques, des assistants sectoriels, ou des tests de robustesse.

L’open source en IA n’est pas neutre. Il soulève des tensions entre :

  • la nécessité de transparence scientifique, souvent citée par la communauté académique
  • le risque de détournement ou de mauvaise utilisation, notamment pour générer du spam, des contenus manipulatoires ou des systèmes difficiles à auditer
  • la pression concurrentielle, dans laquelle les acteurs fermés peuvent paraître opaques ou inaccessibles

Dans ce contexte, OpenAI semble vouloir rééquilibrer son image, en proposant une ouverture partielle, sans compromettre la monétisation de ses modèles phares.

Ce mouvement peut également être lu comme une réponse indirecte aux appels des institutions et des régulateurs en faveur d’IA plus auditables, dans l’esprit de l’AI Act européen.

Le lancement de GPT‑OSS intervient quelques semaines après que Meta a publié les modèles LLaMA 3, que Mistral a élargi l’accès à Mixtral, et que DeepSeek a ouvert ses variantes Coder et Flow. Dans ce contexte, l’absence d’offre ouverte d’OpenAI devenait difficile à justifier.

GPT‑OSS s’inscrit donc dans une stratégie hybride :

  • modèles open source de base pour la recherche et les développeurs
  • modèles propriétaires (GPT‑4, GPT‑4o) pour l’API commerciale et les services premium
  • partenariats ciblés avec des fournisseurs de cloud et d’infrastructure (Microsoft, Azure)

Ce modèle de diffusion progressive pourrait préfigurer une cohabitation durable entre IA fermées et IA ouvertes, chacune répondant à des attentes différentes.

Découvrez également : Meta mise 14,8 milliards € sur Scale AI : une étape décisive vers la superintelligence.
Cet article examine comment Meta finance une infrastructure de données ambitieuse, complémentaire aux approches open source comme GPT‑OSS.

1. OpenAI. (2025). Introducing GPT-OSS Models.
https://openai.com/research/gpt-oss

2. LMSys(2025) Open LLM Benchmark Leaderboard.
https://huggingface.co/spaces/lmsys/chatbot-arena

3. Eleuther AI. (2025). GPT OSS Evaluation and Comparison.
https://www.eleuther.ai

Postes connexes
IA & santéIA GénérativesInnovation & compétitivité par l’IA

MedGPT : l’IA médicale française gratuite qui rivalise avec ChatGPT

Alors que l’intelligence artificielle s’invite dans tous les domaines, la médecine demeure l’un des secteurs les plus sensibles à sa transformation. En parallèle de l’essor des modèles généralistes comme ChatGPT, une nouvelle génération d’IA spécialisées voit le jour.
IA GénérativesInnovation & compétitivité par l’IA

OpenAI veut sa puce : la bataille des semi-conducteurs s’intensifie dans l’Intelligence Artificielle

L’intelligence artificielle générative, popularisée par des outils comme ChatGPT, repose sur des capacités de calcul massives. Derrière les modèles toujours plus performants se cache un élément-clé : la puce. Aujourd’hui, cette dépendance aux semi-conducteurs devient un enjeu stratégique majeur pour les laboratoires d’IA, les gouvernements et les industriels.
Innovation & compétitivité par l’IA

Mistral entre dans la cour des géants : 1,7 milliard d’euros levés pour l’IA souveraine

Moins de deux ans après sa création, la start-up française Mistral AI franchit une étape décisive : une levée de fonds de 1,7 milliard d’euros vient de porter sa valorisation à plus de 11,5 milliards, faisant d’elle la première “décacorne” française dans le secteur de l’intelligence artificielle.
La clinique de l'IA

Vous souhaitez soumettre un projet à la clinique de l'IA et travailler avec nos étudiants.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *