Avancées technologiques en IAInnovation & compétitivité par l’IA

GPT‑OSS : OpenAI publie ses premiers modèles open source depuis 2019

Depuis 2019, OpenAI s’était éloigné de son engagement initial pour l’open source, optant pour une stratégie plus commerciale et contrôlée autour de ses modèles propriétaires (GPT‑3, GPT‑4, puis GPT‑4o). C’est donc avec une certaine surprise que la communauté IA a accueilli, en juillet 2025, le lancement de GPT‑OSS, une famille de modèles publiée sous licence open source1

Dans un contexte marqué par l’essor de concurrents ouverts comme Mistral, Meta (LLaMA) ou DeepSeek, cette décision marque un tournant tactique pour OpenAI, et relance le débat sur la place de l’open source dans le développement de l’intelligence artificielle avancée.

La famille GPT‑OSS comprend deux modèles :

  • GPT‑OSS‑1.0B, un petit modèle de 1 milliard de paramètres
  • GPT‑OSS‑3.6B, un modèle intermédiaire de 3,6 milliards de paramètres

Ces modèles ont été entraînés sur des corpus multilingues filtrés, avec une attention particulière portée à la diversité des données et à la sécurité des générations. Bien que compacts, ils obtiennent des résultats compétitifs sur plusieurs benchmarks classiques d’évaluation2 :

BenchmarkGPT‑OSS‑3.6BRéférence (taille équivalente)
MMLU61,2 %Mistral-7B (63,9 %)
ARC (challenges logiques)74,4 %LLaMA‑3‑8B (75,1 %)
GSM8K (mathématiques)66,0 %DeepSeek Coder‑6B (68,5 %)

Résultats juillet 2025, évaluations indépendantes (Eleuther AI, LMSys)3

Les modèles sont disponibles sur GitHub et Hugging Face, accompagnés d’une documentation complète et d’exemples d’intégration via l’API open source de LangChain.

Bien que publiés sous une licence MIT, les modèles GPT‑OSS ne sont pas destinés à concurrencer GPT‑4o. Ils n’incluent ni vision, ni génération vocale, ni instruction tuning avancé. Il s’agit de modèles de base, centrés sur la compréhension et la génération de texte.

OpenAI précise que ces modèles sont proposés à des fins de recherche, de prototypage et de tests de sécurité, notamment pour favoriser l’auditabilité et l’expérimentation responsable. Les fichiers de pondération sont disponibles sans restriction, mais l’utilisation à grande échelle nécessite une mention explicite de la provenance.

Ce choix stratégique traduit une volonté de concilier transparence minimaleet maîtrise des risques, dans un climat de forte pression réglementaire.

La publication de GPT‑OSS ouvre plusieurs perspectives concrètes :

  • Accès à des modèles compacts mais performants, adaptés aux cas d’usage embarqués ou souverains
  • Reproductibilité des expériences académiques, grâce à un modèle entièrement documenté
  • Facilité d’intégration dans des chaînes de traitement open source (transformers, outils NLP, chatbots spécialisés)

Pour de nombreux chercheurs ou développeurs, ces modèles offrent un compromis acceptable entre performance, taille, et flexibilité. GPT‑OSS pourrait ainsi être utilisé comme base pour des projets pédagogiques, des assistants sectoriels, ou des tests de robustesse.

L’open source en IA n’est pas neutre. Il soulève des tensions entre :

  • la nécessité de transparence scientifique, souvent citée par la communauté académique
  • le risque de détournement ou de mauvaise utilisation, notamment pour générer du spam, des contenus manipulatoires ou des systèmes difficiles à auditer
  • la pression concurrentielle, dans laquelle les acteurs fermés peuvent paraître opaques ou inaccessibles

Dans ce contexte, OpenAI semble vouloir rééquilibrer son image, en proposant une ouverture partielle, sans compromettre la monétisation de ses modèles phares.

Ce mouvement peut également être lu comme une réponse indirecte aux appels des institutions et des régulateurs en faveur d’IA plus auditables, dans l’esprit de l’AI Act européen.

Le lancement de GPT‑OSS intervient quelques semaines après que Meta a publié les modèles LLaMA 3, que Mistral a élargi l’accès à Mixtral, et que DeepSeek a ouvert ses variantes Coder et Flow. Dans ce contexte, l’absence d’offre ouverte d’OpenAI devenait difficile à justifier.

GPT‑OSS s’inscrit donc dans une stratégie hybride :

  • modèles open source de base pour la recherche et les développeurs
  • modèles propriétaires (GPT‑4, GPT‑4o) pour l’API commerciale et les services premium
  • partenariats ciblés avec des fournisseurs de cloud et d’infrastructure (Microsoft, Azure)

Ce modèle de diffusion progressive pourrait préfigurer une cohabitation durable entre IA fermées et IA ouvertes, chacune répondant à des attentes différentes.

Découvrez également : Meta mise 14,8 milliards € sur Scale AI : une étape décisive vers la superintelligence.
Cet article examine comment Meta finance une infrastructure de données ambitieuse, complémentaire aux approches open source comme GPT‑OSS.

1. OpenAI. (2025). Introducing GPT-OSS Models.
https://openai.com/research/gpt-oss

2. LMSys(2025) Open LLM Benchmark Leaderboard.
https://huggingface.co/spaces/lmsys/chatbot-arena

3. Eleuther AI. (2025). GPT OSS Evaluation and Comparison.
https://www.eleuther.ai

Postes connexes
Avancées technologiques en IAIA & santé

L’IA Delphi-2M bouleverse la médecine préventive en détectant plus de 1 000 maladies à l’avance

Et si l’intelligence artificielle permettait d’anticiper les maladies avant même l’apparition du moindre symptôme ? C’est la promesse de Delphi-2M, un modèle d’IA de nouvelle génération capable de détecter plus de 1 000 pathologies plusieurs…
Avancées technologiques en IAIA & santé

Samsung Galaxy Watch : l’IA capable de détecter les signes d’une maladie cardiaque grave

Les montres connectées s’affirment comme de véritables instruments médicaux de nouvelle génération. Avec sa Galaxy Watch, Samsung franchit un nouveau cap : intégrer une intelligence artificielle capable de détecter les signes précoces d’insuffisance cardiaque, une…
Avancées technologiques en IAInnovation & compétitivité par l’IA

Claude Sonnet 4.5 : Anthropic veut faire de l’IA le copilote incontournable des développeurs

Claude Sonnet 4.5 repose sur la même architecture que la famille des modèles Claude 3, mais optimisée pour la logique de programmation. Son modèle linguistique de grande taille (LLM) est entraîné à reconnaître la structure,…
La clinique de l'IA

Vous souhaitez soumettre un projet à la clinique de l'IA et travailler avec nos étudiants.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *