Depuis l’émergence des grands modèles de langage, l’attention des chercheurs et développeurs s’est portée sur la sécurisation de leurs réponses. Les mécanismes de filtrage, d’alignement et de contrôle ont pour objectif de rendre les IA “utiles, honnêtes et inoffensives”. Pourtant, une nouvelle forme de contournement, plus subtile que les jailbreaks ou les prompt injections, commence à faire parler d’elle : le « vibe hacking ».
Depuis 2019, OpenAI s’était éloigné de son engagement initial pour l’open source, optant pour une stratégie plus commerciale et contrôlée autour de ses modèles propriétaires (GPT 3, GPT 4, puis GPT 4o). C’est donc avec une certaine surprise que la communauté IA a accueilli, en juillet 2025, le lancement de GPT OSS, une famille de modèles publiée sous licence open source.
Google, fort de son expérience dans le déploiement d’IA à grande échelle, propose une réponse méthodologique à ce constat avec le cadre MLE-STAR. Conçu comme une synthèse des bonnes pratiques en ingénierie logicielle adaptées au ML, ce référentiel vise à structurer les projets IA de manière plus fiable, plus modulaire et plus durable.