Depuis l’émergence des grands modèles de langage, l’attention des chercheurs et développeurs s’est portée sur la sécurisation de leurs réponses. Les mécanismes de filtrage, d’alignement et de contrôle ont pour objectif de rendre les IA “utiles, honnêtes et inoffensives”. Pourtant, une nouvelle forme de contournement, plus subtile que les jailbreaks ou les prompt injections, commence à faire parler d’elle : le « vibe hacking ».