Technological Advances in AIAI & Robotics

Une IA sans cloud : Gemini Robotics transforme la robotique embarquée

Et si les robots devenaient réellement autonomes, sans dépendre d’une connexion cloud ? Le 24 juin 2025, Google DeepMind a dévoilé Gemini Robotics On-Device, une version embarquée de son modèle d’intelligence artificielle Gemini, pensée pour opérer directement sur les machines robotiques. Une évolution technologique qui marque une avancée stratégique dans le domaine de la robotique adaptative, avec un mot d’ordre : réactivité locale, sans latence réseau.

Ce lancement s’inscrit dans une tendance plus large de miniaturisation et d’optimisation des modèles de fondation, capables d’être exécutés en local sur des plateformes matérielles à ressources limitées, tout en maintenant un haut niveau de performance cognitive.

Gemini Robotics On-Device a été conçu pour équiper des robots d’usage général et leur permettre de comprendre, s’adapter et interagir finement avec leur environnement physique. Contrairement aux modèles classiques de robotique dépendants du cloud, cette IA est opérationnelle en temps réel, même en l’absence de connexion.

Parmi les cas d’usage concrets expérimentés :

  • Manipulation d’objets non rigides ou instables, comme verser de l’eau sans renverser ou plier des vêtements ;
  • Navigation en environnement dynamique, avec adaptation continue à des obstacles mouvants ;
  • Exécution de tâches complexes en milieu domestique, comme charger un lave-vaisselle, trier des objets ou réorganiser un espace ;
  • Intervention en milieu industriel ou médical où la latence réseau est critique (robots d’assistance ou d’inspection).

Selon les chercheurs de DeepMind, Gemini Robotics combine des capacités de planification motrice, compréhension visuelle, raisonnement spatial, et adaptation en boucle fermée, autrement dit : le robot perçoit, comprend et ajuste ses actions sans supervision.

L’une des particularités de cette version embarquée réside dans sa capacité à interpréter des commandes en langage naturelet à les traduire en actions physiques coordonnées. Cela repose sur une intégration avancée entre les modèles de langage Gemini et les moteurs de contrôle moteur (Motion Planning).

Lors d’une démonstration, un robot équipé de Gemini On-Device a pu exécuter une instruction aussi vague que « nettoie ce désordre » et déterminer les gestes nécessaires pour ramasser, trier et ranger des objets dans un environnement inconnu.

Cette fusion entre langage, vision et action permet de concevoir une nouvelle génération de robots polyvalents, capables de s’adapter à des tâches non scriptées dans des contextes réels.

Le choix de faire fonctionner l’IA sans passer par le cloud ouvre plusieurs perspectives structurantes :

  • Réduction de la latence, cruciale pour les micro-ajustements en temps réel dans les tâches motrices ;
  • Renforcement de la sécurité et de la confidentialité, car les données restent localisées ;
  • Robustesse en conditions extrêmes (absence de réseau, brouillage, contraintes énergétiques) ;
  • Diminution de la dépendance énergétique au cloud, un enjeu central pour une IA plus durable.

Selon une étude de Boston Consulting Group (2024), le marché mondial de la robotique embarquée atteindra 92 milliards de dollars d’ici 2027, porté par les secteurs de la logistique, de la santé, de la défense et de l’aide à la personne1.

Si la performance technique de Gemini Robotics est saluée, son déploiement soulève des enjeux critiques. Quels garde-fous pour encadrer l’autonomie décisionnelle de robots sans supervision humaine ? Comment éviter une fragmentation des usages selon les capacités matérielles ? Quels standards éthiques pour les IA opérant en local ?

Pour l’instant, Gemini On-Device reste réservé à des partenaires sélectionnés et à des environnements expérimentaux. Mais son potentiel de massification dans les prochaines années pourrait accélérer la transition vers une robotique ubiquitaire, discrète et intégrée à notre quotidien.

1. Boston Consulting Group. (2024). The Rise of Embedded AI in Robotics.
https://www.bcg.com/publications/2024/embedded-ai-robotics

Don't miss our upcoming articles!

Get the latest articles written by aivancity experts and professors delivered straight to your inbox.

We don't send spam! Please see our privacy policy for more information.

Don't miss our upcoming articles!

Get the latest articles written by aivancity experts and professors delivered straight to your inbox.

We don't send spam! Please see our privacy policy for more information.

Related posts
Technological Advances in AI

Claude Code Voice: Anthropic finally lets you control your code with your voice

Artificial intelligence is gradually transforming the way developers interact with their programming environment. Following the emergence of code assistants capable of suggesting or generating entire functions, a new phase is taking shape: the…
AI & Robotics

Honor at MWC 2026: a smartphone… and an AI robot?

At the 2026 Mobile World Congress in Barcelona, Honor didn’t just unveil a new smartphone. The Chinese brand chose to set the stage for a potential breakthrough by unveiling a device equipped with a motorized camera module capable of…
Technological Advances in AIAI & Robotics

What if an elephant's whiskers could change the future of robots?

How can a five-ton animal handle a peanut with more dexterity than a state-of-the-art robotic arm? The answer lies neither in its strength nor in its size, but…
The AI Clinic

Would you like to submit a project to the AI Clinic and work with our students?

Leave a comment

Your email address will not be published. Required fields are marked with *