Boston Dynamics et Google DeepMind équipe le robot Spot de Gemini Robotics pour lire des jauges à 98% et détecter des déversements en usine sans opérateur humain

Boston Dynamics et Google DeepMind équipe le robot Spot de Gemini Robotics pour lire des jauges à 98% et détecter des déversements en usine sans opérateur humain

Boston Dynamics vient d’ajouter le modèle Gemini Robotics-ER 1.6 de Google DeepMind à son robot quadrupède Spot, avec une promesse claire, faire passer l’inspection industrielle de routines programmées à des décisions guidées par le raisonnement.

Dans les démonstrations, Spot ne se contente plus de filmer et d’envoyer des images, il interprète une situation, lit des instruments et identifie des anomalies comme des déversements. Le contexte compte, Spot n’est pas un prototype de laboratoire. Il existe déjà plusieurs milliers d’unités déployées dans des usines, entrepôts et sites énergétiques, ce qui donne à cette évolution un parfum très concret. L’objectif affiché, gagner en autonomie sans perdre la fiabilité, un point sensible dès qu’un robot doit signaler un incident, ou au contraire éviter une fausse alerte qui fatigue les équipes terrain.

Boston Dynamics déploie Gemini Robotics-ER 1.6 sur Spot

Ce qui change avec l’intégration de Gemini Robotics-ER 1.6, c’est la couche de raisonnement au-dessus des capteurs et des scripts. Jusqu’ici, un robot d’inspection excelle quand on lui décrit précisément la tâche, le trajet, les conditions attendues. Là, Spot gagne une capacité à relier ce qu’il voit à une intention, puis à décider d’une action pertinente, sans qu’un opérateur doive tout anticiper.

Dans les démonstrations partagées par l’entreprise, Spot peut suivre une liste d’actions écrite à la main, ranger des objets, déplacer des canettes, mettre du linge dans un panier. Ce n’est pas le cur de l’inspection industrielle, mais ça illustre un point clé, la compréhension d’instructions en langage naturel et la planification d’étapes physiques. Pour un site industriel, la version utile ressemble à “va vérifier ce local, puis confirme si la vanne est dans la bonne position”.

La direction de Spot, via Marco da Silva, présente cette évolution comme un pas vers des robots capables de “voir, comprendre et réagir” de manière autonome face à des situations réelles. La nuance importante, c’est le mot “autonome” dans un environnement où la sécurité prime. Un robot qui se trompe sur une lecture d’instrument ou qui rate un obstacle n’est pas un bug amusant, c’est un risque opérationnel, voire un arrêt de production.

Le partenariat implique aussi Google Cloud dans l’équation, ce qui suggère une architecture où certaines fonctions peuvent s’appuyer sur des services logiciels et des outils d’analyse. Sur le papier, ça ouvre la porte à des déploiements plus rapides de nouvelles capacités. Mais sur le terrain, il faut composer avec des contraintes réseau, des zones sans connectivité, et des politiques strictes de cybersécurité, surtout dans l’énergie ou la chimie.

Orbit et AIVI-Learning visent des inspections plus autonomes

Le nerf de la guerre, c’est la plateforme logicielle. Orbit, la solution de gestion de flotte de Boston Dynamics, s’appuie sur AIVI, pour “AI Visual Inspection”, et sur AIVI-Learning pour faire évoluer les capacités d’analyse. L’intégration de Gemini vient renforcer ce pipeline, Spot capture des images et des vidéos, puis le système répond à des questions opérationnelles, par exemple vérifier si une porte est restée ouverte ou si une zone présente un danger.

Dans une usine, l’inspection visuelle est souvent un mille-feuille de check-lists. Un opérateur doit passer à heure fixe, regarder un manomètre, noter une valeur, vérifier une fuite, puis recommencer. Automatiser la collecte d’images, c’est déjà utile. Mais le saut qualitatif, c’est quand le système peut interpréter ce qu’il voit et qualifier l’écart, “cette jauge est hors plage” ou “ce liquide au sol ressemble à un déversement”. C’est là que le raisonnement “incarné” devient un argument.

A lire aussi :  Ce drone de 2 tonnes livre du thé en 37 minutes et pourrait bouleverser la logistique mondiale

Boston Dynamics explique que les environnements industriels sont complexes et que la gestion d’actifs demande plus que de la reconnaissance d’objets. Dit autrement, reconnaître une pompe n’aide pas si tu ne sais pas si elle est dans un état normal. L’ambition de Gemini, c’est de comprendre des concepts plus riches “dès le départ”, pour déployer plus vite des fonctionnalités avancées, sans réentraîner un modèle sur des semaines d’images spécifiques à chaque client.

La promesse de “continuer à apprendre” via AIVI-Learning attire l’attention, parce qu’elle touche à la réalité des sites. Les conditions changent, éclairage, poussière, reflets, nouveaux marquages, équipements remplacés. Un système statique se dégrade. Un système qui s’adapte peut rester performant, mais il faut un cadre strict, qui valide ce qui est appris, qui trace les modifications, et qui évite que le robot se mette à “surinterpréter” une scène et à multiplier les alertes inutiles.

La lecture d’instruments atteint 98% sur des jauges analogiques

La capacité la plus tangible annoncée, c’est la lecture d’instruments. Selon les informations communiquées, Spot peut lire des jauges analogiques, des thermomètres, des niveaux de liquide avec une précision annoncée à 98% pendant des inspections en usine. Dans un monde industriel, c’est un gros morceau, parce que beaucoup d’équipements ne sont pas connectés, ou pas connectables facilement, et qu’une lecture visuelle reste la méthode la plus simple.

Concrètement, une tournée d’inspection peut inclure des dizaines de points de contrôle. Un agent relève une pression, une température, un niveau, puis saisit tout dans un système. Un robot qui lit ces valeurs réduit la charge, et il peut le faire plus souvent, par exemple toutes les heures, sans mobiliser un humain. L’intérêt monte encore quand il sait détecter si une lecture est incohérente, par exemple si l’aiguille est masquée par un reflet, et qu’il doit se repositionner.

La détection de déversements est l’autre exemple mis en avant. Sur site, une flaque peut être de l’eau de nettoyage, ou un liquide de process. Le robot n’a pas le droit de deviner, mais il peut signaler une anomalie visuelle, la localiser, et fournir des images utiles aux équipes HSE. Le raisonnement intervient quand il doit distinguer une ombre d’une tache, ou comprendre qu’un sol brillant peut tromper la caméra.

Il faut aussi parler de la limite implicite. Même à 98%, il reste 2% d’erreurs potentielles, et sur des milliers de lectures, ça compte. Une fausse lecture peut déclencher une intervention inutile, ou pire, rater un signal faible. C’est pour ça que la notion de seuil de fiabilité et de confiance utilisateur revient dans les annonces, l’objectif n’est pas seulement d’être “bon”, mais d’être stable, explicable, et prévisible dans la durée.

A lire aussi :  15 ventilateurs sur un seul panneau, ce “Superdome” fait perdre 20°C au processeur et défie les limites du refroidissement

Carolina Parada souligne les limites du raisonnement sans toucher

Du côté de Google DeepMind, la responsable robotique Carolina Parada met un point d’attention, le modèle s’appuie fortement sur la vision et n’a pas encore l’équivalent de l’expérience physique humaine, celle qu’on acquiert par le toucher, la résistance, le poids, les micro-indices. Pour un robot d’inspection, ça veut dire qu’il peut très bien “voir” une poignée, mais mal estimer si une porte est coincée, ou si un objet est glissant.

Cette limite n’est pas un détail, c’est une frontière entre démo et production. Dans un entrepôt, un sol peut être légèrement irrégulier, un câble peut traîner, une grille peut vibrer. Un modèle de raisonnement peut planifier, mais il doit aussi composer avec des surprises mécaniques. C’est là que les systèmes de sécurité, les capteurs, et les règles de comportement prennent le relais, pour éviter qu’une décision “logique” se traduise par une action risquée.

DeepMind évoque des benchmarks et des garde-fous pour guider le comportement en conditions réelles, avec une idée simple, il faut tester et mesurer ce qu’un robot fait quand il doute. Est-ce qu’il s’arrête, est-ce qu’il demande une validation, est-ce qu’il change d’angle de vue, est-ce qu’il marque l’événement comme incertain. Dans l’inspection, un “je ne sais pas” bien géré vaut parfois mieux qu’un “je suis sûr” erroné.

La critique qu’on peut formuler, c’est que le discours sur le raisonnement peut donner l’impression que tout devient facile. Non, l’intégration d’un modèle ne supprime pas les contraintes de déploiement, calibrage caméra, éclairage, zones ATEX, procédures internes, formation des équipes. Le progrès est réel, mais il se paie en ingénierie, et en itérations. L’important, c’est la trajectoire, réduire la part de scripts rigides, sans transformer le robot en boîte noire incontrôlable.

Les retours clients doivent prouver la fiabilité des robots d’inspection

Boston Dynamics insiste sur des déploiements progressifs et contrôlés, avec une boucle de retour client pour affiner le système. C’est logique, parce que Spot opère déjà à une échelle rare pour un robot à pattes, avec plusieurs milliers d’unités en service. Cette base installée transforme chaque mise à jour en test grandeur nature, sur des sites très différents, du bruit, de la poussière, des reflets métalliques, des couloirs étroits.

La question centrale devient la confiance. Une inspection automatisée n’a de valeur que si les équipes croient aux alertes. Trop de faux positifs, et les opérateurs ignorent le système. Trop de faux négatifs, et on revient au papier. Les annonces parlent d’un seuil de fiabilité à atteindre, pour éviter les alertes fantômes. C’est un sujet très concret, parce qu’un robot qui “voit” une fuite là où il n’y en a pas peut déclencher des procédures coûteuses.

Il y a aussi l’enjeu organisationnel. Quand un robot lit une jauge, qui signe la conformité, qui valide l’anomalie, qui décide d’arrêter une ligne. Les entreprises vont souvent commencer par des usages où le risque est limité, inspection de routine, surveillance de zones peu critiques, puis élargir. L’intégration de Gemini peut accélérer ce passage, mais elle n’élimine pas les responsabilités humaines, surtout en sécurité.

A lire aussi :  Cette machine allemande enlève 12 litres de métal par minute promettant une précision extrême pour l’aéronautique

Enfin, cette expérience sur Spot sert de laboratoire pour d’autres plateformes. Les responsables cités évoquent l’idée d’appliquer les leçons à d’autres robots “incarnés”, y compris Atlas, même si personne ne vend Atlas comme futur robot d’inspection. L’intérêt, c’est la méthode, apprendre comment un modèle de raisonnement se comporte en production, quels cas le font échouer, et comment instrumenter le système pour qu’il reste utile quand le monde réel, lui, ne suit jamais le script.

À retenir

  • Spot intègre Gemini Robotics-ER 1.6 pour passer de scripts à du raisonnement embarqué
  • Orbit, AIVI et AIVI-Learning structurent l’inspection visuelle et l’amélioration continue
  • La lecture de jauges analogiques est annoncée à 98% de précision en inspections
  • DeepMind rappelle les limites d’un raisonnement surtout basé sur la vision, sans toucher
  • Les déploiements progressifs et le seuil de fiabilité des alertes restent décisifs

Questions fréquentes

Qu’apporte Gemini Robotics-ER 1.6 à Spot par rapport à une programmation classique ?
Le modèle vise à permettre à Spot de raisonner sur ce qu’il observe, plutôt que d’exécuter uniquement des séquences préprogrammées. Dans les cas présentés, cela se traduit par une meilleure compréhension d’instructions, une planification d’actions et une interprétation de scènes d’inspection, comme la lecture d’instruments ou l’identification d’un déversement.
Quels usages industriels sont mis en avant pour Spot avec cette mise à jour ?
Les usages cités concernent l’inspection, avec la lecture d’instruments comme des jauges analogiques, thermomètres et niveaux de liquide, et la détection de situations anormales comme des déversements. Le système est aussi présenté comme capable de répondre à des questions sur l’état d’un site à partir de données visuelles, par exemple une porte laissée ouverte.
Pourquoi la fiabilité des alertes est-elle un point sensible en inspection robotisée ?
Une alerte erronée peut déclencher une intervention inutile et coûteuse, tandis qu’une anomalie manquée peut laisser un risque se développer. Boston Dynamics souligne la nécessité d’atteindre un seuil de fiabilité suffisant pour éviter les faux positifs et préserver la confiance des équipes terrain, condition indispensable pour intégrer ces robots dans les routines opérationnelles.
Quelles limites DeepMind met-elle en avant sur le raisonnement des robots ?
DeepMind souligne que le système repose fortement sur la vision et qu’il manque encore d’une compréhension physique comparable à celle des humains, acquise par le toucher et l’expérience. L’entreprise travaille sur des benchmarks et des approches de sécurité pour guider le comportement des robots en conditions réelles, où la variabilité est forte.
Cette intégration concerne-t-elle uniquement Spot ou aussi d’autres produits Boston Dynamics ?
L’annonce met l’accent sur Spot et sur la plateforme Orbit, notamment AIVI et AIVI-Learning. Les responsables évoquent aussi l’intérêt de capitaliser sur ce retour d’expérience pour d’autres plateformes de robots incarnés, y compris Atlas, sans présenter Atlas comme un futur robot d’inspection industrielle.

Laisser un commentaire