Introduction — de l’IA qui parle à l’IA qui agit
Le CES 2026 marque un vrai changement de phase : l’IA ne se limite plus à générer du texte, des images ou des résumés.
Elle commence à percevoir, raisonner, planifier et exécuter dans le monde réel — robots, véhicules, machines industrielles, et même assistants domestiques.
Sur scène à Las Vegas, Jensen Huang (NVIDIA) a résumé l’instant avec une formule qui fait mouche : “le moment ChatGPT pour la robotique est arrivé”.
Derrière la punchline, on voit surtout se structurer un écosystème complet : du calcul (data center & edge) aux modèles, en passant par la simulation et l’outillage.
1) Vera Rubin : l’infrastructure qui rend la Physical AI “rentable”
NVIDIA a dévoilé Rubin, une plateforme “extreme codesign” pensée comme un système complet (GPU, CPU, réseau, DPU…)
plutôt qu’une simple puce. L’objectif est clair : réduire radicalement le coût de l’inférence et accélérer l’entraînement,
pour rendre le déploiement industriel plus soutenable.
-
Rubin combine plusieurs briques (GPU Rubin, CPU Vera, NVLink 6, Spectrum-X Ethernet Photonics, ConnectX-9, BlueField-4), conçues ensemble.
-
NVIDIA annonce une baisse très forte du coût par token par rapport à Blackwell, et des gains de performance destinés aux workloads
de raisonnement/agents.
-
Les produits Rubin sont annoncés chez des partenaires cloud et serveurs à partir du second semestre 2026.
À lire :
communiqué officiel NVIDIA Rubin,
et une lecture “hardware” côté presse tech :
Tom’s Hardware (Rubin NVL72).
2) Des modèles ouverts pour apprendre à un robot à “faire”, pas seulement à “dire”
La rupture la plus intéressante côté logiciel, c’est l’insistance sur des modèles ouverts et des briques prêtes à l’emploi,
pour éviter que chaque acteur doive “réinventer” une stack robotique complète.
NVIDIA met en avant plusieurs familles de modèles et outils, disponibles publiquement, notamment via Hugging Face / GitHub :
-
Cosmos : des “world models” pour générer de la donnée synthétique, simuler, tester des politiques de contrôle et modéliser des scénarios.
-
Cosmos Reason : un VLM orienté perception + raisonnement dans le monde physique.
-
Isaac GR00T : un modèle “vision-language-action” conçu pour les humanoïdes (contrôle du corps + manipulation).
-
Isaac Lab-Arena : un framework open source de benchmark/évaluation à grande échelle en simulation.
-
OSMO : orchestration edge-to-cloud pour chaîner génération de données → entraînement → test.
À lire :
communiqué NVIDIA “Physical AI models”
et l’angle “plateforme ouverte” :
TechCrunch (Android de la robotique généraliste).
3) Humanoïdes : Boston Dynamics + Google DeepMind accélèrent (et visent l’industrie)
Côté robots humanoïdes, un signal fort vient du duo Boston Dynamics et Google DeepMind,
qui annoncent un partenariat pour intégrer les modèles Gemini Robotics sur une nouvelle flotte d’Atlas.
Objectif : rendre l’humanoïde plus polyvalent sur des tâches industrielles, en commençant par l’automobile.
Ce type d’alliance est révélateur : l’humanoïde n’est plus seulement un “showcase”, il devient un candidat sérieux pour des environnements
où l’infrastructure existe déjà (usine, logistique, maintenance).
À lire :
annonce Boston Dynamics
et le décryptage :
Wired (Gemini sur Atlas).
4) Véhicules autonomes : Alpamayo met le “raisonnement” au cœur de la conduite
Autre annonce notable : Alpamayo, présenté comme un portefeuille open pour accélérer le développement de l’autonomie,
avec un modèle VLA “raisonnant” (capable d’expliquer/anticiper ses actions) et une brique de simulation ouverte.
- Alpamayo R1 : modèle VLA orienté conduite autonome.
- AlpaSim : blueprint de simulation haute fidélité pour tester des scénarios et des “edge cases”.
-
NVIDIA cite un premier véhicule “passenger car” construit avec Alpamayo sur la stack DRIVE, sur la nouvelle
Mercedes-Benz CLA (avec “AI-defined driving” annoncé aux États-Unis cette année).
À lire (récap keynote NVIDIA) :
NVIDIA Blog — CES special presentation.
5) CES 2026, ce n’est pas que NVIDIA : AMD, Samsung, LG poussent aussi l’IA “embarquée”
La tendance de fond du salon est cohérente : plus d’IA locale, plus d’optimisation énergétique,
et plus de produits “agents” dans des environnements réels.
-
AMD a présenté de nouvelles puces orientées IA (data center & PC), pour soutenir l’inférence locale et la compétition sur l’infrastructure.
(Reuters)
-
Samsung pousse sa vision “AI companions” dans l’écosystème domestique.
(Samsung Newsroom)
-
LG illustre la “Physical AI” à la maison avec un robot domestique mis en scène au CES.
(The Verge)
Ce que ça change concrètement en 2026
Si on résume, 2026 pourrait être l’année où la Physical AI franchit trois seuils :
- Industrialisation : des stacks “end-to-end” (modèles + simulation + orchestration + edge) deviennent accessibles.
- Économie : la réduction des coûts d’inférence et les gains énergétiques rendent les déploiements plus réalistes.
- Fiabilité : l’évaluation en simulation + benchmark vise à limiter les surprises avant passage au réel.
Checklist rapide : comment se préparer (sans se raconter d’histoires)
- Choisir 1 cas d’usage dur (répétitif, mesurable, à ROI clair) : manutention, inspection, picking, assistance opérateur, etc.
- Traiter la donnée comme un produit : logs capteurs/vidéo, gouvernance, sécurité, qualité, traçabilité.
- Simuler avant d’acheter : “digital twin” et scénarios extrêmes pour tester robustesse et sécurité.
- Prévoir l’intégration : MES/ERP, sécurité fonctionnelle, conformité, maintenance, formation terrain.
- Mesurer en continu : taux d’erreur, incidents, énergie, disponibilité, satisfaction opérateurs.
Conclusion
Le CES 2026 montre une IA qui quitte progressivement le “monde des interfaces” pour entrer dans celui des machines.
La question n’est plus seulement “que peut générer un modèle ?”, mais “peut-il agir de façon fiable, sûre et rentable ?”.
Et vous : dans votre secteur, la Physical AI est plutôt une opportunité immédiate (2026), ou un sujet “à horizon 2–3 ans” ?