Au CES 2026, Lovense a présenté Emily, une poupée humanoïde connectée dotée d’un moteur d’intelligence artificielle. Un produit qui ambitionne de transformer la poupée sexuelle en compagne interactive, tout en soulevant des questions éthiques.
Lors du CES 2026, l’entreprise de robotique Boston Dynamics a dévoilé Atlas, la dernière génération de son robot humanoïde. Celui-ci doit être déployé progressivement dans les usines de Hyundai Motor à partir de 2028.
Annoncé au CES 2026 à Las Vegas lors de la présentation Hyundai, le fabricant de robots s'allie avec Google DeepMind pour intégrer les modèles fondationnels Gemini Robotics directement dans leurs humanoïdes. Du coup, Atlas va pouvoir percevoir son environnement, raisonner, utiliser des outils et même interagir avec des humains. Bref, passer du robot acrobate impressionnant au robot vraiment utile.
Atlas en pied, prêt à conquérir les usines (
Source
)
L'idée, c'est de combiner le meilleur des deux mondes. D'un côté, vous avez l'intelligence athlétique de chez Boston Dynamics, ces années d'expertise à créer des machines capables de faire des saltos et de se relever après une gamelle. De l'autre, les modèles multimodaux de DeepMind qui comprennent le langage, la vision et peuvent générer des actions. Le mariage parfait entre le corps et l'esprit, en quelque sorte.
Alberto Rodriguez, le directeur du comportement robot chez Boston Dynamics (un ancien prof du MIT qui a lâché sa chaire pour rejoindre l'aventure), explique qu'ils avaient besoin d'un partenaire capable de développer des modèles fiables et scalables. Et Carolina Parada de DeepMind confirme que leurs modèles Gemini Robotics ont justement été conçus pour apporter l'IA dans le monde physique. Hop, le puzzle s'assemble.
Le regard d'Atlas, bientôt alimenté par Gemini
Mais ne vous attendez pas à voir un Atlas débarquer chez vous pour faire le ménage demain matin. Sniiiif... La cible, c'est l'industrie manufacturière, et plus précisément les usines du groupe Hyundai (qui possède Boston Dynamics, rappelons-le). Parce que même dans les chaînes de production les plus automatisées, il reste des dizaines de milliers de tâches manuelles impossibles à robotiser avec les méthodes traditionnelles. Le coût et le temps de développement sont juste délirants.
Avec un humanoïde doté d'un cerveau généraliste, on peut théoriquement lui apprendre une nouvelle tâche en une journée au lieu d'un an. C'est le même principe que ChatGPT, mais appliqué au monde physique et ça, c'est un vrai changement de paradigme.
La recherche conjointe démarre dans les prochains mois. Alors est-ce que ça va révolutionner les usines ? Peut-être. Est-ce que c'est le début d'une nouvelle ère pour la robotique humanoïde ? Moi j'y crois.
En tout cas, dans tout ce bordel ambiant autour des robots et de l'IA, cette alliance entre le hardware le plus avancé et le software le plus puissant a du sens. Et si vous voulez en savoir plus sur
l'évolution d'Atlas ces dernières années
, je vous avais déjà fait un petit récap.
Le 1er janvier 2026, l’entreprise de robotique UBTECH a dévoilé une vidéo montrant son humanoïde Walker S2 en train de jouer au tennis. Une démonstration encore perfectible, mais suffisamment impressionnante pour attirer l’attention.
À l'occasion du CES 2026, Qualcomm a dévoilé une toute nouvelle architecture robotique complète qui regroupe matériel, logiciels et IA dans un seul ensemble cohérent. Parmi ses partenaires : l'entreprise américaine de robotique Figure.
Non mais vous avez vu ça ? On dirait un extrait de iRobot, sauf que c'est pas du cinéma.
Unitree, les mêmes tarés qui nous avaient sorti le G1 à 16 000$ (celui qui peut se plier comme un contorsionniste), viennent de lâcher une vidéo de leur nouveau bébé, le H2, en train de faire du kickboxing. Et quand je dis kickboxing, c'est pas une métaphore. Le bestiau balance des coups de pied latéraux, des pirouettes, des frappes au genou... Bref, tout l'arsenal du parfait combattant de MMA, mais en version 1m82 et 70 kilos de métal.
Le H2 qui fait le beau - enfin, le flippant (
Source
)
Et le truc qui fait vraiment flipper, c'est la démo de combat car Unitree a fait aussi affronter son H2 contre le G1, le petit frère moins costaud. Résultat, un coup de genou du H2 a littéralement soulevé le G1 du sol. 360 N·m de couple dans les articulations des jambes, c'est énorme. Pour vous donner une idée, c'est le genre de force qui peut soulever un autre robot du sol, comme on l'a vu dans leur démo.
Et je vous raconte pas les specs de malade : 31 degrés de liberté, 7 articulations par bras, 6 par jambe, et une capacité de charge de 15 kilos. L'engin peut porter des trucs lourds tout en gardant l'équilibre sur une jambe. Et côté cerveau, la version EDU peut embarquer un processeur NVIDIA Jetson AGX Thor qui développe 2070 TOPS. Pour les non-initiés, c'est la puissance de calcul qu'il faut pour faire tourner des modèles d'IA en temps réel.
Les articulations qui font mal - 360 N·m de couple, ça rigole pas (
Source
)
Comme je vous le disais pour le G1
, Unitree joue dans une autre cour niveau tarif. Le H2 est affiché à 29 900$, soit presque deux fois le prix du G1, mais on est loin des centaines de milliers de dollars que coûte un Atlas de Boston Dynamics. Et là où
Boston Dynamics cible l'industrie
, Unitree semble vouloir créer une armée de robots polyvalents. Pour quoi faire ? Bonne question.
Quand je vois ce robot capable de me mettre un high kick dans la tronche avec la précision d'un champion de taekwondo, je me dis qu'on est peut-être en train de fabriquer nos propres cauchemars. Les ingénieurs d'Unitree ont clairement des compétences de fou, mais parfois je me demande s'ils ont regardé Terminator. Ou Black Mirror. Ou n'importe quel film de SF des 40 dernières années.
Bon, après je me rassure comme je peux en me disant que l'autonomie est d'environ 3 heures donc ils n'iront pas très loin... Et puis après tout, c'est juste une démo impressionnante pour vendre du matos. Pas vrai ? Pas vrai ??
Bon, je sais pas si vous avez déjà rêvé de contrôler un robot humanoïde avec votre corps, genre comme dans Pacific Rim mais en moins épique. Hé bien un opérateur chinois a voulu tenter l'expérience avec un Unitree G1... et ça s'est moyennement bien passé pour ses roubibis.
La vidéo a été postée sur
Bilibili
le jour de Noël et c'est devenu viral pour une raison évidente. Le gars porte une combinaison de motion capture, il fait des mouvements de kickboxing, shadow boxing, des coups de pied... Le G1 reproduit tout ça en temps réel grâce à un réseau neuronal. Sauf qu'il y a un délai d'environ une seconde entre ce que fait l'opérateur et ce que fait la machine. Du coup, quand le robot s'est retrouvé devant lui au mauvais moment... boum, coup direct dans l'entrejambe.
Pour rappel, le G1 c'est
ce fameux bipède d'Unitree
à environ 16 000 dollars qui fait saliver les passionnés de robotique depuis l'an dernier. Le bouzin pèse dans les 35 kilos selon la version, possède entre 23 et 43 articulations, et peut développer jusqu'à 120 Nm de couple au niveau des genoux. Autant vous dire que quand ça vous arrive dans les parties, ça fait pas semblant.
Sur les réseaux sociaux, évidemment, ça a trollé sévère. Certains ont ressorti les trois lois d'Asimov en mode « Un robot ne peut pas porter atteinte à un être humain », d'autres ont lâché des trucs du genre « Continuons à entraîner nos futurs maîtres de l'IA à nous botter le cul ». Bon, techniquement c'est pas vraiment de l'IA malveillante, juste un humain qui s'est mis lui-même un coup de pied dans les couilles parce qu'il était au mauvais endroit au mauvais moment... mais avouez que ça fé kan même réchéflir !
Le G1 et ses articulations de combattant (
Source
)
Ce qui est cool dans cette histoire, au-delà du LOL facile, c'est de voir où en est la technologie de contrôle par motion capture. Le délai de synchronisation devrait diminuer avec le temps, l'opérateur original dit qu'on pourrait passer à 0,1 seconde dans les prochaines versions. Ça reste quand même impressionnant de voir un robot reproduire des mouvements humains complexes comme ça, même si c'est pas encore parfait.
Perso, ça me rappelle un peu
les démonstrations de Boston Dynamics
où on voyait des ingénieurs pousser leurs robots pour tester leur stabilité. Sauf que là, c'est le robot qui a « poussé » l'humain... à réviser ses priorités anatomiques.
Bref, si vous comptez jouer à devenir un pilote de mecha dans votre salon, pensez à porter une coquille. On sait jamais.
Et si je vous disais qu'un robot humanoïde, un vrai, avec contrôle de force sur tout le corps et des articulations dignes des gros modèles, ça tient maintenant dans un sac à dos ? Vous ne me croiriez pas et pourtant, je viens de découvrir sur
Reddit
cette vidéo où AGIBOT présente le QUESTER1 (ou Q1 pour les intimes), un petit bonhomme de 80 centimètres qui a de quoi faire réfléchir pas mal de monde dans l'industrie...
Bon, je vous vois venir... "Encore un robot jouet chinois". Sauf que non. Le truc qui change tout ici, c'est la technologie QDD (Quasi Direct Drive) qu'ils ont réussi à miniaturiser jusqu'à obtenir des articulations plus petites qu'un œuf. Et pas des articulations au rabais, hein mais d'un contrôle de force complet et de réactivité haute performance, c'est à dire le même niveau que les grands humanoïdes qui font 1m70.
En septembre dernier on découvrait que
certains robots Unitree présentaient des failles Bluetooth
. Avec du code fermé c'est pas surprenant alors qu'ici AGIBOT fait le choix inverse en ouvrant volontairement son SDK et son HDK. Le code, les interfaces, les modules d'extension... tout est accessible. Même les composants structurels externes sont open source, ce qui veut dire que vous pouvez imprimer en 3D vos propres coques et donner à votre Q1 l'apparence que vous voulez. Tête interchangeable incluse ! Le délire !
Mais pourquoi faire si petit ?
Bah justement, c'est là que ça devient fort car en théorie, réduire les dimensions de moitié divise le poids par 8 (les joies de la physique en 3D). Du coup, le robot encaisse mieux les chutes, les erreurs coûtent moins cher, et l'itération est beaucoup plus rapide pour les développeurs. Pour la recherche et l'éducation, c'est donc le format idéal puisqu'il tient dans un grand sac à dos.
Côté fonctionnalités, le Q1 n'est pas qu'une plateforme de dev puisqu'il intègre une IA personnalisée qui lui permet de répondre à des questions, d'enseigner l'anglais avec une prononciation correcte (et une patience infinie, contrairement à votre ancien prof de lycée), ou même de danser avec plus de précision que vous.
C'est le futur qui débarque et le plus cool c'est qu'à l'avenir, ils vont proposer une plateforme no-code qui permettra de créer des comportements facilement. Pour les makers, les chercheurs et les étudiants en robotique, c'est donc potentiellement une belle porte d'entrée vers l'humanoïde à taille humaine... enfin presque.
Peut-on prédire l'avenir ? À quelques heures du coup d'envoi du CES 2026, le grand événement mondial qui devrait marquer le début de la nouvelle année pour l'actualité high-tech, Numerama vous propose ses prédictions sur les tendances des prochains mois. Impossible de prédire les actualités chaudes, évidemment, mais certaines choses importantes devraient arriver en 2026.
Chez Numerama, on adore faire des classements, et il y a une tendance qui se dégage dans le monde de la tech : de plus en plus d'entreprises se lancent sur le segment des robots humanoïdes à usage domestique. Et comme ils sont tous un peu effrayants, on a décidé de faire un top, basé sur le design.
Boston Dynamics que vous connaissez tous pour ses chiens robots tueurs de la mort, vient de sortir une vidéo de 40 minutes. Pas de saltos arrière ou de robots qui dansent mais plutôt une loooongue session où ça parle stratégie IA et vision à long terme. Et comme j'ai trouvé que c'était intéressant, je partage ça avec vous !
Zach Jacowski, le responsable d'Atlas (15 ans de boîte, il dirigeait Spot avant), discute donc avec Alberto Rodriguez, un ancien prof du MIT qui a lâché sa chaire pour rejoindre l'aventure et ce qu'ils racontent, c'est ni plus ni moins comment ils comptent construire un "cerveau robot" capable d'apprendre à faire n'importe quelle tâche. Je m'imagine déjà avec
un robot korben
, clone de ma modeste personne capable de faire tout le boulot domestique à ma place aussi bien que moi... Ce serait fou.
Leur objectif à Boston Dynamics, c'est donc de créer le premier robot humanoïde commercialement viable au monde et pour ça, ils ont choisi de commencer par l'industrie, notamment les usines du groupe Hyundai (qui possède Boston Dynamics).
Alors pourquoi ? Hé bien parce que même dans les usines les plus modernes et automatisées, y'a encore des dizaines de milliers de tâches qui sont faites à la main. C'est fou hein ? Automatiser ça c'est un cauchemar, car pour automatiser UNE seule tâche (genre visser une roue sur une voiture), il faudrait environ un an de développement et plus d'un million de dollars.
Ça demande des ingénieurs qui conçoivent une machine spécialisée, un embout sur mesure, un système d'alimentation des vis... Bref, multiplié par les dizaines de milliers de tâches différentes dans une usine, on serait encore en train de bosser sur cette automatisation dans 100 ans...
L'idée de Boston Dynamics, c'est donc de construire un robot polyvalent avec un cerveau généraliste. Comme ça au lieu de programmer chaque tâche à la main, on apprend au robot comment faire. Et tout comme le font les grands modèles de langage type ChatGPT, ils utilisent une approche en deux phases : le pre-training (où le robot accumule du "bon sens" physique) et le post-training (où on l'affine pour une tâche spécifique en une journée au lieu d'un an).
Mais le gros défi, c'est clairement les données. ChatGPT a été entraîné sur à peu près toute la connaissance humaine disponible sur Internet mais pour un robot qui doit apprendre à manipuler des objets physiques, y'a pas d'équivalent qui traîne quelque part.
Du coup, ils utilisent trois sources de data.
La première, c'est la téléopération. Des opérateurs portent un casque VR, voient à travers les yeux du robot et le contrôlent avec leur corps. Après quelques semaines d'entraînement, ils deviennent alors capables de faire faire à peu près n'importe quoi au robot. C'est la donnée la plus précieuse, car il n'y a aucun écart entre ce qui est démontré et ce que le robot peut reproduire. Par contre, ça ne se scale pas des masses.
La deuxième source, c'est l'apprentissage par renforcement en simulation. On laisse le robot explorer par lui-même, essayer, échouer, optimiser ses comportements. L'avantage c'est qu'on peut le faire tourner sur des milliers de GPU en parallèle et générer des données à une échelle impossible en conditions réelles. Et contrairement à la téléopération, le robot peut apprendre des mouvements ultra-rapides et précis qu'un humain aurait du mal à démontrer, du genre faire une roue ou insérer une pièce avec une précision millimétrique.
La troisième source, c'est le pari le plus ambitieux, je trouve. Il s'agit d'apprendre directement en observant des humains.
Alors est-ce qu'on peut entraîner un robot à réparer un vélo en lui montrant des vidéos YouTube de gens qui réparent des vélos ? Pas encore... pour l'instant c'est plus de la recherche que de la production, mais l'idée c'est d'équiper des humains de capteurs (caméras sur la tête, gants tactiles) et de leur faire faire leur boulot normalement pendant que le système apprend.
Et ils ne cherchent pas à tout faire avec un seul réseau neuronal de bout en bout. Ils gardent une séparation entre le "système 1" (les réflexes rapides, l'équilibre, la coordination motrice, un peu comme notre cervelet) et le "système 2" (la réflexion, la compréhension de la scène, la prise de décision). Le modèle de comportement génère des commandes pour les mains, les pieds et le torse, et un contrôleur bas niveau s'occupe de réaliser tout ça physiquement sur le robot.
C'est bien pensé je trouve. Et dans tout ce bordel ambiant autour de la robotique actuelle, eux semblent avoir trouver leur voie. Ils veulent transformer l'industrie, les usines...etc. Leur plan est clair et ils savent exactement ce qu'ils doivent réussir avant de passer à la suite (livraison à domicile, robots domestiques...).
Voilà, je pense que ça peut vous intéresser, même si c'est full english...