Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 10 février 2026Flux principal

Atlas fait ses adieux en salto

Par : Korben
10 février 2026 à 15:39

Atlas , le robot humanoïde de Boston Dynamics, vient de faire ses adieux en beauté. Et quand je dis en beauté, c'est salto arrière enchaîné avec une roue... le tout sans se vautrer la gueule. Pas mal pour une machine de 90 kg !

Cette vidéo "Atlas Airborne" publiée il y a quelques jours, c'est en gros le pot de départ de ce modèle de recherche. Celui qui nous a fait halluciner depuis 2013 avec ses cascades de parkour et ses backflips, sauf que cette fois, les ingénieurs ont voulu pousser le curseur au maximum avant de ranger le bonhomme au placard.

Les ingés ont bossé avec le RAI Institute (le labo fondé par Marc Raibert en 2022, après avoir quitté la direction de Boston Dynamics) pour développer un truc qui s'appelle le "whole-body learning". En gros, c'est de l'apprentissage par renforcement appliqué au corps entier du robot, et pas juste aux jambes ou aux bras séparément.

Tout ce qu'Atlas apprend en simulation (via IsaacLab, le framework de Nvidia basé sur Python), il le reproduit alors direct sur le vrai hardware. Y'a besoin d'aucun ajustement et ça s'appelle le "zero-shot transfer"... c'est-à-dire que vous entraînez le robot dans un monde virtuel sur GPU, hop, vous le branchez dans le monde réel et ça marche du premier coup. Bon, "du premier coup" c'est la théorie évidemment, car pratique, ça plante probablement 3 fois sur 10, sauf que la vidéo promo ne montre pas les gamelles.

Le plus tordu dans l'histoire, c'est que cette même techno qui lui permet de faire des acrobaties est celle qui lui donne sa démarche naturelle (celle qui a été primée "Best Robot" au CES en janvier). Un seul framework pour tout, de la roulade au rangement de cartons, c'est dingue quand même !

Et pendant que la version recherche fait le show, l'autre Atlas, le nouveau, se prépare à rentrer à l'usine . D'après Hyundai, le bestiau devrait débarquer dans leur Metaplant à Savannah en Géorgie d'ici 2028 pour du tri de pièces, puis de l'assemblage de composants d'ici 2030. Il embarque 56 degrés de liberté et un gripper tactile avec pouce opposable... en gros, des mains presque humaines. J'aurais préféré qu'ils gardent le modèle acrobate plutôt que de tout miser sur l'ouvrier, parce que le parkour c'est quand même carrément plus fun à regarder, mais bon, c'est pas (encore) moi qui signe les chèques chez Hyundai.

De son côté, le robot Spot a déjà atteint les 19 km/h grâce au même type d'apprentissage par renforcement (contre 5,8 km/h en config d'usine, soit plus du triple). Ça promet pour la version industrielle d'Atlas.

Après je crois me souvenir que le problème sur le Spot c'était pas les moteurs mais les batteries qui ne suivaient plus. Sauf si Hyundai a trouvé une solution côté autonomie, Atlas aura donc le même souci à l'échelle humanoïde... parce que faire un salto c'est rigolo, mais tenir 8h sur une chaîne de montage c'est un autre délire.

Je ne sais pas si vous avez déjà regardé la vidéo mais quand le robot se loupe légèrement sur un atterrissage, il corrige en temps réel avec un micro-repositionnement du pied. Comme un ajustement instinctif... c'est subtil et finalement très... humain.

J'suis pas pressé de me faire courser par ces trucs.

RM 3DP - L'impression 3D qui muscle les robots mous

Par : Korben
10 février 2026 à 10:00

La robotique souple, c'est un peu le Graal pour pas mal de chercheurs. L'idée de fabriquer des machines capables de se faufiler partout ou de manipuler des objets fragiles sans tout casser, ça fait rêver. Sauf que jusqu'à présent, c'était une tannée monumentale à fabriquer. Fallait mouler les pièces, assembler les membranes, sceller les composants... Bref, un boulot de titan pour un résultat parfois imprévisible.

Mais voilà qu'une équipe de Harvard, menée par Jennifer Lewis au sein du Lewis Lab, vient de poser une grosse brique sur l'édifice. Ils ont mis au point une technique baptisée "impression 3D multimatériau rotative" (RM 3DP) qui permet d'encoder la réponse mécanique directement dans la structure. Pour faire simple, au lieu de rajouter des fonctions après coup, vous imprimez une architecture interne qui va dicter comment le robot se déforme une fois sous pression.

Le secret réside dans une buse rotative capable de gérer un placement spatial interne ultra-précis de deux matériaux à la volée. En faisant tourner cette buse pendant l'impression, les chercheurs Jackson Wilt et Natalie Larson arrivent à disposer chaque matériau à l'intérieur du filament déposé (on parle de structures à l'échelle du micron... c'est super minuscule). Et là, c'est un peu comme si vous dessiniez une hélice à l'intérieur d'un tube... mais en 3D et avec des polymères techniques.

Pour la structure, ils utilisent du polyuréthane hyper costaud qui forme une coque durable. Et à l'intérieur, hop, ils injectent un polymère sacrificiel, le poloxamère (qu'on trouve d'ailleurs dans certains produits capillaires), pour remplir les futurs canaux. Une fois que la structure a durci, il suffit de rincer ce gel pour laisser place à des conduits pneumatiques hyper propres. Bon, attention quand même, rincer un gel visqueux dans des canaux microscopiques sans rien péter, ça demande une sacrée maîtrise du process. Mais grâce à ça, ces canaux agissent comme des muscles. Vous envoyez de l'air sous pression dedans et la structure se tord, se plie ou s'étire selon la géométrie prévue au départ.

C'est plutôt chouette car ça permet de passer de la conception à la réalisation en quelques heures au lieu de plusieurs jours. Plus besoin de s'embêter avec des montages complexes, vous ajustez les paramètres de l'imprimante et voilà. Pour la démonstration, ils ont imprimé un actuateur en spirale qui s'ouvre comme une fleur et une pince capable de saisir des objets délicats. Tout ça en un seul processus d'impression continu pour la partie structurelle, même si le post-traitement reste obligatoire pour libérer les canaux.

Perso, c'est assez prometteur par exemple pour le futur de la chirurgie ou pour créer des dispositifs d'assistance qui s'adaptent vraiment au corps humain.

Maintenant, reste à voir la durabilité du bouzin sur des milliers de cycles, mais on n'arrête pas le progrès, comme dirait l'autre.

Source

À partir d’avant-hierFlux principal

Helix 02 - Le robot qui vide votre lave-vaisselle pour de vrai

Par : Korben
30 janvier 2026 à 09:06

Vous vous souvenez peut-être de Figure 01 qui nous avait tous bluffés l'année dernière en se faisant couler un petit café (qui a dit "dans sa couche ??) ?

Hé bien, la startup Figure AI ne chôme pas (contrairement à nous le vendredi matin) puisqu'elle vient de dévoiler son Helix 02, la nouvelle version de son cerveau numérique.

Et là, accrochez-vous bien parce qu'on passe un cap ! En effet, ce robot est désormais capable de vider un lave-vaisselle de manière totalement autonome.

Alors je sais ce que vous vous dites : "Super, un truc à 150 000 balles pour faire ce que mon ado refuse de faire gratuitement". Sauf que la prouesse technique derrière est assez dingue. Jusqu'à présent, les robots humanoïdes, notamment ceux de Boston Dynamics (le fameux Atlas), fonctionnaient beaucoup sur de la "théorie du contrôle". En gros, des maths complexes pour garder l'équilibre, et du code impératif pour dire "lève le bras de 30 degrés". C'est hyper précis, mais c'est lourd à coder et ça manque de souplesse.

Là, Figure a tout misé sur une approche pixels-to-action de type "End-to-End". C'est ce qu'ils appellent le System 0.

En gros, ils ont viré un peu moins de 110 000 lignes de code C++ (le langage bien verbeux qu'on adore détester) pour les remplacer par un modèle d'IA unifié. Le robot "regarde" avec ses caméras et le réseau de neurones décide directement des mouvements. Et c'est comme ça que d'un coup, le robot gère tout : l'équilibre, la manipulation des objets glissants, et même la correction de ses propres erreurs en temps réel.

C'est un peu comme si votre Roomba avait soudainement appris à faire du parkour tout en tenant un plateau de verres en cristal.

Bon, vous vous en doutez, le marketing ne nous dévoile pas tout car il y a un petit piège derrière cette innovation. En fait cette approche "tout IA" a aussi des limites car si le modèle hallucine un mouvement, le robot peut très bien décider de lancer votre assiette en porcelaine de Limoges à travers la pièce. C'est donc pour ça qu'ils gardent quand même des garde-fous (System 1 et System 2) pour la planification à long terme. Mais c'est pas encore demain que je laisserai ce machin seul avec mon chat, sauf si je veux le transformer en frisbee ^^.

D'ailleurs, si vous suivez un peu l'actu des robots humanoïdes , vous savez que la concurrence est rude notamment avec l' Optimus de Tesla . Mais perso, je trouve que Figure a carrément une longueur d'avance sur la fluidité "humaine", là où Optimus fait encore un peu "mec bourré qui essaie de marcher droit". J'adorerai avoir un kit de dev pour jouer avec ce truc, mais vu le prix, je vais plutôt me rabattre sur Raspberry Pi... on fait avec ce qu'on a !

Et pour nous les bidouilleurs dans tout ça ?

Hé bien si vous n'avez pas 150 000 $ sous le matelas, sachez qu'il existe des projets open-source comme le ToddlerBot (un petit robot à environ 250$ imprimable en 3D) qui permettent de s'initier à la robotique bipède sans vendre un rein. C'est moins classe que Helix, mais au moins, si ça tombe, ça casse juste du PLA. Un coup de colle et c'est reparti !

Bref, on n'est pas encore au stade où il viendra vous border le soir, mais pour ce qui est des corvées ménagères, ça sent bon la fin de l'esclavage humain (pour le remplacer par celui des machines, mais chut, faut pas leur dire).

Amusez-vous bien !

Source

Qualcomm Dragonwing IQ10 - Le cerveau qui va propulser vos futurs robots

Par : Korben
24 janvier 2026 à 19:52

Qualcomm vient de dégainer sa nouvelle arme au CES 2026 et là, j'vous parle pas d'un énième processeur pour smartphone, non, non, non. Je vous parle carrément du cerveau de vos futurs robots de service, de livraison, de nettoyage... et même des humanoïdes qui pourraient bien débarquer chez vous d'ici quelques années !

Booooh ça fait peur ^^ !

Le Dragonwing IQ10, c'est le nom de la bête. Un monstre de puissance avec 350 TOPS de calcul IA, soit trois fois plus que la génération précédente. Pour ceux qui se demandent à quoi ça sert, c'est simple, c'est ce qui permet à un robot d'analyser son environnement en temps réel, d'éviter les obstacles, de reconnaître des objets et d'interagir avec les humains sans se vautrer lamentablement.

D'ailleurs, côté capteurs, ça ne rigole pas non plus. Le processeur peut gérer plus de 20 caméras simultanément, du lidar, des radars... Bref, de quoi transformer n'importe quelle machine en sentinelle omnisciente. Et tout ça avec une efficacité énergétique qui ferait pâlir la concurrence. NVIDIA et ses Jetson commencent d'ailleurs à regarder dans le rétroviseur.

Du coup, qui va utiliser cette puce ? Figure AI, le fabricant de robots humanoïdes déployés chez BMW , s'est empressé de signer un partenariat. Kuka Robotics aussi, un poids lourd de l'industrie. Et VinMotion a même présenté son humanoïde Motion 2 au CES, déjà propulsé par l'IQ10 et capable de soulever 40 kg comme si de rien n'était ! Autant dire que la relève est déjà là.

Perso, ce qui me botte bien dans cette annonce, c'est le concept de "Brain of the Robot" que Qualcomm met en avant. L'idée, c'est de fournir un package complet avec le hardware, le software et l'IA qui va bien, histoire que les fabricants n'aient plus qu'à assembler leur robot comme un Lego. Vous branchez la puce et tadaaaa, vous avez un robot capable de naviguer dans un entrepôt, de livrer des colis ou de faire le ménage. C'est dingue quand on y pense !

Et le marché ?

Qualcomm l'estime à 1 000 milliards de dollars d'ici 2040. Y'a de quoi attirer du monde. Entre les Atlas de Boston Dynamics et les ToddlerBot à 250 dollars , la course aux robots autonomes ne fait que commencer. Et Qualcomm compte bien en être le fournisseur de cerveaux attitré !

Bref, si vous attendiez que les robots deviennent vraiment intelligents avant de vous y intéresser, c'est maintenant que ça se passe.

Source

Un robot humanoïde a appris à parler en regardant YouTube

Par : Korben
19 janvier 2026 à 18:12

Vous êtes du genre à apprendre la guitare sur YouTube ? Bah figurez-vous que les machines font pareil maintenant sauf qu'elles c'est pas les accords de Wonderwall ou de Seven Nation Army qu'elles bossent mais plutôt les expressions faciales.

Et on nage un peu dans la rivière qui coule au fond de l'uncanny valley, faut bien se l'avouer...

En effet, des chercheurs de Columbia Engineering viennent de présenter EMO, un humanoïde capable de synchroniser ses lèvres avec ce qu'il dit, et le plus dingue dans l'histoire c'est comment il a appris à faire ça.

En fait, il se mate dans un miroir tout en regardant des vidéos sur YouTube. Comme nous quoi quand on fait les gros muscles dans le miroir de la salle de bain pour se rassurer rapport à Tibo InShape, sauf que lui c'est pour apprendre à parler et il n'a pas besoin de 47 tentatives pour retenir un truc. Vous me direz, depuis le temps qu'on nous promet des androïdes capables de communiquer naturellement, je pense qu'on a le droit d'être sceptique mais là, y'a un petit truc qui change, vous allez voir...

En fait la bête embarque 26 petits moteurs sous une peau en silicone rien que pour sa tronche et ça lui permet de reproduire des expressions faciales plutôt convaincantes. Le hic c'est que jusqu'ici, ce genre de bidule ressemblait plus à un cauchemar animatronique ou à Bogdanov (paix à leur âme) qu'à autre chose.

Alors pour contrer ça, l'équipe de Hod Lipson au Creative Machines Lab de Columbia a utilisé ce qu'ils appellent une approche VLA (vision-to-action). En gros, EMO s'observe d'abord lui-même pour comprendre comment sa tronche bouge, puis il s'entraîne sur des heures de vidéos pour associer les sons aux mouvements de lèvres correspondants. Un peu comme ces travaux japonais sur l'apprentissage par les émotions mais poussé BEAUCOUP plus loin.

Et c'est scotchant parce qu'EMO peut parler et même chanter en anglais, français, arabe, chinois, japonais, coréen... oui le gars est plus polyglotte que la plupart d'entre nous et l'équipe qui l'a conçu a même sorti un album entier généré par IA et baptisé " Hello World ", où cette petite tête interprète les morceaux avec ses expressions faciales synchronisées.

C'est un peu déroutant c'est vrai mais avouez que c'est FOUFOU nan ?!

Bon, on est pas encore dans "iRobot" non plus, faut pas s'emballer et les sons en "B" et en "W" lui posent encore quelques soucis, parce que la peau en silicone, c'est pas aussi souple que des vraies lèvres... Et cette petite bouille qui vous regarde en chantonnant, ça reste un poil creepy comme un discours de Macron au nouvel an, mais pour une fois, j'ai envie d'y croire les amis ! Parce que ce genre de techno, ça ouvre des portes intéressantes telles que des interfaces naturelles pour les assistants vocaux, des frérots mécaniques moins flippants qu'un sourire d'Elon Pèlon, ou des prothèses faciales animées pour les personnes qui en auraient besoin.

J'ai hâte de voir la suite en tout cas ! Et si vous voulez voir les plus merveilleux robots de Korben info , il suffit de cliquer ici !

Source

Deep-Boo – Le robot qui déchire tout à Mario Party

Par : Korben
13 janvier 2026 à 14:47

Voici un projet open source qui risque de faire vibrer votre fibre de geek !

Prénommé Deep-Boo, ce robot joueur de Mario Party taillé comme Tibo In Shape est capable de manipuler physiquement une manette pour exploser ses adversaires.

Son créateur, Josh Mosier, a présenté ce petit bijou à l' Open Sauce 2025 et vous allez voir, c'est aussi bien pensé que c'est fun.

Le robot Deep-Boo prêt à en découdre ( Source )

En fait, Deep-Boo ne se contente pas de tricher uniquement via du code car c'est un vrai automate physique qui "voit" l'écran grâce à une carte de capture HDMI et réagit ainsi presque instantanément à ce qui se passe. Pour arriver à cela, Josh a utilisé OpenCV pour analyser les formes et les couleurs en 720p / 60 FPS. Cela permet au robot de détecter les moments cruciaux du gameplay, comme les compte à rebours ou les positions des joueurs.

Côté matériel, on est sur de la bidouille high level puisque l'automate de Josh embarque un microcontrôleur ESP32 qui pilote 12 solénoïdes pour presser les boutons A, B, X, Y et les gâchettes. Mais le vrai défi, c'était le joystick car pour contrôler les mouvements à 360°, il a fallu concevoir un manipulateur parallèle sphérique (SPM) avec des moteurs pas à pas NEMA 17.

L'architecture complexe du manipulateur de joystick ( Source )

Et là où ça devient vraiment impressionnant, c’est son utilisation de la fonction StallGuard des drivers TMC2209. Ça permet de calibrer les moteurs sans interrupteurs physiques en détectant quand le joystick arrive en butée. C’est pas idiot et ça offre une sacrée précision pour les mini-jeux qui demandent de la finesse.

Josh a même prévu un "Puppet System" c'est à dire un troisième Joy-Con connecté en Bluetooth à l'ESP32 pour reprendre la main manuellement si besoin. C’est un peu comme Mario Party en carton mais avec des muscles en métal et un cerveau dopé à la vision intelligente.

Le stand Deep-Boo a attiré les foules à l'Open Sauce 2025 ( Source )

Lors de l'évènement, le petit fantôme mécanique a même défié Ludwig , le célèbre streameur, au jeu de "button mashing" Domination.

Et sans surprise, notre petit robot l'a complétement fumé avec un score de 99 !

Voilà et comme vous connaissez mon amour pour le DIY, vous vous doutez bien que je ne vais pas vous laisser comme ça sur votre faim ! En effet, si vous voulez vous lancer dans la robotique de gaming, tout le code et les fichiers de design sont dispo sur le dépôt GitHub de Josh !

Source

❌
❌