Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Mon test du Narwal Flow - L'aspirateur robot qui surmonte tous les obstacles

– Article en partenariat avec Narwal

Après plusieurs semaines avec cet aspirateur robot dans les pattes (et les câbles qui traînent), je peux vous dire qu’il y a pas mal de trucs intéressants à raconter. Le Narwal Flow fait en effet partie de la nouvelle génération d’aspirateurs robots qui débarquent en 2025, et celui-co a quelques arguments qui sortent du lot.

D’abord, parlons du bruit, ou plutôt de l’absence de bruit. Ce truc est assez silencieux, je trouve. Pendant que le CES 2025 nous présentait des robots avec des bras robotisés pour ramasser les chaussettes, chez Narwal ils ont préféré se concentrer sur la réduction du bruit. Et ça marche ! Vous pouvez donc le lancer pendant une réunion Zoom sans que vos collègues s’en rendent compte.

Il a aussi une excellente gestion des obstacles. Non seulement il évite mes câbles qui traînent partout (oui, je sais, je devrais ranger), mais il contourne aussi mes chaussettes lâchement abandonnées. Cette capacité géniale lui vient de son système de navigation avec deux caméras RGB à 136° et un chip IA embarqué qui reconnaît plus de 200 types d’objets. Pas de traitement dans le cloud, tout se fait en local donc pour les parano de la vie privée, c’est plutôt rassurant. Puis comme ça, quand vous regardez la map avec tous les obstacles, vous pouvez voir sur quoi il tombe…

Parlons maintenant de la fonction qui m’amuse le plus : la surveillance à distance. Grâce à la caméra embarquée, je peux prendre le contrôle du robot depuis mon téléphone et faire un petit tour de la maison. C’est pratique pour vérifier si j’ai bien fermé une fenêtre, si le chat a renversé quelque chose ou si y’a un gars chelou dans ma cuisine. Ces aspirateurs robots avec caméra permettent même une communication bidirectionnelle, donc techniquement, vous pouvez parler à votre chat à distance. Je l’ai fait. Il s’en fout complètement. Puis bon bah comme toujours avec ce genre de gadgets, vous pouvez prendre des photos, faire des vidéos comme ceci :

Pour ceux qui ont des animaux justement, il y a un mode spécial qui évite que Médor se coince la queue dedans ou que le petit dernier y mette les doigts. Le robot ralentit et devient plus prudent quand il détecte du mouvement. C’est bien pensé, même si mon chat continue de le regarder comme un ennemi mortel.

La vraie innovation du Flow, c’est surtout son système de nettoyage FlowWash. Au lieu des serpillères rotatives classiques, Narwal a opté pour un rouleau au format chenille qui se nettoie en continu. Le principe c’est que le rouleau applique de l’eau propre d’un côté tout en aspirant l’eau sale de l’autre. Résultat, la serpillère reste toujours propre pendant le nettoyage. Et ce système permet enfin d’aller nettoyer dans les coins… Et ça j’apprécie car mes robots précédents laissaient toujours des trucs sales dans les angles.

Avec une puissance d’aspiration entre 20 000 et 22 000 Pa, on donc est sur du très haut de gamme… pour vous donner une idée, un robot aspi en général, c’est au moins 2 500 Pa, donc là on est carrément dans l’excès. Mais bon, quand on voit le prix autour de 900 €, on comprend qu’on n’est pas sur de l’entrée de gamme.

Maintenant, tout n’est pas parfait. Par exemple, il faut régulièrement passer un petit coup de sopalin dans la station d’acceuil pour nettoyer les résidus qui s’accumulent. C’est pas dramatique mais bon, c’est beurk ;-)

Deuxième point qui m’embête, la consommation d’eau. J’ai une grande maison, et si je veux passer toute la surface à la serpillère, il faut que je recharge le réservoir d’eau une fois par jour. Du coup, j’ai trouvé la parade : mode serpillère pour la cuisine uniquement, et mode aspirateur pour le reste. De temps en temps, je lance quand même un grand nettoyage complet à l’eau quand j’ai le temps de gérer la logistique eau.

Le robot gère aussi très bien les tapis, il les détecte et adapte automatiquement sa puissance d’aspiration. Et pour les petits dénivelés entre les pièces (genre ces petites marches de 1-2 cm qu’on a parfois), il fait son petit numéro d’escalade roue après roue. C’est rigolo à regarder et il s’en sort très bien !

Après c’est surtout la station d’accueil qui fait tout le boulot : vidange automatique de la poussière (jusqu’à 120 jours d’autonomie avec un petit sac aspi), lavage et séchage de la serpillère, remplissage d’eau propre dans le robot (avec détergent livré avec). Vous n’avez quasiment rien à faire, à part nettoyer la base de temps en temps et vider l’eau sale / remplir l’eau propre.

Comparé à la concurrence, le Flow se positionne donc clairement sur le haut de gamme. Narwal ne s’est pas perdu dans l’inovation ridicule (comme les robots avec les bras dont je vous parlais tout à l’heure) en misant sur un système de nettoyage innovant et une navigation ultra-précise. Chacun sa stratégie.

Bref, si je devais résumer mon expérience avec ce petit nouveau, je trouve que c’est un excellent robot aspirateur qui fait le job sans faire de bruit. En plus, je passe plus mon temps à le chercher dans toute la maison pour le débloquer d’un câble ou d’une chaussette, alors je suis content. Puis ce système de serpillère chenille nettoie vraiment bien je trouve, y compris les coin. Donc voilà, si vous cherchez du haut de gamme avec des fonctions originales, c’est une option sérieuse à considérer.

Découvrir la fiche technique du robot en cliquant ici.

Comment l'iPhone d'une ado a géré tout seul son accident de voiture

Lindsay Leskovac, 16 ans, a passé en tout et pour tout 22 minutes, inconsciente dans son pickup totalement détruit, pendant que son iPhone 14 discutait tout seul avec les secours. Pas de panique, pas de cris, juste un téléphone qui fait son job pendant que sa propriétaire est dans les vapes. Et apparemment, il l’a fait plutôt bien puisque la jeune fille est toujours vivante pour raconter son histoire.

L’accident s’est produit dans la nuit du 2 août dernier, à Greenville en Pennsylvanie. Lindsay rentrait chez elle après avoir déposé une amie. Vous connaissez la suite, fatigue, route monotone, et la voilà endormie au volant. Le pickup percute alors deux poteaux électriques et quelques arbres avant de s’immobiliser. Bilan : fractures aux deux jambes et à la colonne cervicale. C’est le genre d’accident où on ne peut pas vraiment composer le 911 toi-même.

Et c’est là que la technologie entre en scène car l’iPhone 14 de Lindsay, équipé de la fonction Crash Detection, a détecté l’impact violent et a automatiquement composé le 911. Lindsay a même repris connaissance en entendant une voix sortir de son téléphone. Alors pour comprendre comment un téléphone peut détecter un accident, il faut regarder sous le capot de celui-ci.

Car oui, Apple a équipé l’iPhone 14 d’un accéléromètre capable de mesurer jusqu’à 256 G sachant qu’en général, les accidents graves dépassent généralement les 100 G. Le gyroscope haute dynamique quand à lui est capable de détecter les changements de direction brutaux, échantillonnant les mouvements 4 fois plus vite que les anciens modèles.

De son côté, le baromètre détecte les changements de pression causés par le déploiement des airbags sans oublier le GPS qui vérifie que vous êtes bien en déplacement à haute vitesse. Et le microphone dans tout ça ? Et bien il capte les bruits caractéristiques d’un crash. Et tout ça se passe en temps réel, avec votre consentement bien sûr, c’est à dire quand l’iPhone détecte que vous êtes dans un véhicule via Bluetooth ou CarPlay.

Selon les ingénieurs d’Apple , il n’y a pas de “formule magique” pour détecter un accident… C’est “simplement” un algorithme dynamique qui combine vitesse, force d’impact, changement de pression et niveau sonore. Apple a ainsi analysé un million d’heures de données de conduite réelle et d’accidents pour entraîner son système de machine learning et ils ont même fait des crash tests grandeur nature aussi bien frontaux, arrière, latéraux sans oublier mes préférés, les tonneaux !

D’un côté, on a donc une adolescente qui fait une erreur humaine basique… Et de l’autre, un petit smartphone courageux qui prend le relais avec une efficacité chirurgicale. Pas d’hésitation, pas d’erreur de jugement, juste une réaction immédiate et appropriée.

Laura Leskovac, la mère de Lindsay, ne connaissait même pas l’existence de cette fonction avant l’accident. Elle affirme aujourd’hui que c’est la seule raison pour laquelle sa fille est encore en vie. Craig Federighi, le patron du software chez Apple, a d’ailleurs déclaré être “stupéfait” par le nombre de lettres reçues quelques jours seulement après le lancement de cette fonction, de personnes disant qu’elle leur avait sauvé la vie. Car oui, je vous ai pas dit, mais toutes ces données des capteurs sont traitées localement sur l’appareil et supprimées après détection, sauf si, bien sûr, vous acceptez de les partager pour améliorer le système.

Donc y’a aucune raison de pas laisser cette option activée par défaut… Et y’a la même sur l’Apple Watch pour info.

Bien sûr, ce n’est pas la première fois que cette fonction fait parler d’elle car elle a aussi ses ratés, notamment quand elle confond les montagnes russes avec des accidents. Mais dans le cas de Lindsay, elle a fait exactement ce pour quoi elle était conçue à savoir agir quand l’humain ne peut plus.

Nos smartphones sont devenus au fil du temps bien plus que des outils de communication… Ils sont maintenant capables de prendre des décisions vitales à notre place, ce qui est à la fois rassurant et quand même un peu flippant… mais quand ça vous sauve la vie, chipoter sur les implications philosophiques, c’est plus difficile..

Source

L'IA déniche des antibiotiques cachés dans les microbes les plus anciens de la Terre

C’est vraiment paradoxal, mais plus on avance dans la technologie, plus on se tourne vers ce qui est vraiment, vraiment vieux. Et là, je ne vous parle pas de vos vieux CD-ROM Windows 95, non, non, mais de trucs qui traînent sur Terre depuis des milliards d’années (comme Bayrou ^^).

Une équipe de chercheurs de l’Université de Pennsylvanie vient de faire une découverte assez dingue. Ils ont utilisé une IA pour fouiller dans les protéines d’organismes appelés Archaea, des microbes tellement anciens qu’ils étaient déjà là avant que les bactéries ne deviennent “mainstream”. Ces bestioles survivent dans des conditions extrêmes : sources d’eau bouillante acide, cheminées volcaniques sous-marines, lacs salés où rien d’autre ne peut vivre. Bref, les endroits où même Bear Grylls ne mettrait pas les pieds.

Et ce qui est fou, c’est que ces microbes ont développé des mécanismes de défense complètement différents de ce qu’on connaît. Au lieu d’attaquer la membrane externe des bactéries comme le font la plupart des antibiotiques actuels, les composés découverts (baptisés sans originalité des “archaeasins”) s’attaquent directement aux signaux électriques à l’intérieur des cellules. C’est un peu comme si au lieu de défoncer la porte d’entrée, ils coupaient directement le disjoncteur de la maison.

L’équipe dirigée par César de la Fuente a utilisé un outil d’IA appelé APEX 1.1 pour scanner 233 espèces d’Archaea. Résultat, ils ont découvert plus de 12 600 candidats antibiotiques potentiels. Sur les 80 qu’ils ont synthétisés et testés en labo, 93% ont montré une activité antimicrobienne contre au moins une bactérie pathogène. C’est un taux de réussite assez impressionnant quand on sait que d’habitude, on tourne plutôt autour de quelques pourcents.

Selon l’OMS, on fait face en ce moment à une crise majeure avec 24 pathogènes prioritaires qui nécessitent de nouveaux antibiotiques de toute urgence. Seulement, voilà, le pipeline de développement de nouveaux antibiotiques est quasiment à sec, avec seulement 27 antibiotiques en développement clinique dont seulement 6 considérés comme vraiment innovants. Et pendant ce temps, les bactéries résistantes continuent de proliférer… Cela génère 2,8 millions d’infections résistantes aux antibiotiques se produisent chaque année rien qu’aux États-Unis.

Un des archaeasins testés, le numéro 73 (ils sont pas très créatifs pour les noms, j’avoue…), s’est montré aussi efficace que la polymyxine B sur des souris infectées. Pour ceux qui ne connaissent pas, la polymyxine B c’est un peu l’arme de dernier recours contre les infections multi-résistantes. C’est le genre de truc qu’on sort quand plus rien d’autre ne marche. Vous avez intérêt à bien bien prendre vos probiotiques après celui-là, pour ne pas repeindre encore une fois l’appart.

C’est donc un tout nouveau terrain de jeu qui s’ouvre car jusqu’à présent, la recherche d’antibiotiques s’est concentrée sur les bactéries, les champignons et parfois les plantes. Les Archaea, c’est donc un domaine complètement inexploré. Et vu qu’ils représentent une branche entière de l’arbre du vivant, distincte des bactéries et de tout le reste, le potentiel est énorme !

D’ailleurs, ce n’est pas la première fois que l’équipe de de la Fuente utilise l’IA pour chercher des antibiotiques dans des endroits improbables (oups, non pas là). Ils avaient déjà scanné l’ADN d’organismes éteints comme le mammouth laineux et même analysé les composés chimiques dans les venins d’animaux. L’idée, c’est que l’évolution a déjà fait le boulot pendant des millions d’années, alors il suffit de savoir où chercher.

Les chercheurs prévoient donc maintenant d’améliorer APEX pour qu’il puisse prédire l’activité antibiotique basée sur la structure 3D des molécules, et pas seulement leur séquence. L’objectif à terme, c’est évidemment d’arriver jusqu’aux essais cliniques sur l’homme. Mais ça, c’est encore une autre paire de manches qui prendra plusieurs années…

Bref, comme quoi, des solutions aux problèmes modernes se cachent parfois dans ce qu’il y a de plus ancien et ces microbes qui barbotent tranquillement dans leur soupe acide depuis des milliards d’années pourraient bien nous sauver la mise face aux superbactéries du 21e siècle qui déboulent en masse, notamment à cause du changement climatique.

Source

Des chercheurs font pousser un cerveau humain de poche

Vous savez quel est le pire cauchemar d’un labo pharmaceutique ? C’est investir des milliards dans un médicament qui fonctionne parfaitement sur les souris pour finalement découvrir qu’il est totalement inutile chez l’humain.

Bon, visiblement ça arrive dans 96% des cas pour les médicaments neuropsychiatriques selon les données de Johns Hopkins BME. Un taux d’échec qui ferait pâlir n’importe quel créateur de founder. Mais voilà qu’une équipe de chercheurs vient peut-être de trouver la solution en faisant pousser… des cerveaux humains miniatures.

C’est l’équipe d’Annie Kathuria à Johns Hopkins qui a réussi ce truc assez fou. Ils ont créé le tout premier organoïde cérébral complet, le MRBO (Multi-Region Brain Organoid), qui intègre toutes les régions majeures du cerveau humain. Pas juste un bout de cortex comme avant hein, mais un vrai petit cerveau avec ses vaisseaux sanguins rudimentaires et son activité neurale. La bestiole fait 6 à 7 millions de neurones ce qui comparé à votre cerveau qui en contient des dizaines de milliards, est ridicule, mais c’est déjà suffisant pour reproduire l’activité d’un cerveau fœtal de 40 jours.

Pour y parvenir, il utilisent une technique d’assemblage où au lieu d’essayer de tout faire pousser d’un coup, ils cultivent séparément les différentes régions cérébrales et les vaisseaux sanguins dans des boîtes de Petri, et ensuite, ils utilisent des protéines collantes qui font office de “superglue biologique” pour assembler le tout comme un puzzle 3D. Une fois collés ensemble, les tissus commencent alors naturellement à créer des connexions et à produire de l’activité électrique coordonnée.

Ce qui est dingue c’est que cet “‘organoïde” conserve environ 80% des types cellulaires qu’on trouve dans un cerveau humain en développement précoce. Les chercheurs ont même observé la formation d’une barrière hémato-encéphalique primitive, cette couche protectrice qui filtre ce qui peut ou ne peut pas entrer dans le cerveau. D’après ScienceDaily, c’est une première mondiale qui pourrait transformer radicalement la recherche médicale.

Mais alors pourquoi c’est si révolutionnaire ? Et bien ça permettrait de “faire de la science” sur du tissu cérébral humain sans toucher à un seul patient. Pour les maladies comme la schizophrénie, l’autisme ou Alzheimer qui affectent l’ensemble du cerveau et pas juste une région isolée, c’est donc un game-changer total.

En France, le CNRS a annoncé le lancement du programme PEPR MED-OoC début 2025. C’est un projet à 48 millions d’euros sur six ans pour développer la médecine personnalisée avec les organoïdes. Co-dirigé par le CEA, l’Inserm et le CNRS, ce programme vise à créer des modèles biologiques personnalisés et réduire l’expérimentation animale.

L’application la plus prometteuse c’est évidemment la médecine sur-mesure. En gros, on prélève vos cellules, on fait pousser un mini-vous cérébral, et on teste dessus quel traitement marchera le mieux pour VOTRE cerveau spécifique. Plus de loterie thérapeutique, plus de “on va essayer ça et voir si ça marche”. Cette approche permet déjà d’étudier la microcéphalie, les troubles du spectre autistique et même les effets du virus Zika sur le développement cérébral.

D’ailleurs, ça marche déjà pour d’autres organes. Une équipe chinoise a rapporté en 2024 les résultats d’un essai clinique où ils ont transplanté des îlots pancréatiques dérivés de cellules souches chez un patient diabétique de type 1. Du coup, sevrage complet de l’insuline en 75 jours avec une HbA1c normalisée à 5%. Alors si on peut faire la même chose avec les troubles neurologiques, c’est le jackpot médical !

Bon, maintenant avant que vous ne flippiez en mode Black Mirror, je vous rassure, ces mini-cerveaux ne sont pas conscients. L’Académie nationale de médecine insiste bien là-dessus !! Toutes les activités cellulaires observées ne peuvent pas être assimilées à des processus cognitifs, sensoriels ou moteurs. C’est juste du tissu biologique qui réagit, et pas un être pensant miniature.

Pour les chercheurs, ces organoïdes sont surtout une alternative éthique géniale car au lieu de tester sur des animaux (avec des résultats souvent non transposables) ou d’attendre des années pour des essais cliniques risqués, ils peuvent maintenant observer en temps réel comment une maladie se développe et tester immédiatement si un traitement fonctionne. Ça me fait penser aussi à cet ordinateur biologique dont j’ai parlé il y a quelques semaines…

Ce qui est fou, c’est qu’on n’est qu’au début de tout ça ! Et les applications potentielles sont énormes car ça va nous permettre de comprendre pourquoi certains cerveaux développent des maladies neurodégénératives et d’autres non, mais aussi de créer des banques d’organoïdes pour tester massivement de nouvelles molécules, ou même de développer des thérapies préventives personnalisées avant l’apparition des symptômes.

Alors oui, faire pousser des cerveaux en labo, ça peut sembler dystopique et je sais que certains d’entre vous sont déçus parce qu’ils espéraient une greffe ^^, mais quand on voit le potentiel pour soigner des maladies aujourd’hui incurables, c’est plutôt de l’espoir en boîte… de Petri.

Et avec les investissements massifs en France et aux États-Unis, on peut parier que d’ici quelques années, votre médecin pourra tester ses prescriptions sur votre jumeau cérébral miniature avant de vous les donner.

Quand les centrales solaires chassent les astéroïdes la nuit au lieu de dormir

Les centrales solaires font du télétravail la nuit car au lieu de roupiller comme nous tous maintenant elles cherchent des astéroïdes. C’est ce qu’a mis en place un scientifique fou des Sandia Labs qui a ainsi transformé 218 miroirs héliostats en télescope géant pour traquer les cailloux spatiaux quand le soleil se couche.

John Sandusky, chercheur aux Sandia National Laboratories, en avait marre de voir les héliostats se tourner les pouces après le coucher du soleil. Ces miroirs géants de 37 mètres carrés qui concentrent la lumière solaire sur une tour de 61 mètres pour produire 6 mégawatts thermiques le jour, bah la nuit ils font rien. Zéro. Nada. C’est donc un gâchis monumental pour une installation qui a coûté des millions.

Alors il s’est dit : et si on leur trouvait un petit boulot ? Genre chasseur d’astéroïdes ? Pas con le mec.

Le principe est assez dingue, vous allez voir… Au National Solar Thermal Test Facility d’Albuquerque au Nouveau-Mexique, Sandusky a reprogrammé un des 218 héliostats pour qu’il suive les étoiles comme un télescope. Sauf qu’au lieu de capturer des images, il mesure les variations de lumière avec une précision au femtowatt près. C’est un millionième de milliardième de watt, autant dire trois fois rien.

On collecte un million de watts de lumière solaire le jour”, explique Sandusky. “Et la nuit, on veut collecter un femtowatt de lumière réfléchie par les astéroïdes.” Le rapport c’est un pour un million de milliards. C’est comme passer d’un concert de Metallica à entendre une fourmi péter.

Pour cela, l’héliostat oscille d’avant en arrière toutes les minutes en suivant le ciel étoilé et si un astéroïde passe dans le champ de vision, il crée une perturbation dans le spectre de fréquences lumineuses. Bien sûr, pas de jolies photos avec des traînées comme dans les télescopes classiques, mais une signature dans les données qui trahit sa présence, sa vitesse et sa trajectoire.

Évidemment, le système ATLAS de la NASA (Asteroid Terrestrial-impact Last Alert System) fait déjà un boulot remarquable avec ses quatre télescopes qui scannent le ciel complet toutes les 24 heures et depuis sa création, ATLAS a découvert plus de 700 astéroïdes proches de la Terre et 66 comètes. Il a même détecté les deux seuls astéroïdes qui sont tombé sur Terre ces dernières années : 2019 MO et 2018 LA.

Mais les télescopes coûtent cher et il n’y en a pas assez alors que les centrales solaires, elles, sont déjà là. Aux États-Unis, en Espagne, au Maroc, en Chine, en France… Des milliers d’héliostats qui pourraient faire double usage.

Le plus fou c’est que cette technologie pourrait aussi servir pour surveiller l’espace cislunaire, c’est à dire la zone entre la Terre et la Lune car les orbites près de la Lune sont difficiles à suivre depuis le sol et des objets (vaisseaux, ovnis, satellites, rayons laser de la mort ^^…etc) pourraient s’y cacher discrètement. Avec un réseau d’héliostats comme celui-ci transformés en sentinelles nocturnes, plus moyen de jouer à cache-cache.

Mais pour l’instant, vous vous en doutez, c’est de la recherche fondamentale et maintenant, Sandusky cherche des financements pour passer à l’échelle supérieure.

On veut passer d’un héliostat à plusieurs et démontrer qu’on peut aider à trouver des objets proches de la Terre. […] On veut aussi prouver qu’on peut détecter des astéroïdes encore plus petits.

En février 2025, ATLAS a d’ailleurs fait une découverte historique : l’astéroïde 2024 YR4, gros comme un immeuble de 20 étages, qui pourrait percuter la Terre en décembre 2032. Cette collision reste possible même si les probabilités sont faibles mais ce genre de menace justifie qu’on utilise toutes les ressources disponibles pour surveiller le ciel.

L’idée de Sandusky, c’est donc du recyclage intelligent car plutôt que de construire de nouveaux télescopes de plus en plus gros, on utilise l’infrastructure existante de ces centrales solaires qui la nuit ne font rien. Elles deviendraient ainsi nos vigies de l’espace, gratuitement ou presque car un héliostat qui traque les astéroïdes la nuit et produit de l’électricité le jour, c’est deux fois plus rentable.

Et si ça marche bien, on pourrait voir fleurir des réseaux de surveillance spatiale low-cost où chaque centrale solaire deviendrait un maillon de la défense planétaire. Les astéroïdes tueurs n’auront qu’à bien se tenir !!

Source

Le MIT transforme l'air du désert en eau potable

Bon, on dirait que le MIT vient de transformer une scène de science-fiction en réalité. En effet, ces derniers ont créé un panneau de la taille d’une fenêtre qui transforme l’air du désert en eau potable. Pas besoin d’électricité, pas de filtres, juste de l’air et un peu de soleil, et ça marche même dans la Vallée de la Mort, l’endroit le plus sec d’Amérique du Nord.

Le dispositif ressemble à un panneau noir vertical encadré de verre, un peu comme une fenêtre high-tech. Mais derrière cette apparence simple se cache une technologie fascinante, un hydrogel qui imite l’art de l’origami. Ce matériau forme de petites structures en dôme qui ressemblent à du papier bulle noir. Quand l’hydrogel absorbe la vapeur d’eau de l’air, ces dômes gonflent. Quand l’eau s’évapore pour être collectée, ils se rétractent dans un mouvement gracieux digne d’un pliage japonais.

L’équipe du professeur Xuanhe Zhao a publié ses résultats dans Nature Water le 11 juin dernier. Ils ont testé leur invention pendant une semaine complète en novembre 2023 dans la Vallée de la Mort, en Californie. Même avec une humidité relative de seulement 21%, le dispositif a réussi à produire entre 57 et 161,5 millilitres d’eau potable par jour. Pour vous donner une idée, c’est environ deux tiers d’un verre d’eau extrait de l’air le plus sec d’Amérique du Nord.

La nuit, quand l’humidité est au maximum dans le désert (ce qui reste très faible), l’hydrogel absorbe la vapeur d’eau grâce aux sels de lithium qu’il contient. Le jour, le soleil chauffe le panneau et fait évaporer l’eau capturée. Cette vapeur se condense ensuite sur les parois en verre refroidies et s’écoule dans un tube de collecte. De l’eau pure, prête à boire.

Ce qui rend cette invention particulièrement astucieuse, c’est la résolution d’un problème majeur de technologies similaires : la contamination par le sel. Normalement, les sels de lithium utilisés pour absorber l’humidité se retrouvent dans l’eau collectée, la rendant impropre à la consommation. L’équipe du MIT a ajouté du glycérol dans leur hydrogel, un composé qui stabilise le sel et l’empêche de s’échapper. Résultat, leur eau contient moins de 0,06 ppm de lithium, bien en dessous du seuil de sécurité établi par l’US Geological Survey.

La structure en dômes n’est pas qu’esthétique car elle augmente considérablement la surface d’absorption par rapport à une feuille plate. Plus de surface = plus de vapeur capturée = plus d’eau produite. Et contrairement aux matériaux MOF (Metal-Organic Frameworks) qui dominent actuellement ce secteur, l’hydrogel du MIT n’a pas de pores à l’échelle nanométrique qui pourraient laisser passer les contaminants.

L’avantage énorme de ce système, c’est qu’il fonctionne de manière complètement passive. Pas de panneaux solaires, pas de batteries, pas de raccordement électrique. Juste le cycle naturel jour/nuit et la chaleur du soleil. Dans un monde où 2,2 milliards de personnes n’ont pas accès à l’eau potable et où 46 millions d’Américains vivent dans l’insécurité hydrique, cette approche pourrait être déterminante.

L’équipe imagine déjà des déploiements à plus grande échelle. Plusieurs panneaux disposés en parallèle pourraient alimenter un foyer entier en eau potable, même dans les environnements les plus arides. Et contrairement aux systèmes de désalinisation ou aux puits, cette technologie peut fonctionner n’importe où, du moment qu’il y a de l’air.

Evidemment, 160 millilitres par jour, c’est encore loin des besoins d’une famille. Mais c’est un prototype d’un demi-mètre carré testé dans des conditions extrêmes. Les chercheurs travaillent déjà sur une deuxième génération de matériau avec des propriétés améliorées et un design multi-panneaux. Ils estiment qu’un petit réseau de ces dispositifs pourrait subvenir aux besoins en eau potable d’un ménage.

Avec le changement climatique qui aggrave les sécheresses et la désertification, des technologies comme celle-ci pourraient littéralement sauver des vies. Et le fait qu’elle ne nécessite aucune infrastructure électrique la rend accessible aux régions les plus reculées de la planète.

Chang Liu, l’auteur principal de l’étude et aujourd’hui professeur assistant à l’Université nationale de Singapour, voit déjà plus loin : “C’est juste une preuve de concept, et il y a beaucoup de choses qu’on peut optimiser. Par exemple, on pourrait avoir un design multi-panneaux. Et on travaille sur une nouvelle génération du matériau pour améliorer encore ses propriétés intrinsèques.

Bref, cette innovation du MIT pourrait bien marquer le début d’une nouvelle ère dans l’accès à l’eau potable. Transformer l’air en eau, c’était de la science-fiction il y a encore quelques années et aujourd’hui, c’est une réalité testée et validée dans le désert le plus hostile d’Amérique.

Et demain ? Peut-être dans votre jardin.

Source : MIT News

Pourquoi les critiques contre l'IA génèrent-elles autant de malentendus ?

Vous savez ce qui me fatigue dans les débats sur l’IA générative ? C’est cette tendance qu’ont certains à répéter des arguments complètement à côté de la plaque, comme s’ils sortaient du PMU du coin après trois verres de rouge.

Alors attention, je ne dis pas que toutes les critiques sont bidons. Il y en a des légitimes, et on va en parler mais qu’on arrête de confondre incompréhension technique et indignation morale, parce que je trouve que ça dessert tout le monde.

Vous l’aurez remarqué, je génère mes images avec de l’IA depuis des mois. Pas par flemme ni pas par mépris des artistes, mais parce que j’adore cette petite teinte jaune c’est un outil fascinant qui ouvre des possibilités créatives inédites à tout le monde. Et même si moi je suis assez tranquille parce que je ne vais plus sur les réseaux sociaux parce que c’est bourré de connards, il m’arrive quand même de tomber sur des commentaires outragés qui montrent surtout une méconnaissance totale du fonctionnement de ces systèmes. Certains des plus virulents incitent même les abrutis qui les écoutent à “aggresser” ceux qui utilisent l’IA générative…

Bref, c’est assez grave donc je vous propose aujourd’hui de prendre le temps de décortiquer ces arguments, avec de vraies données scientifiques à l’appui.

Commençons d’abord par le plus gros malentendu à savoir l’idée que l’IA “vole” ou “copie” directement les œuvres. C’est techniquement faux, et les études le prouvent. Les modèles de diffusion latente, comme ceux qui alimentent Midjourney ou DALL-E, fonctionnent dans un espace conceptuel compressé. Concrètement, ils réduisent une image de 512x512 pixels à une représentation latente de 64x64 et cette compression sémantique élimine tous les détails pour ne garder que les concepts abstraits.

L’équipe de Xiangming Gu a démontré que la mémorisation directe ne survient que dans des conditions exceptionnelles comme des datasets ridiculement petits, de la duplication massive des mêmes données, ou des prompts agissant comme des “clés” ultra-spécifiques. Dans l’usage normal, avec les milliards d’images d’entraînement actuels, cette mémorisation devient statistiquement négligeable. Plus fascinant encore, l’augmentation de la taille des datasets réduit paradoxalement la mémorisation, créant une fenêtre de généralisation plus large.

Les études de 2024 sur les mécanismes d’attention croisée montrent également des patterns complètement dispersés lors d’une génération normale. L’IA ne stocke pas vos œuvres dans un coin de sa mémoire pour les ressortir telles quelles, non… elle apprend des concepts, des styles, des associations visuelles, exactement comme un artiste humain qui s’inspire de ce qu’il a vu.

D’ailleurs, parlons-en de cette comparaison humain / machine car l’étude de Frontiers Psychology de Bellaiche et ses collègues de Johns Hopkins révèle un truc qui m’a bien fait rire : sans étiquetage, les observateurs préfèrent significativement l’art généré par IA. Mais dès qu’on leur dit que c’est fait par une machine, hop, biais négatif immédiat. Les mêmes œuvres deviennent soudainement “moins créatives”, “sans âme”, “artificielles”. C’est donc le parfait exemple de dissonance cognitive où nos préjugés influencent notre perception esthétique plus que les qualités intrinsèques de l’œuvre.

Le rapport Art & IA 2024 d’Hiscox confirme également cette schizophrénie collective. 67% des jeunes collectionneurs et 69% des plus âgés affirment que les œuvres IA ont moins de valeur que celles d’artistes humains. Mais en parallèle, l’intérêt pour l’art génératif explose, surtout chez les jeunes. PNAS Nexus rapporte même une augmentation de 25% de la productivité artistique avec l’IA, et 50% de probabilité accrue de recevoir des “favoris” sur les plateformes.

Contradiction ? Non, je pense que c’est plutôt une évolution des mentalités qui est en cours.

Maintenant, les critiques légitimes. Parce qu’il y en a, et nier leur validité serait aussi débile que de nier les avantages de l’IA.

Il s’agit tout d’abord de la question du consentement pour l’utilisation des données d’entraînement, et c’est un vrai sujet. L’artiste Karla Ortiz le formule bien : utiliser ses œuvres sans autorisation, c’est “une intrusion, comme un étrange vol d’identité”. Et elle a raison sur le principe éthique, même si techniquement l’IA ne “vole” rien comme je vous l’expliquais.

Bien sûr, les mécanismes d’opt-out européens sont largement insuffisants. L’ADAGP l’a souligné : contrairement à la musique ou aux films, les images sont “presque toujours immédiatement visibles et téléchargeables”. C’est vrai ça… Comment protéger efficacement son travail quand il suffit d’un clic droit pour l’aspirer ? C’est un vrai défi technique et juridique réel qui mériterait mieux que des solutions cosmétiques.

Les biais algorithmiques constituent aussi une autre préoccupation. L’études de Bloomberg montrent que les générateurs amplifient les stéréotypes raciaux et de genre. Par exemple, plus de 80% des images “criminelles” générées représentent des personnes à peau foncée. Cette perpétuation automatisée des inégalités sociétales, c’est un problème éthique majeur que les développeurs devraient prendre à bras-le-corps.

L’impact économique sur certains secteurs créatifs est également très réel. Goldman Sachs estime que l’IA peut aujourd’hui automatiser 26% des tâches dans les métiers créatifs. L’illustration commerciale, la photographie stock, le design graphique basique subissent des pressions indéniables. Brookings (2024) anticipe que 30% des travailleurs pourraient voir plus de la moitié de leurs tâches affectées, avec une exposition disproportionnée des femmes.

Mais c’est bien aussi de contextualiser ces chiffres car l’histoire des révolutions technologiques nous montre que les disruptions créent autant qu’elles détruisent. La photographie, initialement perçue comme une menace mortelle pour les peintres portraitistes, a finalement créé des industries entières et poussé la peinture vers l’innovation. Et le secteur créatif américain a atteint 1,1 trillion de dollars en 2022, ce qui est un record historique et les artistes indépendants ont connu une croissance de 13,5% depuis 2019.

Bref, l’adaptation est en cours, et on est loin de l’effondrement.

L’argument environnemental mérite aussi d’être nuancé. Car oui, générer une image avec DALL-E consomme l’équivalent énergétique d’une charge de smartphone. Mais Nature Scientific Reports révèle que l’IA est 130 à 1500 fois moins émettrice de CO2 que les humains pour des tâches équivalentes d’écriture, et 310 à 2900 fois moins pour l’illustration. Cette différence s’explique par l’empreinte carbone annuelle humaine comparée à l’usage ponctuel de l’IA.

Les initiatives Green AI progressent aussi rapidement. Par exemple, Google fournit aujourd’hui six fois plus de puissance par unité d’électricité qu’il y a cinq ans, avec 66% d’énergie sans carbone en 2024. L’optimisation quantique a aussi amélioré l’efficacité d’entraînement des IA. Bref, la trajectoire d’amélioration continue est plutôt claire, je trouve.

Alors oui, il faut bien sûr réguler. Et l’AI Act européen, les propositions de Kate Crawford sur la transparence des algorithmes et le partage équitable des revenus, tout ça va dans le bon sens. Mais non, il ne faut pas interdire ou diaboliser par principe. Par exemple, l’ouverture prochaine du musée DATALAND de Refik Anadol à Los Angeles, conçu par Frank Gehry, montre que l’art génératif trouve sa place dans l’écosystème culturel.

Mais comme d’hab, y’a des tensions et des communautés comme Newgrounds ou ArtStation bannissent l’art IA, pendant que d’autres l’embrassent. Les protestations “No AI Art” côtoient l’explosion de créativité générée par ces outils. C’est normal, je trouve même que c’est sain et nécessaire car ça force le dialogue.

Ce qui m’agace, vous l’aurez compris, c’est cette manie de transformer chaque innovation en guerre de religion de débiles. L’IA générative n’est ni le diable ni le messie. C’est un outil puissant avec des implications complexes qui méritent des débats nuancés, et pas des slogans à la con de PMU. Les vrais enjeux comme le consentement, les biais, l’impact économique, ou encore la régulation que j’évoquais un peu plus haut, sont trop sérieux pour être noyés dans cet espèce de brouillard d’incompréhension technique que j’ai pu voir sur les réseaux sociaux notamment quand j’y trainais encore.

Alors continuez à critiquer c’est votre droit, mais s’il vous plait, renseignez-vous avant. Lisez les études, comprenez le fonctionnement de la technologie, et distinguez les problèmes réels des fantasmes.

A bon entendeur…

HRM - L'IA qui ridiculise ChatGPT avec seulement 27 millions de paramètres

Ce lundi matin, pendant que vous buvez votre café tiède en écoutant vos collègues évoquer leur future retraite imaginaire, sachez que des chercheurs singapouriens vient encore de repousser les frontières de l’IA avec HRM, un modèle qui résout des Sudoku impossibles sans même transpirer. Et il ne pèse que 27 Mo.

Je vous explique… La startup Sapient Intelligence vient de sortir le Hierarchical Reasoning Model (HRM), et c’est un véritable game-changer car avec seulement 27 millions de paramètres (c’est 6500 fois moins que GPT-3) cette petite bête arrive à battre les géants de l’IA sur des tâches de raisonnement complexe. Et le plus fort c’est qu’elle n’a besoin que de 1000 exemples pour apprendre, là où les autres en demandent des millions.

Le secret de cette prouesse, c’est une architecture directement inspirée de notre cerveau. Au lieu de faire comme les LLMs classiques qui génèrent du texte token par token en mode “je réfléchis à voix haute”, HRM fonctionne avec deux modules qui bossent ensemble : un module H (High-level) qui fait la planification stratégique lente, et un module L (Low-level) pour les calculs rapides et détaillés. En gros c’est un architecte qui dessine les plans et un maçon qui construit.

Et alors ça donne quoi dans la réalité ? Et bien sur des Sudoku niveau “extreme” où GPT-4 et Claude se cassent les dents avec un score de 0%, HRM affiche tranquillement un taux de réussite quasi parfait. Sur le benchmark ARC-AGI qui teste le raisonnement abstrait, il tape des scores de 40.3% contre 34.5% pour o3-mini d’OpenAI et 21.2% pour Claude 3.7 Sonnet. Pas mal donc pour un modèle qui tient sur une clé USB.

Mais le vrai kiff, c’est la vitesse d’exécution. Guan Wang, le CEO de Sapient Intelligence, parle d’un gain de performance de x100 par rapport aux approches chain-of-thought classiques. Pourquoi ? Et bien parce qu’au lieu de générer des pavés de texte pour expliquer chaque étape de raisonnement, HRM fait tout ça en interne, dans son “espace latent”. C’est ça la différence entre quelqu’un qui marmonne tout ce qu’il pense (le fou de la gare) et quelqu’un qui réfléchit dans sa tête avant de donner la réponse.

D’ailleurs, cette histoire de chain-of-thought, c’est un peu la “béquille” des LLMs actuels. Les chercheurs de Sapient ne mâchent pas leurs mots dans leur papier : en disant que “C’est une béquille, pas une solution satisfaisante. Ça repose sur des décompositions fragiles définies par l’humain où une seule erreur peut faire dérailler tout le processus de raisonnement.” Ouille…

Pour l’entraînement, c’est du grand art aussi. Il faut seulement 2 heures de GPU pour apprendre à résoudre des Sudoku niveau pro, et entre 50 et 200 heures pour le benchmark ARC-AGI. Comparez ça aux milliers d’heures nécessaires pour entraîner GPT-4, et vous comprenez pourquoi les entreprises commencent à s’intéresser sérieusement à cette approche.

L’équipe derrière ça sont des anciens de Google DeepMind, DeepSeek, Anthropic et xAI, accompagnés d’académiques de grandes universités. Ils ont même mis le code en open source sur GitHub, donc si vous voulez jouer avec, c’est cadeau.

Pour les applications concrètes, Wang voit grand : santé pour les diagnostics complexes, prévisions climatiques (ils annoncent 97% de précision sur les prévisions saisonnières), et robotique comme “cerveau décisionnel” embarqué. Parce que oui, avec sa taille réduite et sa faible consommation, HRM peut tourner sur des appareils edge sans problème.

Alors bien sûr, ne jetez pas ChatGPT ou Claude à la poubelle tout de suite car pour les tâches créatives et linguistiques, les LLMs restent imbattables. Mais pour tout ce qui demande du raisonnement pur et dur, c’est à dire optimisation logistique, diagnostic de systèmes complexes, planification…etc, HRM pourrait bien devenir le nouveau standard.

Ainsi, depuis des années, la course à l’IA c’était “qui aura le plus gros modèle” et là, Sapient nous montre qu’avec une architecture intelligente inspirée du cerveau, on peut faire mieux avec infiniment moins. Si vous suivez l’actualité des nouveaux modèles IA comme Llama 4, vous savez que l’industrie commence à explorer des architectures alternatives comme par exemple les Mixture of Experts pour optimiser les performances, donc peut-être que Meta ou d’autres intégreront HRM dans le futur à leurs nouveaux modèles.

Voilà, en attendant la prochaine révolution hebdomadaire de l’IA (Perso, je me régale !! Pas vous ??), vous pouvez déjà aller tester le code sur leur GitHub. Et qui sait, peut-être que dans quelques années, on se souviendra de ce moment comme du jour où l’IA a commencé à vraiment penser comme nous. Enfin, en mieux et en plus vite.

Source

La NASA a réparé une caméra à 600 millions de km en la chauffant à fond

Vous savez comment la NASA a réparé une caméra qui orbite autour de Jupiter ? Et bien en la mettant dans un four. Non, je déconne pas.

La sonde Juno tourne autour de Jupiter depuis 2016, et elle embarque une caméra appelée JunoCam qui nous envoie des images absolument dingues de la plus grosse planète du système solaire. Sauf que voilà, après 46 orbites nickel chrome, la caméra a commencé à faire des siennes lors de la 47ème orbite. Les images étaient pourries, pleines de bruit et de lignes bizarres.

Les ingénieurs du Jet Propulsion Laboratory ont alors vite compris le problème : les radiations de Jupiter, qui sont absolument monstrueuses, avaient bousillé le régulateur de tension de la caméra. Pour vous donner une idée, Jupiter émet tellement de radiations que la NASA avait prévu que JunoCam ne survive que 8 orbites, soit environ 400 jours. Mais la petite caméra qui le pouvait a tenu courageusement 5 fois plus longtemps que prévu !

Bon, le souci c’est qu’envoyer un nouveau régulateur via Amazon Prime à 600 millions de kilomètres, c’est pas vraiment une option. Alors les mecs de la NASA ont sorti une idée complètement folle de leur chapeau : Et si on faisait chauffer la caméra pour réparer les dégâts ?

Cette technique s’appelle le “recuit” (annealing en anglais), et c’est un procédé utilisé en métallurgie où on chauffe un matériau puis on le laisse refroidir lentement. Ça permet parfois de corriger des défauts dans la structure du matériau au niveau microscopique. Mais personne ne savait si ça marcherait sur du silicium irradié dans l’espace.

Jacob Schaffner, l’ingénieur de Malin Space Science Systems qui s’occupe de JunoCam, explique : “On savait que le recuit peut parfois modifier un matériau comme le silicium au niveau microscopique, mais on ne savait pas si ça réparerait les dégâts. On a commandé au chauffage de JunoCam de monter la température à 25°C, soit bien plus chaud que d’habitude pour la caméra, et on a attendu en retenant notre souffle.

Et bam ! Miracle, ça a marché. La caméra s’est remise à produire des images nickel. Mais comme toutes les bonnes choses ont une fin, après quelques orbites supplémentaires, les images ont recommencé à merder vers l’orbite 55.

Là, c’était la panique à bord. La sonde devait passer super près de Io, une des lunes de Jupiter, et il fallait absolument que la caméra fonctionne pour capturer ce moment historique. Cette fois, ils ont carrément mis le chauffage au max. Et re-miracle, ça a encore fonctionné ! Juste à temps pour capturer des images époustouflantes de Io et ses volcans en éruption.

Le plus fou dans cette histoire, c’est que cette technique de réparation par chauffage a tellement bien marché que l’équipe de Juno l’a testée sur d’autres instruments et systèmes de la sonde. Scott Bolton, le responsable scientifique de la mission, est super enthousiaste : “Juno nous apprend comment créer et maintenir des vaisseaux spatiaux résistants aux radiations, et ces leçons vont bénéficier aux satellites en orbite autour de la Terre. Je pense que ce qu’on a appris avec Juno sera applicable aux satellites militaires et commerciaux, ainsi qu’à d’autres missions de la NASA.

Malheureusement, lors de la 74ème orbite, le bruit est revenu dans les images et la NASA n’a pas dit s’ils allaient retenter le coup du four spatial une troisième fois. Peut-être qu’ils attendent le bon moment pour ressortir leur botte secrète.

Tout cela prouve que même avec toute leur technologie de pointe, les ingénieurs de la NASA doivent parfois improviser des solutions à la MacGyver comme à l’époque où on mettait nos cartes graphiques dans le four pour les réparer, sauf que là c’est une caméra qui se trouve à 600 millions de bornes et qui file à 200 000 km/h autour d’une planète géante radioactive.

Bref, cette technique de réparation par recuit pourrait se rajouter aux procédures de maintenance des satellites et des sondes spatiales, qui sait ? Comme ça, au lieu de considérer qu’un instrument endommagé par les radiations est foutu, on pourra peut-être le ressusciter avec un bon coup de chaud et ainsi économiser des millions tout en prolongeant la durée de vie de certaines missions spatiales.

Par contre, n’essayez pas la même chose en mettant votre smartphone ou votre laptop au four, ils risquent de ne pas aimer ^^.

Source

❌