Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Quand les centrales solaires chassent les astéroïdes la nuit au lieu de dormir

Par : Korben
4 août 2025 à 09:46

Les centrales solaires font du télétravail la nuit car au lieu de roupiller comme nous tous maintenant elles cherchent des astéroïdes. C’est ce qu’a mis en place un scientifique fou des Sandia Labs qui a ainsi transformé 218 miroirs héliostats en télescope géant pour traquer les cailloux spatiaux quand le soleil se couche.

John Sandusky, chercheur aux Sandia National Laboratories, en avait marre de voir les héliostats se tourner les pouces après le coucher du soleil. Ces miroirs géants de 37 mètres carrés qui concentrent la lumière solaire sur une tour de 61 mètres pour produire 6 mégawatts thermiques le jour, bah la nuit ils font rien. Zéro. Nada. C’est donc un gâchis monumental pour une installation qui a coûté des millions.

Alors il s’est dit : et si on leur trouvait un petit boulot ? Genre chasseur d’astéroïdes ? Pas con le mec.

Le principe est assez dingue, vous allez voir… Au National Solar Thermal Test Facility d’Albuquerque au Nouveau-Mexique, Sandusky a reprogrammé un des 218 héliostats pour qu’il suive les étoiles comme un télescope. Sauf qu’au lieu de capturer des images, il mesure les variations de lumière avec une précision au femtowatt près. C’est un millionième de milliardième de watt, autant dire trois fois rien.

On collecte un million de watts de lumière solaire le jour”, explique Sandusky. “Et la nuit, on veut collecter un femtowatt de lumière réfléchie par les astéroïdes.” Le rapport c’est un pour un million de milliards. C’est comme passer d’un concert de Metallica à entendre une fourmi péter.

Pour cela, l’héliostat oscille d’avant en arrière toutes les minutes en suivant le ciel étoilé et si un astéroïde passe dans le champ de vision, il crée une perturbation dans le spectre de fréquences lumineuses. Bien sûr, pas de jolies photos avec des traînées comme dans les télescopes classiques, mais une signature dans les données qui trahit sa présence, sa vitesse et sa trajectoire.

Évidemment, le système ATLAS de la NASA (Asteroid Terrestrial-impact Last Alert System) fait déjà un boulot remarquable avec ses quatre télescopes qui scannent le ciel complet toutes les 24 heures et depuis sa création, ATLAS a découvert plus de 700 astéroïdes proches de la Terre et 66 comètes. Il a même détecté les deux seuls astéroïdes qui sont tombé sur Terre ces dernières années : 2019 MO et 2018 LA.

Mais les télescopes coûtent cher et il n’y en a pas assez alors que les centrales solaires, elles, sont déjà là. Aux États-Unis, en Espagne, au Maroc, en Chine, en France… Des milliers d’héliostats qui pourraient faire double usage.

Le plus fou c’est que cette technologie pourrait aussi servir pour surveiller l’espace cislunaire, c’est à dire la zone entre la Terre et la Lune car les orbites près de la Lune sont difficiles à suivre depuis le sol et des objets (vaisseaux, ovnis, satellites, rayons laser de la mort ^^…etc) pourraient s’y cacher discrètement. Avec un réseau d’héliostats comme celui-ci transformés en sentinelles nocturnes, plus moyen de jouer à cache-cache.

Mais pour l’instant, vous vous en doutez, c’est de la recherche fondamentale et maintenant, Sandusky cherche des financements pour passer à l’échelle supérieure.

On veut passer d’un héliostat à plusieurs et démontrer qu’on peut aider à trouver des objets proches de la Terre. […] On veut aussi prouver qu’on peut détecter des astéroïdes encore plus petits.

En février 2025, ATLAS a d’ailleurs fait une découverte historique : l’astéroïde 2024 YR4, gros comme un immeuble de 20 étages, qui pourrait percuter la Terre en décembre 2032. Cette collision reste possible même si les probabilités sont faibles mais ce genre de menace justifie qu’on utilise toutes les ressources disponibles pour surveiller le ciel.

L’idée de Sandusky, c’est donc du recyclage intelligent car plutôt que de construire de nouveaux télescopes de plus en plus gros, on utilise l’infrastructure existante de ces centrales solaires qui la nuit ne font rien. Elles deviendraient ainsi nos vigies de l’espace, gratuitement ou presque car un héliostat qui traque les astéroïdes la nuit et produit de l’électricité le jour, c’est deux fois plus rentable.

Et si ça marche bien, on pourrait voir fleurir des réseaux de surveillance spatiale low-cost où chaque centrale solaire deviendrait un maillon de la défense planétaire. Les astéroïdes tueurs n’auront qu’à bien se tenir !!

Source

Le MIT transforme l'air du désert en eau potable

Par : Korben
3 août 2025 à 12:35

Bon, on dirait que le MIT vient de transformer une scène de science-fiction en réalité. En effet, ces derniers ont créé un panneau de la taille d’une fenêtre qui transforme l’air du désert en eau potable. Pas besoin d’électricité, pas de filtres, juste de l’air et un peu de soleil, et ça marche même dans la Vallée de la Mort, l’endroit le plus sec d’Amérique du Nord.

Le dispositif ressemble à un panneau noir vertical encadré de verre, un peu comme une fenêtre high-tech. Mais derrière cette apparence simple se cache une technologie fascinante, un hydrogel qui imite l’art de l’origami. Ce matériau forme de petites structures en dôme qui ressemblent à du papier bulle noir. Quand l’hydrogel absorbe la vapeur d’eau de l’air, ces dômes gonflent. Quand l’eau s’évapore pour être collectée, ils se rétractent dans un mouvement gracieux digne d’un pliage japonais.

L’équipe du professeur Xuanhe Zhao a publié ses résultats dans Nature Water le 11 juin dernier. Ils ont testé leur invention pendant une semaine complète en novembre 2023 dans la Vallée de la Mort, en Californie. Même avec une humidité relative de seulement 21%, le dispositif a réussi à produire entre 57 et 161,5 millilitres d’eau potable par jour. Pour vous donner une idée, c’est environ deux tiers d’un verre d’eau extrait de l’air le plus sec d’Amérique du Nord.

La nuit, quand l’humidité est au maximum dans le désert (ce qui reste très faible), l’hydrogel absorbe la vapeur d’eau grâce aux sels de lithium qu’il contient. Le jour, le soleil chauffe le panneau et fait évaporer l’eau capturée. Cette vapeur se condense ensuite sur les parois en verre refroidies et s’écoule dans un tube de collecte. De l’eau pure, prête à boire.

Ce qui rend cette invention particulièrement astucieuse, c’est la résolution d’un problème majeur de technologies similaires : la contamination par le sel. Normalement, les sels de lithium utilisés pour absorber l’humidité se retrouvent dans l’eau collectée, la rendant impropre à la consommation. L’équipe du MIT a ajouté du glycérol dans leur hydrogel, un composé qui stabilise le sel et l’empêche de s’échapper. Résultat, leur eau contient moins de 0,06 ppm de lithium, bien en dessous du seuil de sécurité établi par l’US Geological Survey.

La structure en dômes n’est pas qu’esthétique car elle augmente considérablement la surface d’absorption par rapport à une feuille plate. Plus de surface = plus de vapeur capturée = plus d’eau produite. Et contrairement aux matériaux MOF (Metal-Organic Frameworks) qui dominent actuellement ce secteur, l’hydrogel du MIT n’a pas de pores à l’échelle nanométrique qui pourraient laisser passer les contaminants.

L’avantage énorme de ce système, c’est qu’il fonctionne de manière complètement passive. Pas de panneaux solaires, pas de batteries, pas de raccordement électrique. Juste le cycle naturel jour/nuit et la chaleur du soleil. Dans un monde où 2,2 milliards de personnes n’ont pas accès à l’eau potable et où 46 millions d’Américains vivent dans l’insécurité hydrique, cette approche pourrait être déterminante.

L’équipe imagine déjà des déploiements à plus grande échelle. Plusieurs panneaux disposés en parallèle pourraient alimenter un foyer entier en eau potable, même dans les environnements les plus arides. Et contrairement aux systèmes de désalinisation ou aux puits, cette technologie peut fonctionner n’importe où, du moment qu’il y a de l’air.

Evidemment, 160 millilitres par jour, c’est encore loin des besoins d’une famille. Mais c’est un prototype d’un demi-mètre carré testé dans des conditions extrêmes. Les chercheurs travaillent déjà sur une deuxième génération de matériau avec des propriétés améliorées et un design multi-panneaux. Ils estiment qu’un petit réseau de ces dispositifs pourrait subvenir aux besoins en eau potable d’un ménage.

Avec le changement climatique qui aggrave les sécheresses et la désertification, des technologies comme celle-ci pourraient littéralement sauver des vies. Et le fait qu’elle ne nécessite aucune infrastructure électrique la rend accessible aux régions les plus reculées de la planète.

Chang Liu, l’auteur principal de l’étude et aujourd’hui professeur assistant à l’Université nationale de Singapour, voit déjà plus loin : “C’est juste une preuve de concept, et il y a beaucoup de choses qu’on peut optimiser. Par exemple, on pourrait avoir un design multi-panneaux. Et on travaille sur une nouvelle génération du matériau pour améliorer encore ses propriétés intrinsèques.

Bref, cette innovation du MIT pourrait bien marquer le début d’une nouvelle ère dans l’accès à l’eau potable. Transformer l’air en eau, c’était de la science-fiction il y a encore quelques années et aujourd’hui, c’est une réalité testée et validée dans le désert le plus hostile d’Amérique.

Et demain ? Peut-être dans votre jardin.

Source : MIT News

Pourquoi les critiques contre l'IA génèrent-elles autant de malentendus ?

Par : Korben
30 juillet 2025 à 23:40

Vous savez ce qui me fatigue dans les débats sur l’IA générative ? C’est cette tendance qu’ont certains à répéter des arguments complètement à côté de la plaque, comme s’ils sortaient du PMU du coin après trois verres de rouge.

Alors attention, je ne dis pas que toutes les critiques sont bidons. Il y en a des légitimes, et on va en parler mais qu’on arrête de confondre incompréhension technique et indignation morale, parce que je trouve que ça dessert tout le monde.

Vous l’aurez remarqué, je génère mes images avec de l’IA depuis des mois. Pas par flemme ni pas par mépris des artistes, mais parce que j’adore cette petite teinte jaune c’est un outil fascinant qui ouvre des possibilités créatives inédites à tout le monde. Et même si moi je suis assez tranquille parce que je ne vais plus sur les réseaux sociaux parce que c’est bourré de connards, il m’arrive quand même de tomber sur des commentaires outragés qui montrent surtout une méconnaissance totale du fonctionnement de ces systèmes. Certains des plus virulents incitent même les abrutis qui les écoutent à “aggresser” ceux qui utilisent l’IA générative…

Bref, c’est assez grave donc je vous propose aujourd’hui de prendre le temps de décortiquer ces arguments, avec de vraies données scientifiques à l’appui.

Commençons d’abord par le plus gros malentendu à savoir l’idée que l’IA “vole” ou “copie” directement les œuvres. C’est techniquement faux, et les études le prouvent. Les modèles de diffusion latente, comme ceux qui alimentent Midjourney ou DALL-E, fonctionnent dans un espace conceptuel compressé. Concrètement, ils réduisent une image de 512x512 pixels à une représentation latente de 64x64 et cette compression sémantique élimine tous les détails pour ne garder que les concepts abstraits.

L’équipe de Xiangming Gu a démontré que la mémorisation directe ne survient que dans des conditions exceptionnelles comme des datasets ridiculement petits, de la duplication massive des mêmes données, ou des prompts agissant comme des “clés” ultra-spécifiques. Dans l’usage normal, avec les milliards d’images d’entraînement actuels, cette mémorisation devient statistiquement négligeable. Plus fascinant encore, l’augmentation de la taille des datasets réduit paradoxalement la mémorisation, créant une fenêtre de généralisation plus large.

Les études de 2024 sur les mécanismes d’attention croisée montrent également des patterns complètement dispersés lors d’une génération normale. L’IA ne stocke pas vos œuvres dans un coin de sa mémoire pour les ressortir telles quelles, non… elle apprend des concepts, des styles, des associations visuelles, exactement comme un artiste humain qui s’inspire de ce qu’il a vu.

D’ailleurs, parlons-en de cette comparaison humain / machine car l’étude de Frontiers Psychology de Bellaiche et ses collègues de Johns Hopkins révèle un truc qui m’a bien fait rire : sans étiquetage, les observateurs préfèrent significativement l’art généré par IA. Mais dès qu’on leur dit que c’est fait par une machine, hop, biais négatif immédiat. Les mêmes œuvres deviennent soudainement “moins créatives”, “sans âme”, “artificielles”. C’est donc le parfait exemple de dissonance cognitive où nos préjugés influencent notre perception esthétique plus que les qualités intrinsèques de l’œuvre.

Le rapport Art & IA 2024 d’Hiscox confirme également cette schizophrénie collective. 67% des jeunes collectionneurs et 69% des plus âgés affirment que les œuvres IA ont moins de valeur que celles d’artistes humains. Mais en parallèle, l’intérêt pour l’art génératif explose, surtout chez les jeunes. PNAS Nexus rapporte même une augmentation de 25% de la productivité artistique avec l’IA, et 50% de probabilité accrue de recevoir des “favoris” sur les plateformes.

Contradiction ? Non, je pense que c’est plutôt une évolution des mentalités qui est en cours.

Maintenant, les critiques légitimes. Parce qu’il y en a, et nier leur validité serait aussi débile que de nier les avantages de l’IA.

Il s’agit tout d’abord de la question du consentement pour l’utilisation des données d’entraînement, et c’est un vrai sujet. L’artiste Karla Ortiz le formule bien : utiliser ses œuvres sans autorisation, c’est “une intrusion, comme un étrange vol d’identité”. Et elle a raison sur le principe éthique, même si techniquement l’IA ne “vole” rien comme je vous l’expliquais.

Bien sûr, les mécanismes d’opt-out européens sont largement insuffisants. L’ADAGP l’a souligné : contrairement à la musique ou aux films, les images sont “presque toujours immédiatement visibles et téléchargeables”. C’est vrai ça… Comment protéger efficacement son travail quand il suffit d’un clic droit pour l’aspirer ? C’est un vrai défi technique et juridique réel qui mériterait mieux que des solutions cosmétiques.

Les biais algorithmiques constituent aussi une autre préoccupation. L’études de Bloomberg montrent que les générateurs amplifient les stéréotypes raciaux et de genre. Par exemple, plus de 80% des images “criminelles” générées représentent des personnes à peau foncée. Cette perpétuation automatisée des inégalités sociétales, c’est un problème éthique majeur que les développeurs devraient prendre à bras-le-corps.

L’impact économique sur certains secteurs créatifs est également très réel. Goldman Sachs estime que l’IA peut aujourd’hui automatiser 26% des tâches dans les métiers créatifs. L’illustration commerciale, la photographie stock, le design graphique basique subissent des pressions indéniables. Brookings (2024) anticipe que 30% des travailleurs pourraient voir plus de la moitié de leurs tâches affectées, avec une exposition disproportionnée des femmes.

Mais c’est bien aussi de contextualiser ces chiffres car l’histoire des révolutions technologiques nous montre que les disruptions créent autant qu’elles détruisent. La photographie, initialement perçue comme une menace mortelle pour les peintres portraitistes, a finalement créé des industries entières et poussé la peinture vers l’innovation. Et le secteur créatif américain a atteint 1,1 trillion de dollars en 2022, ce qui est un record historique et les artistes indépendants ont connu une croissance de 13,5% depuis 2019.

Bref, l’adaptation est en cours, et on est loin de l’effondrement.

L’argument environnemental mérite aussi d’être nuancé. Car oui, générer une image avec DALL-E consomme l’équivalent énergétique d’une charge de smartphone. Mais Nature Scientific Reports révèle que l’IA est 130 à 1500 fois moins émettrice de CO2 que les humains pour des tâches équivalentes d’écriture, et 310 à 2900 fois moins pour l’illustration. Cette différence s’explique par l’empreinte carbone annuelle humaine comparée à l’usage ponctuel de l’IA.

Les initiatives Green AI progressent aussi rapidement. Par exemple, Google fournit aujourd’hui six fois plus de puissance par unité d’électricité qu’il y a cinq ans, avec 66% d’énergie sans carbone en 2024. L’optimisation quantique a aussi amélioré l’efficacité d’entraînement des IA. Bref, la trajectoire d’amélioration continue est plutôt claire, je trouve.

Alors oui, il faut bien sûr réguler. Et l’AI Act européen, les propositions de Kate Crawford sur la transparence des algorithmes et le partage équitable des revenus, tout ça va dans le bon sens. Mais non, il ne faut pas interdire ou diaboliser par principe. Par exemple, l’ouverture prochaine du musée DATALAND de Refik Anadol à Los Angeles, conçu par Frank Gehry, montre que l’art génératif trouve sa place dans l’écosystème culturel.

Mais comme d’hab, y’a des tensions et des communautés comme Newgrounds ou ArtStation bannissent l’art IA, pendant que d’autres l’embrassent. Les protestations “No AI Art” côtoient l’explosion de créativité générée par ces outils. C’est normal, je trouve même que c’est sain et nécessaire car ça force le dialogue.

Ce qui m’agace, vous l’aurez compris, c’est cette manie de transformer chaque innovation en guerre de religion de débiles. L’IA générative n’est ni le diable ni le messie. C’est un outil puissant avec des implications complexes qui méritent des débats nuancés, et pas des slogans à la con de PMU. Les vrais enjeux comme le consentement, les biais, l’impact économique, ou encore la régulation que j’évoquais un peu plus haut, sont trop sérieux pour être noyés dans cet espèce de brouillard d’incompréhension technique que j’ai pu voir sur les réseaux sociaux notamment quand j’y trainais encore.

Alors continuez à critiquer c’est votre droit, mais s’il vous plait, renseignez-vous avant. Lisez les études, comprenez le fonctionnement de la technologie, et distinguez les problèmes réels des fantasmes.

A bon entendeur…

HRM - L'IA qui ridiculise ChatGPT avec seulement 27 millions de paramètres

Par : Korben
28 juillet 2025 à 09:59

Ce lundi matin, pendant que vous buvez votre café tiède en écoutant vos collègues évoquer leur future retraite imaginaire, sachez que des chercheurs singapouriens vient encore de repousser les frontières de l’IA avec HRM, un modèle qui résout des Sudoku impossibles sans même transpirer. Et il ne pèse que 27 Mo.

Je vous explique… La startup Sapient Intelligence vient de sortir le Hierarchical Reasoning Model (HRM), et c’est un véritable game-changer car avec seulement 27 millions de paramètres (c’est 6500 fois moins que GPT-3) cette petite bête arrive à battre les géants de l’IA sur des tâches de raisonnement complexe. Et le plus fort c’est qu’elle n’a besoin que de 1000 exemples pour apprendre, là où les autres en demandent des millions.

Le secret de cette prouesse, c’est une architecture directement inspirée de notre cerveau. Au lieu de faire comme les LLMs classiques qui génèrent du texte token par token en mode “je réfléchis à voix haute”, HRM fonctionne avec deux modules qui bossent ensemble : un module H (High-level) qui fait la planification stratégique lente, et un module L (Low-level) pour les calculs rapides et détaillés. En gros c’est un architecte qui dessine les plans et un maçon qui construit.

Et alors ça donne quoi dans la réalité ? Et bien sur des Sudoku niveau “extreme” où GPT-4 et Claude se cassent les dents avec un score de 0%, HRM affiche tranquillement un taux de réussite quasi parfait. Sur le benchmark ARC-AGI qui teste le raisonnement abstrait, il tape des scores de 40.3% contre 34.5% pour o3-mini d’OpenAI et 21.2% pour Claude 3.7 Sonnet. Pas mal donc pour un modèle qui tient sur une clé USB.

Mais le vrai kiff, c’est la vitesse d’exécution. Guan Wang, le CEO de Sapient Intelligence, parle d’un gain de performance de x100 par rapport aux approches chain-of-thought classiques. Pourquoi ? Et bien parce qu’au lieu de générer des pavés de texte pour expliquer chaque étape de raisonnement, HRM fait tout ça en interne, dans son “espace latent”. C’est ça la différence entre quelqu’un qui marmonne tout ce qu’il pense (le fou de la gare) et quelqu’un qui réfléchit dans sa tête avant de donner la réponse.

D’ailleurs, cette histoire de chain-of-thought, c’est un peu la “béquille” des LLMs actuels. Les chercheurs de Sapient ne mâchent pas leurs mots dans leur papier : en disant que “C’est une béquille, pas une solution satisfaisante. Ça repose sur des décompositions fragiles définies par l’humain où une seule erreur peut faire dérailler tout le processus de raisonnement.” Ouille…

Pour l’entraînement, c’est du grand art aussi. Il faut seulement 2 heures de GPU pour apprendre à résoudre des Sudoku niveau pro, et entre 50 et 200 heures pour le benchmark ARC-AGI. Comparez ça aux milliers d’heures nécessaires pour entraîner GPT-4, et vous comprenez pourquoi les entreprises commencent à s’intéresser sérieusement à cette approche.

L’équipe derrière ça sont des anciens de Google DeepMind, DeepSeek, Anthropic et xAI, accompagnés d’académiques de grandes universités. Ils ont même mis le code en open source sur GitHub, donc si vous voulez jouer avec, c’est cadeau.

Pour les applications concrètes, Wang voit grand : santé pour les diagnostics complexes, prévisions climatiques (ils annoncent 97% de précision sur les prévisions saisonnières), et robotique comme “cerveau décisionnel” embarqué. Parce que oui, avec sa taille réduite et sa faible consommation, HRM peut tourner sur des appareils edge sans problème.

Alors bien sûr, ne jetez pas ChatGPT ou Claude à la poubelle tout de suite car pour les tâches créatives et linguistiques, les LLMs restent imbattables. Mais pour tout ce qui demande du raisonnement pur et dur, c’est à dire optimisation logistique, diagnostic de systèmes complexes, planification…etc, HRM pourrait bien devenir le nouveau standard.

Ainsi, depuis des années, la course à l’IA c’était “qui aura le plus gros modèle” et là, Sapient nous montre qu’avec une architecture intelligente inspirée du cerveau, on peut faire mieux avec infiniment moins. Si vous suivez l’actualité des nouveaux modèles IA comme Llama 4, vous savez que l’industrie commence à explorer des architectures alternatives comme par exemple les Mixture of Experts pour optimiser les performances, donc peut-être que Meta ou d’autres intégreront HRM dans le futur à leurs nouveaux modèles.

Voilà, en attendant la prochaine révolution hebdomadaire de l’IA (Perso, je me régale !! Pas vous ??), vous pouvez déjà aller tester le code sur leur GitHub. Et qui sait, peut-être que dans quelques années, on se souviendra de ce moment comme du jour où l’IA a commencé à vraiment penser comme nous. Enfin, en mieux et en plus vite.

Source

La NASA a réparé une caméra à 600 millions de km en la chauffant à fond

Par : Korben
22 juillet 2025 à 18:34

Vous savez comment la NASA a réparé une caméra qui orbite autour de Jupiter ? Et bien en la mettant dans un four. Non, je déconne pas.

La sonde Juno tourne autour de Jupiter depuis 2016, et elle embarque une caméra appelée JunoCam qui nous envoie des images absolument dingues de la plus grosse planète du système solaire. Sauf que voilà, après 46 orbites nickel chrome, la caméra a commencé à faire des siennes lors de la 47ème orbite. Les images étaient pourries, pleines de bruit et de lignes bizarres.

Les ingénieurs du Jet Propulsion Laboratory ont alors vite compris le problème : les radiations de Jupiter, qui sont absolument monstrueuses, avaient bousillé le régulateur de tension de la caméra. Pour vous donner une idée, Jupiter émet tellement de radiations que la NASA avait prévu que JunoCam ne survive que 8 orbites, soit environ 400 jours. Mais la petite caméra qui le pouvait a tenu courageusement 5 fois plus longtemps que prévu !

Bon, le souci c’est qu’envoyer un nouveau régulateur via Amazon Prime à 600 millions de kilomètres, c’est pas vraiment une option. Alors les mecs de la NASA ont sorti une idée complètement folle de leur chapeau : Et si on faisait chauffer la caméra pour réparer les dégâts ?

Cette technique s’appelle le “recuit” (annealing en anglais), et c’est un procédé utilisé en métallurgie où on chauffe un matériau puis on le laisse refroidir lentement. Ça permet parfois de corriger des défauts dans la structure du matériau au niveau microscopique. Mais personne ne savait si ça marcherait sur du silicium irradié dans l’espace.

Jacob Schaffner, l’ingénieur de Malin Space Science Systems qui s’occupe de JunoCam, explique : “On savait que le recuit peut parfois modifier un matériau comme le silicium au niveau microscopique, mais on ne savait pas si ça réparerait les dégâts. On a commandé au chauffage de JunoCam de monter la température à 25°C, soit bien plus chaud que d’habitude pour la caméra, et on a attendu en retenant notre souffle.

Et bam ! Miracle, ça a marché. La caméra s’est remise à produire des images nickel. Mais comme toutes les bonnes choses ont une fin, après quelques orbites supplémentaires, les images ont recommencé à merder vers l’orbite 55.

Là, c’était la panique à bord. La sonde devait passer super près de Io, une des lunes de Jupiter, et il fallait absolument que la caméra fonctionne pour capturer ce moment historique. Cette fois, ils ont carrément mis le chauffage au max. Et re-miracle, ça a encore fonctionné ! Juste à temps pour capturer des images époustouflantes de Io et ses volcans en éruption.

Le plus fou dans cette histoire, c’est que cette technique de réparation par chauffage a tellement bien marché que l’équipe de Juno l’a testée sur d’autres instruments et systèmes de la sonde. Scott Bolton, le responsable scientifique de la mission, est super enthousiaste : “Juno nous apprend comment créer et maintenir des vaisseaux spatiaux résistants aux radiations, et ces leçons vont bénéficier aux satellites en orbite autour de la Terre. Je pense que ce qu’on a appris avec Juno sera applicable aux satellites militaires et commerciaux, ainsi qu’à d’autres missions de la NASA.

Malheureusement, lors de la 74ème orbite, le bruit est revenu dans les images et la NASA n’a pas dit s’ils allaient retenter le coup du four spatial une troisième fois. Peut-être qu’ils attendent le bon moment pour ressortir leur botte secrète.

Tout cela prouve que même avec toute leur technologie de pointe, les ingénieurs de la NASA doivent parfois improviser des solutions à la MacGyver comme à l’époque où on mettait nos cartes graphiques dans le four pour les réparer, sauf que là c’est une caméra qui se trouve à 600 millions de bornes et qui file à 200 000 km/h autour d’une planète géante radioactive.

Bref, cette technique de réparation par recuit pourrait se rajouter aux procédures de maintenance des satellites et des sondes spatiales, qui sait ? Comme ça, au lieu de considérer qu’un instrument endommagé par les radiations est foutu, on pourra peut-être le ressusciter avec un bon coup de chaud et ainsi économiser des millions tout en prolongeant la durée de vie de certaines missions spatiales.

Par contre, n’essayez pas la même chose en mettant votre smartphone ou votre laptop au four, ils risquent de ne pas aimer ^^.

Source

Pourquoi les voitures électriques rendent malades leurs passagers (et comment y remédier) ?

Par : Korben
22 juillet 2025 à 16:54

Allez j’ai une question pour vous : Avez-vous déjà eu la gerbe en voiture électrique ?

Parce que si oui, visiblement, vous n’êtes pas seul et les scientifiques commencent sérieusement à se pencher sur le problème. En fait, c’est même devenu un phénomène tellement répandu que des chercheurs du monde entier planchent sur des solutions, et certaines sont franchement… surprenantes.

Le truc, c’est que nos cerveaux sont habitués depuis des décennies aux voitures thermiques… Ce doux ronronnement du moteur, les vibrations du châssis, et tous ces petits signaux qui nous indiquent qu’on va accélérer ou freiner. Et bien dans une Tesla, une Ioniq ou une Zoé, tout ça n’existe plus. Et alors notre cerveau perd complètement les pédales, au sens propre comme au figuré.

William Emond, un doctorant français qui étudie le mal des transports à l’Université de Technologie de Belfort-Montbéliard, explique dans The Guardian que c’est exactement comme quand on va dans l’espace : “Quand on découvre un nouvel environnement de mouvement, le cerveau doit s’habituer parce qu’il n’a aucune expérience préalable dans ce contexte. C’est pour ça que presque tout le monde devient malade en apesanteur.” Je comprends mieux pourquoi j’ai l’impression d’être Thomas Pesquet quand je monte dans mon vaisseau spatial… euh ma caisse.

Mais attendez, c’est pas fini car le pire dans tout ça, c’est le freinage régénératif. C’est ce système qui recharge la batterie quand vous levez le pied de l’accélérateur et une étude publiée en mai 2025 dans l’International Journal of Human–Computer Interaction a confirmé que plus le niveau de régénération est élevé, plus les gens ont envie de vomir. En gros, au lieu de freiner brutalement comme dans une voiture normale, l’électrique décélère progressivement, et ce sont ces décélérations basse fréquence qui déclenchent la nausée.

D’ailleurs, selon les experts c’est encore pire pour les passagers arrière ce qui est “normal” puisqu’ils ne voient pas la route devant et ne peuvent pas anticiper les mouvements. Leur cerveau reçoit des signaux contradictoires : les yeux voient un habitacle immobile, mais l’oreille interne détecte du mouvement, ce qui donne un mal de mer sur quatre roues.

Le couple accélération instantanée n’arrange rien non plus car contrairement aux moteurs thermiques qui montent progressivement en régime, les électriques balancent tout leur couple d’un coup. Ça crée un effet de balancier brutal qui peut vraiment retourner l’estomac, surtout quand le conducteur n’est pas habitué et joue un peu trop avec la pédale.

Une étude de 2024 a même identifié une connexion directe entre les vibrations spécifiques des sièges dans les voitures électriques et la sévérité du mal des transports. L’absence de bruit moteur est même un facteur aggravant.

Heureusement, les constructeurs et les chercheurs ne restent pas les bras croisés. Les ingénieurs de l’Université du Michigan ont développé un système appelé PREACT qui incline automatiquement les sièges et resserre les ceintures avant les virages et les freinages. Testé sur plus de 150 volontaires, il réduit de moitié les scores de mal des transports. Pas mal non ?

Mais la solution la plus dingue vient du Japon où des chercheurs de l’Université de Nagoya ont découvert qu’écouter un son de 100 hertz pendant une minute avant de prendre la route peut considérablement réduire les nausées. Un simple fichier audio à télécharger sur votre smartphone et hop, fini les hauts-le-cœur. Ils ont testé ça sur un simulateur de conduite, une vraie voiture et même une balançoire (!), et ça marche à tous les coups.

Hyundai, de son côté, a pris une approche différente avec sa Ioniq 5 N : ils ont carrément ajouté des bruits de moteur artificiels et un système de changement de vitesses synthétique pour imiter une voiture thermique. C’est aussi couillon que de mettre un autocollant avec des flammes sur une trottinette électrique, mais apparemment ça aide vraiment le cerveau à mieux anticiper les mouvements.

D’autres constructeurs expérimentent aussi avec des éclairages d’ambiance qui changent selon l’accélération, des alertes haptiques dans les sièges, ou des systèmes audio qui préviennent des changements de direction. Certains véhicules autonomes intègrent aussi déjà des signaux sonores pour alerter des accélérations soudaines ou des virages serrés.

Et dire que jusqu’à 40% de ces symptômes de mal des transports seraient liés à la psychologie… En gros, si vous êtes convaincu que vous allez être malade en voiture électrique, hé bien vous avez de grandes chances de l’être effectivement. L’effet nocebo dans toute sa splendeur ! En ce qui me concerne, je roule en électrique depuis mars dernier et ni moi, ni ma famille n’avons eu ce souci de nausée. Ouf !

Bon, la bonne nouvelle c’est que notre cerveau finit évidemment par s’adapter et plus on roule en électrique, moins on a la nausée. C’est comme avec le mal de mer, les premiers jours sont durs mais après ça passe. Et puis avec 22% des ventes mondiales de voitures neuves qui sont maintenant électriques, on va bien finir par s’y faire, j’espère.

En attendant, si vous êtes du genre à avoir facilement le mal des transports, voici quelques conseils : Asseyez-vous à l’avant, regardez la route, ouvrez un peu la fenêtre pour avoir de l’air frais, et surtout, demandez au conducteur de réduire le niveau de freinage régénératif si possible. Et si vraiment rien ne marche, téléchargez ce fameux son de 100 hertz japonais (j’ai trouvé ça). Au pire, ça ne peut pas faire de mal, et au mieux, vous pourrez enfin profiter du silence de votre voiture électrique sans avoir envie de repeindre l’habitacle. Y’a aussi un mode sympa sur iOS qui vous évite d’avoir la gerbe si vous regardez trop votre smartphone en voiture. Pensez à l’activer !

Voilà, c’est quand même fou qu’on soit en train de résoudre les problèmes du transport du futur en ajoutant des bruits de moteur artificiels et des vibrations dans les sièges. On voulait des voitures silencieuses et sans vibrations, et maintenant on en rajoute pour ne pas vomir. D’ailleurs avec toute cette production de gerboulis, est ce qu’on peut encore qualifier ça de voiture propre ? J’en doute ^^.

Source

Cette technologie quantique va remplacer le GPS dans les avions

Par : Korben
22 juillet 2025 à 15:28

J’ai testé plein de gadgets dans ma vie, mais le jour où cette technologie sera disponible pour le grand public, je vais me jeter dessus parce que je trouve ça vraiment cool. En effet, Airbus et SandboxAQ viennent de prouver qu’on peut naviguer sans GPS grâce aux champs magnétiques terrestres et c’est normalement impossible à pirater parce que c’est basé sur la physique quantique.

Je vous explique tout tout tout comment ça marche, mais avant, pourquoi est ce qu’on veut se débarrasser du GPS ?

Et bien figurez-vous qu’en ce moment, c’est la cata. Il y a jusqu’à 1500 cas de brouillage GPS par jour rien que pour les avions de ligne. C’est passé de 200 incidents quotidiens début 2024 à 900 en moyenne au second trimestre. Et certains jours, on tape dans les 1350 vols affectés. Bref, c’est complètement dingue.

Le truc, c’est que le bon vieux GPS, c’est devenu super vulnérable car entre le jamming (qui noie le signal) et le spoofing (qui envoie de fausses positions), les pilotes galèrent, on ne sait plus où donner de la tête. Y’a même eu des cas où des avions ont failli entrer dans l’espace aérien iranien par erreur et le EGPWS (le système qui évite de se crasher dans une montagne) devient carrément peu fiable avec tous ces brouillages, au point que certains pilotes le désactivent.

Bref, c’est chaud patate.

Airbus a don collaboré avec SandboxAQ, une boîte de la Silicon Valley spécialisée dans l’IA et les capteurs quantiques et ensemble, ils ont développé le MagNav (ou AQNav pour les intimes) et le principe est génial

Si vous ne vous appelez pas Donald Trump, vous savez surement que la Terre a un champ magnétique ? En fait, chaque mètre carré de notre planète a sa propre signature magnétique unique. C’est comme une empreinte digitale, mais magnétique et le MagNav utilise des magnétomètres quantiques ultra-sensibles pour lire ces signatures et déterminer la position de l’avion.

Pour cela, un laser tire un photon sur un électron, l’électron absorbe le photon, puis le réémet en se relaxant. L’énergie de ce processus reflète alors l’intensité du champ magnétique local. Une IA embarquée compare ensuite cette signature avec des cartes magnétiques de référence, et boom, elle sait exactement où vous êtes.

Et comme je vous le disais en intro, c’est totalement impossible à brouiller ou à falsifier parce que contrairement au GPS qui reçoit des signaux numériques de l’extérieur (donc piratables), le MagNav mesure un phénomène naturel et analogique directement depuis l’intérieur de l’avion.

Acubed, la filiale d’innovation d’Airbus basée dans la Silicon Valley, a testé le système pendant plus de 150 heures de vol à travers les États-Unis et les résultats sont très positifs car le MagNav maintient une précision de position dans un rayon de 2 miles nautiques 100% du temps (ce qui satisfait les exigences de la FAA), et dans 64% des cas, il fait même mieux avec une précision de 550 mètres.

Jack Hidary, le CEO de SandboxAQ, a même déclaré que “C’est le premier système de navigation absolue vraiment nouveau depuis 50 ans.” Et je pense qu’il a raison car depuis l’invention du GPS dans les années 70, on n’avait pas vu une innovation aussi radicale dans la navigation.

Et surtout cette technologie quantique ne va pas servir qu’aux avions puisque les militaires sont déjà sur le coup pour détecter des sous-marins ou des tunnels souterrains (parce que les anomalies magnétiques, ça marche aussi sous l’eau et sous terre) et en médecine, on pourrait également l’utiliser pour détecter des signaux magnétiques faibles du cœur ou du cerveau.

Et contrairement à ce qu’on pourrait croire, ce n’est pas de la science-fiction pour dans 20 ans, non, ça arrive bientôt… D’ailleurs, l’AQNav a déjà été sélectionné parmi 120 candidats pour le prix ACT-IAC 2025 Innovations Champion Award et TIME l’a classé dans ses meilleures inventions de 2024. Les analystes du marché prévoient aussi que le marché des capteurs quantiques pourrait atteindre entre 1 et 6 milliards de dollars d’ici 2040. C’est énorme, mais vu l’ampleur du problème GPS actuel, c’est pas surprenant car entre les zones de conflit où le brouillage est systématique (Israël, Liban, Russie, Ukraine) et l’expansion du phénomène vers l’Asie (Séoul, Pékin, Myanmar), il y a urgence.

SandboxAQ bosse sur ce projet avec Acubed et l’US Air Force depuis 2022, et le système vient d’être accepté dans la cohorte 2025 de l’OTAN DIANA (leur programme d’innovation défense), ce qui montre bien que c’est du sérieux.

Voilà… alors quand on connait tous les systèmes critiques qui dépendent du GPS dans un avion moderne (l’horloge GPS, le radar météo, l’ADS-B, les systèmes d’alerte terrain…), je me dit qu’il était temps de trouver enfin une alternative sérieuse.

Il reste encore des certifications à obtenir et des tests supplémentaires à faire avant de voir le MagNav dans tous les avions commerciaux mais avec la situation actuelle du GPS, je pense qu’on va voir cette technologie se déployer plus vite qu’on ne le croit.

Source

Un vaccin ARNm universel contre le cancer - La fin de la chimio ?

Par : Korben
21 juillet 2025 à 07:57

Alors ça c’est une sacrée nouvelle ! Des scientifiques ont réussi à créer un vaccin ARNm qui transforme votre système immunitaire en machine de guerre anti-cancer universelle. En effet, l’équipe du Dr Elias Sayour de l’Université de Floride vient de publier dans Nature Biomedical Engineering une étude qui pourrait bien faire trembler Big Pharma. Leur vaccin ARNm expérimental ne cible pas un cancer en particulier, non, il réveille votre système immunitaire pour qu’il puisse botter le cul à n’importe quelle tumeur.

Google a transformé 2 milliards de smartphones Android en détecteurs de séismes et ça cartonne

Par : Korben
18 juillet 2025 à 19:38

J’sais pas si vous avez vu, mais Google vient de dévoiler quelque chose d’absolument incroyable. Votre smartphone Android, celui-là même qui traîne dans votre poche, fait partie depuis 2021 d’un réseau mondial de détection de séismes. Et le plus fou, c’est que ça marche vraiment bien !

D’après une étude publiée dans la revue Science aujourd’hui, Google a réussi à transformer plus de 2 milliards de téléphones Android en mini-sismomètres. Entre 2021 et 2024, ce système a ainsi détecté plus de 11 000 tremblements de terre et envoyé des alertes à des millions de personnes dans 98 pays. Pas mal pour des téléphones qui n’étaient pas du tout conçus pour ça, non ?

❌
❌