Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

L'IA déniche des antibiotiques cachés dans les microbes les plus anciens de la Terre

Par : Korben
13 août 2025 à 15:58

C’est vraiment paradoxal, mais plus on avance dans la technologie, plus on se tourne vers ce qui est vraiment, vraiment vieux. Et là, je ne vous parle pas de vos vieux CD-ROM Windows 95, non, non, mais de trucs qui traînent sur Terre depuis des milliards d’années (comme Bayrou ^^).

Une équipe de chercheurs de l’Université de Pennsylvanie vient de faire une découverte assez dingue. Ils ont utilisé une IA pour fouiller dans les protéines d’organismes appelés Archaea, des microbes tellement anciens qu’ils étaient déjà là avant que les bactéries ne deviennent “mainstream”. Ces bestioles survivent dans des conditions extrêmes : sources d’eau bouillante acide, cheminées volcaniques sous-marines, lacs salés où rien d’autre ne peut vivre. Bref, les endroits où même Bear Grylls ne mettrait pas les pieds.

Et ce qui est fou, c’est que ces microbes ont développé des mécanismes de défense complètement différents de ce qu’on connaît. Au lieu d’attaquer la membrane externe des bactéries comme le font la plupart des antibiotiques actuels, les composés découverts (baptisés sans originalité des “archaeasins”) s’attaquent directement aux signaux électriques à l’intérieur des cellules. C’est un peu comme si au lieu de défoncer la porte d’entrée, ils coupaient directement le disjoncteur de la maison.

L’équipe dirigée par César de la Fuente a utilisé un outil d’IA appelé APEX 1.1 pour scanner 233 espèces d’Archaea. Résultat, ils ont découvert plus de 12 600 candidats antibiotiques potentiels. Sur les 80 qu’ils ont synthétisés et testés en labo, 93% ont montré une activité antimicrobienne contre au moins une bactérie pathogène. C’est un taux de réussite assez impressionnant quand on sait que d’habitude, on tourne plutôt autour de quelques pourcents.

Selon l’OMS, on fait face en ce moment à une crise majeure avec 24 pathogènes prioritaires qui nécessitent de nouveaux antibiotiques de toute urgence. Seulement, voilà, le pipeline de développement de nouveaux antibiotiques est quasiment à sec, avec seulement 27 antibiotiques en développement clinique dont seulement 6 considérés comme vraiment innovants. Et pendant ce temps, les bactéries résistantes continuent de proliférer… Cela génère 2,8 millions d’infections résistantes aux antibiotiques se produisent chaque année rien qu’aux États-Unis.

Un des archaeasins testés, le numéro 73 (ils sont pas très créatifs pour les noms, j’avoue…), s’est montré aussi efficace que la polymyxine B sur des souris infectées. Pour ceux qui ne connaissent pas, la polymyxine B c’est un peu l’arme de dernier recours contre les infections multi-résistantes. C’est le genre de truc qu’on sort quand plus rien d’autre ne marche. Vous avez intérêt à bien bien prendre vos probiotiques après celui-là, pour ne pas repeindre encore une fois l’appart.

C’est donc un tout nouveau terrain de jeu qui s’ouvre car jusqu’à présent, la recherche d’antibiotiques s’est concentrée sur les bactéries, les champignons et parfois les plantes. Les Archaea, c’est donc un domaine complètement inexploré. Et vu qu’ils représentent une branche entière de l’arbre du vivant, distincte des bactéries et de tout le reste, le potentiel est énorme !

D’ailleurs, ce n’est pas la première fois que l’équipe de de la Fuente utilise l’IA pour chercher des antibiotiques dans des endroits improbables (oups, non pas là). Ils avaient déjà scanné l’ADN d’organismes éteints comme le mammouth laineux et même analysé les composés chimiques dans les venins d’animaux. L’idée, c’est que l’évolution a déjà fait le boulot pendant des millions d’années, alors il suffit de savoir où chercher.

Les chercheurs prévoient donc maintenant d’améliorer APEX pour qu’il puisse prédire l’activité antibiotique basée sur la structure 3D des molécules, et pas seulement leur séquence. L’objectif à terme, c’est évidemment d’arriver jusqu’aux essais cliniques sur l’homme. Mais ça, c’est encore une autre paire de manches qui prendra plusieurs années…

Bref, comme quoi, des solutions aux problèmes modernes se cachent parfois dans ce qu’il y a de plus ancien et ces microbes qui barbotent tranquillement dans leur soupe acide depuis des milliards d’années pourraient bien nous sauver la mise face aux superbactéries du 21e siècle qui déboulent en masse, notamment à cause du changement climatique.

Source

Des chercheurs font pousser un cerveau humain de poche

Par : Korben
12 août 2025 à 10:12

Vous savez quel est le pire cauchemar d’un labo pharmaceutique ? C’est investir des milliards dans un médicament qui fonctionne parfaitement sur les souris pour finalement découvrir qu’il est totalement inutile chez l’humain.

Bon, visiblement ça arrive dans 96% des cas pour les médicaments neuropsychiatriques selon les données de Johns Hopkins BME. Un taux d’échec qui ferait pâlir n’importe quel créateur de founder. Mais voilà qu’une équipe de chercheurs vient peut-être de trouver la solution en faisant pousser… des cerveaux humains miniatures.

C’est l’équipe d’Annie Kathuria à Johns Hopkins qui a réussi ce truc assez fou. Ils ont créé le tout premier organoïde cérébral complet, le MRBO (Multi-Region Brain Organoid), qui intègre toutes les régions majeures du cerveau humain. Pas juste un bout de cortex comme avant hein, mais un vrai petit cerveau avec ses vaisseaux sanguins rudimentaires et son activité neurale. La bestiole fait 6 à 7 millions de neurones ce qui comparé à votre cerveau qui en contient des dizaines de milliards, est ridicule, mais c’est déjà suffisant pour reproduire l’activité d’un cerveau fœtal de 40 jours.

Pour y parvenir, il utilisent une technique d’assemblage où au lieu d’essayer de tout faire pousser d’un coup, ils cultivent séparément les différentes régions cérébrales et les vaisseaux sanguins dans des boîtes de Petri, et ensuite, ils utilisent des protéines collantes qui font office de “superglue biologique” pour assembler le tout comme un puzzle 3D. Une fois collés ensemble, les tissus commencent alors naturellement à créer des connexions et à produire de l’activité électrique coordonnée.

Ce qui est dingue c’est que cet “‘organoïde” conserve environ 80% des types cellulaires qu’on trouve dans un cerveau humain en développement précoce. Les chercheurs ont même observé la formation d’une barrière hémato-encéphalique primitive, cette couche protectrice qui filtre ce qui peut ou ne peut pas entrer dans le cerveau. D’après ScienceDaily, c’est une première mondiale qui pourrait transformer radicalement la recherche médicale.

Mais alors pourquoi c’est si révolutionnaire ? Et bien ça permettrait de “faire de la science” sur du tissu cérébral humain sans toucher à un seul patient. Pour les maladies comme la schizophrénie, l’autisme ou Alzheimer qui affectent l’ensemble du cerveau et pas juste une région isolée, c’est donc un game-changer total.

En France, le CNRS a annoncé le lancement du programme PEPR MED-OoC début 2025. C’est un projet à 48 millions d’euros sur six ans pour développer la médecine personnalisée avec les organoïdes. Co-dirigé par le CEA, l’Inserm et le CNRS, ce programme vise à créer des modèles biologiques personnalisés et réduire l’expérimentation animale.

L’application la plus prometteuse c’est évidemment la médecine sur-mesure. En gros, on prélève vos cellules, on fait pousser un mini-vous cérébral, et on teste dessus quel traitement marchera le mieux pour VOTRE cerveau spécifique. Plus de loterie thérapeutique, plus de “on va essayer ça et voir si ça marche”. Cette approche permet déjà d’étudier la microcéphalie, les troubles du spectre autistique et même les effets du virus Zika sur le développement cérébral.

D’ailleurs, ça marche déjà pour d’autres organes. Une équipe chinoise a rapporté en 2024 les résultats d’un essai clinique où ils ont transplanté des îlots pancréatiques dérivés de cellules souches chez un patient diabétique de type 1. Du coup, sevrage complet de l’insuline en 75 jours avec une HbA1c normalisée à 5%. Alors si on peut faire la même chose avec les troubles neurologiques, c’est le jackpot médical !

Bon, maintenant avant que vous ne flippiez en mode Black Mirror, je vous rassure, ces mini-cerveaux ne sont pas conscients. L’Académie nationale de médecine insiste bien là-dessus !! Toutes les activités cellulaires observées ne peuvent pas être assimilées à des processus cognitifs, sensoriels ou moteurs. C’est juste du tissu biologique qui réagit, et pas un être pensant miniature.

Pour les chercheurs, ces organoïdes sont surtout une alternative éthique géniale car au lieu de tester sur des animaux (avec des résultats souvent non transposables) ou d’attendre des années pour des essais cliniques risqués, ils peuvent maintenant observer en temps réel comment une maladie se développe et tester immédiatement si un traitement fonctionne. Ça me fait penser aussi à cet ordinateur biologique dont j’ai parlé il y a quelques semaines…

Ce qui est fou, c’est qu’on n’est qu’au début de tout ça ! Et les applications potentielles sont énormes car ça va nous permettre de comprendre pourquoi certains cerveaux développent des maladies neurodégénératives et d’autres non, mais aussi de créer des banques d’organoïdes pour tester massivement de nouvelles molécules, ou même de développer des thérapies préventives personnalisées avant l’apparition des symptômes.

Alors oui, faire pousser des cerveaux en labo, ça peut sembler dystopique et je sais que certains d’entre vous sont déçus parce qu’ils espéraient une greffe ^^, mais quand on voit le potentiel pour soigner des maladies aujourd’hui incurables, c’est plutôt de l’espoir en boîte… de Petri.

Et avec les investissements massifs en France et aux États-Unis, on peut parier que d’ici quelques années, votre médecin pourra tester ses prescriptions sur votre jumeau cérébral miniature avant de vous les donner.

Quand les centrales solaires chassent les astéroïdes la nuit au lieu de dormir

Par : Korben
4 août 2025 à 09:46

Les centrales solaires font du télétravail la nuit car au lieu de roupiller comme nous tous maintenant elles cherchent des astéroïdes. C’est ce qu’a mis en place un scientifique fou des Sandia Labs qui a ainsi transformé 218 miroirs héliostats en télescope géant pour traquer les cailloux spatiaux quand le soleil se couche.

John Sandusky, chercheur aux Sandia National Laboratories, en avait marre de voir les héliostats se tourner les pouces après le coucher du soleil. Ces miroirs géants de 37 mètres carrés qui concentrent la lumière solaire sur une tour de 61 mètres pour produire 6 mégawatts thermiques le jour, bah la nuit ils font rien. Zéro. Nada. C’est donc un gâchis monumental pour une installation qui a coûté des millions.

Alors il s’est dit : et si on leur trouvait un petit boulot ? Genre chasseur d’astéroïdes ? Pas con le mec.

Le principe est assez dingue, vous allez voir… Au National Solar Thermal Test Facility d’Albuquerque au Nouveau-Mexique, Sandusky a reprogrammé un des 218 héliostats pour qu’il suive les étoiles comme un télescope. Sauf qu’au lieu de capturer des images, il mesure les variations de lumière avec une précision au femtowatt près. C’est un millionième de milliardième de watt, autant dire trois fois rien.

On collecte un million de watts de lumière solaire le jour”, explique Sandusky. “Et la nuit, on veut collecter un femtowatt de lumière réfléchie par les astéroïdes.” Le rapport c’est un pour un million de milliards. C’est comme passer d’un concert de Metallica à entendre une fourmi péter.

Pour cela, l’héliostat oscille d’avant en arrière toutes les minutes en suivant le ciel étoilé et si un astéroïde passe dans le champ de vision, il crée une perturbation dans le spectre de fréquences lumineuses. Bien sûr, pas de jolies photos avec des traînées comme dans les télescopes classiques, mais une signature dans les données qui trahit sa présence, sa vitesse et sa trajectoire.

Évidemment, le système ATLAS de la NASA (Asteroid Terrestrial-impact Last Alert System) fait déjà un boulot remarquable avec ses quatre télescopes qui scannent le ciel complet toutes les 24 heures et depuis sa création, ATLAS a découvert plus de 700 astéroïdes proches de la Terre et 66 comètes. Il a même détecté les deux seuls astéroïdes qui sont tombé sur Terre ces dernières années : 2019 MO et 2018 LA.

Mais les télescopes coûtent cher et il n’y en a pas assez alors que les centrales solaires, elles, sont déjà là. Aux États-Unis, en Espagne, au Maroc, en Chine, en France… Des milliers d’héliostats qui pourraient faire double usage.

Le plus fou c’est que cette technologie pourrait aussi servir pour surveiller l’espace cislunaire, c’est à dire la zone entre la Terre et la Lune car les orbites près de la Lune sont difficiles à suivre depuis le sol et des objets (vaisseaux, ovnis, satellites, rayons laser de la mort ^^…etc) pourraient s’y cacher discrètement. Avec un réseau d’héliostats comme celui-ci transformés en sentinelles nocturnes, plus moyen de jouer à cache-cache.

Mais pour l’instant, vous vous en doutez, c’est de la recherche fondamentale et maintenant, Sandusky cherche des financements pour passer à l’échelle supérieure.

On veut passer d’un héliostat à plusieurs et démontrer qu’on peut aider à trouver des objets proches de la Terre. […] On veut aussi prouver qu’on peut détecter des astéroïdes encore plus petits.

En février 2025, ATLAS a d’ailleurs fait une découverte historique : l’astéroïde 2024 YR4, gros comme un immeuble de 20 étages, qui pourrait percuter la Terre en décembre 2032. Cette collision reste possible même si les probabilités sont faibles mais ce genre de menace justifie qu’on utilise toutes les ressources disponibles pour surveiller le ciel.

L’idée de Sandusky, c’est donc du recyclage intelligent car plutôt que de construire de nouveaux télescopes de plus en plus gros, on utilise l’infrastructure existante de ces centrales solaires qui la nuit ne font rien. Elles deviendraient ainsi nos vigies de l’espace, gratuitement ou presque car un héliostat qui traque les astéroïdes la nuit et produit de l’électricité le jour, c’est deux fois plus rentable.

Et si ça marche bien, on pourrait voir fleurir des réseaux de surveillance spatiale low-cost où chaque centrale solaire deviendrait un maillon de la défense planétaire. Les astéroïdes tueurs n’auront qu’à bien se tenir !!

Source

Le MIT transforme l'air du désert en eau potable

Par : Korben
3 août 2025 à 12:35

Bon, on dirait que le MIT vient de transformer une scène de science-fiction en réalité. En effet, ces derniers ont créé un panneau de la taille d’une fenêtre qui transforme l’air du désert en eau potable. Pas besoin d’électricité, pas de filtres, juste de l’air et un peu de soleil, et ça marche même dans la Vallée de la Mort, l’endroit le plus sec d’Amérique du Nord.

Le dispositif ressemble à un panneau noir vertical encadré de verre, un peu comme une fenêtre high-tech. Mais derrière cette apparence simple se cache une technologie fascinante, un hydrogel qui imite l’art de l’origami. Ce matériau forme de petites structures en dôme qui ressemblent à du papier bulle noir. Quand l’hydrogel absorbe la vapeur d’eau de l’air, ces dômes gonflent. Quand l’eau s’évapore pour être collectée, ils se rétractent dans un mouvement gracieux digne d’un pliage japonais.

L’équipe du professeur Xuanhe Zhao a publié ses résultats dans Nature Water le 11 juin dernier. Ils ont testé leur invention pendant une semaine complète en novembre 2023 dans la Vallée de la Mort, en Californie. Même avec une humidité relative de seulement 21%, le dispositif a réussi à produire entre 57 et 161,5 millilitres d’eau potable par jour. Pour vous donner une idée, c’est environ deux tiers d’un verre d’eau extrait de l’air le plus sec d’Amérique du Nord.

La nuit, quand l’humidité est au maximum dans le désert (ce qui reste très faible), l’hydrogel absorbe la vapeur d’eau grâce aux sels de lithium qu’il contient. Le jour, le soleil chauffe le panneau et fait évaporer l’eau capturée. Cette vapeur se condense ensuite sur les parois en verre refroidies et s’écoule dans un tube de collecte. De l’eau pure, prête à boire.

Ce qui rend cette invention particulièrement astucieuse, c’est la résolution d’un problème majeur de technologies similaires : la contamination par le sel. Normalement, les sels de lithium utilisés pour absorber l’humidité se retrouvent dans l’eau collectée, la rendant impropre à la consommation. L’équipe du MIT a ajouté du glycérol dans leur hydrogel, un composé qui stabilise le sel et l’empêche de s’échapper. Résultat, leur eau contient moins de 0,06 ppm de lithium, bien en dessous du seuil de sécurité établi par l’US Geological Survey.

La structure en dômes n’est pas qu’esthétique car elle augmente considérablement la surface d’absorption par rapport à une feuille plate. Plus de surface = plus de vapeur capturée = plus d’eau produite. Et contrairement aux matériaux MOF (Metal-Organic Frameworks) qui dominent actuellement ce secteur, l’hydrogel du MIT n’a pas de pores à l’échelle nanométrique qui pourraient laisser passer les contaminants.

L’avantage énorme de ce système, c’est qu’il fonctionne de manière complètement passive. Pas de panneaux solaires, pas de batteries, pas de raccordement électrique. Juste le cycle naturel jour/nuit et la chaleur du soleil. Dans un monde où 2,2 milliards de personnes n’ont pas accès à l’eau potable et où 46 millions d’Américains vivent dans l’insécurité hydrique, cette approche pourrait être déterminante.

L’équipe imagine déjà des déploiements à plus grande échelle. Plusieurs panneaux disposés en parallèle pourraient alimenter un foyer entier en eau potable, même dans les environnements les plus arides. Et contrairement aux systèmes de désalinisation ou aux puits, cette technologie peut fonctionner n’importe où, du moment qu’il y a de l’air.

Evidemment, 160 millilitres par jour, c’est encore loin des besoins d’une famille. Mais c’est un prototype d’un demi-mètre carré testé dans des conditions extrêmes. Les chercheurs travaillent déjà sur une deuxième génération de matériau avec des propriétés améliorées et un design multi-panneaux. Ils estiment qu’un petit réseau de ces dispositifs pourrait subvenir aux besoins en eau potable d’un ménage.

Avec le changement climatique qui aggrave les sécheresses et la désertification, des technologies comme celle-ci pourraient littéralement sauver des vies. Et le fait qu’elle ne nécessite aucune infrastructure électrique la rend accessible aux régions les plus reculées de la planète.

Chang Liu, l’auteur principal de l’étude et aujourd’hui professeur assistant à l’Université nationale de Singapour, voit déjà plus loin : “C’est juste une preuve de concept, et il y a beaucoup de choses qu’on peut optimiser. Par exemple, on pourrait avoir un design multi-panneaux. Et on travaille sur une nouvelle génération du matériau pour améliorer encore ses propriétés intrinsèques.

Bref, cette innovation du MIT pourrait bien marquer le début d’une nouvelle ère dans l’accès à l’eau potable. Transformer l’air en eau, c’était de la science-fiction il y a encore quelques années et aujourd’hui, c’est une réalité testée et validée dans le désert le plus hostile d’Amérique.

Et demain ? Peut-être dans votre jardin.

Source : MIT News

Pourquoi les critiques contre l'IA génèrent-elles autant de malentendus ?

Par : Korben
30 juillet 2025 à 23:40

Vous savez ce qui me fatigue dans les débats sur l’IA générative ? C’est cette tendance qu’ont certains à répéter des arguments complètement à côté de la plaque, comme s’ils sortaient du PMU du coin après trois verres de rouge.

Alors attention, je ne dis pas que toutes les critiques sont bidons. Il y en a des légitimes, et on va en parler mais qu’on arrête de confondre incompréhension technique et indignation morale, parce que je trouve que ça dessert tout le monde.

Vous l’aurez remarqué, je génère mes images avec de l’IA depuis des mois. Pas par flemme ni pas par mépris des artistes, mais parce que j’adore cette petite teinte jaune c’est un outil fascinant qui ouvre des possibilités créatives inédites à tout le monde. Et même si moi je suis assez tranquille parce que je ne vais plus sur les réseaux sociaux parce que c’est bourré de connards, il m’arrive quand même de tomber sur des commentaires outragés qui montrent surtout une méconnaissance totale du fonctionnement de ces systèmes. Certains des plus virulents incitent même les abrutis qui les écoutent à “aggresser” ceux qui utilisent l’IA générative…

Bref, c’est assez grave donc je vous propose aujourd’hui de prendre le temps de décortiquer ces arguments, avec de vraies données scientifiques à l’appui.

Commençons d’abord par le plus gros malentendu à savoir l’idée que l’IA “vole” ou “copie” directement les œuvres. C’est techniquement faux, et les études le prouvent. Les modèles de diffusion latente, comme ceux qui alimentent Midjourney ou DALL-E, fonctionnent dans un espace conceptuel compressé. Concrètement, ils réduisent une image de 512x512 pixels à une représentation latente de 64x64 et cette compression sémantique élimine tous les détails pour ne garder que les concepts abstraits.

L’équipe de Xiangming Gu a démontré que la mémorisation directe ne survient que dans des conditions exceptionnelles comme des datasets ridiculement petits, de la duplication massive des mêmes données, ou des prompts agissant comme des “clés” ultra-spécifiques. Dans l’usage normal, avec les milliards d’images d’entraînement actuels, cette mémorisation devient statistiquement négligeable. Plus fascinant encore, l’augmentation de la taille des datasets réduit paradoxalement la mémorisation, créant une fenêtre de généralisation plus large.

Les études de 2024 sur les mécanismes d’attention croisée montrent également des patterns complètement dispersés lors d’une génération normale. L’IA ne stocke pas vos œuvres dans un coin de sa mémoire pour les ressortir telles quelles, non… elle apprend des concepts, des styles, des associations visuelles, exactement comme un artiste humain qui s’inspire de ce qu’il a vu.

D’ailleurs, parlons-en de cette comparaison humain / machine car l’étude de Frontiers Psychology de Bellaiche et ses collègues de Johns Hopkins révèle un truc qui m’a bien fait rire : sans étiquetage, les observateurs préfèrent significativement l’art généré par IA. Mais dès qu’on leur dit que c’est fait par une machine, hop, biais négatif immédiat. Les mêmes œuvres deviennent soudainement “moins créatives”, “sans âme”, “artificielles”. C’est donc le parfait exemple de dissonance cognitive où nos préjugés influencent notre perception esthétique plus que les qualités intrinsèques de l’œuvre.

Le rapport Art & IA 2024 d’Hiscox confirme également cette schizophrénie collective. 67% des jeunes collectionneurs et 69% des plus âgés affirment que les œuvres IA ont moins de valeur que celles d’artistes humains. Mais en parallèle, l’intérêt pour l’art génératif explose, surtout chez les jeunes. PNAS Nexus rapporte même une augmentation de 25% de la productivité artistique avec l’IA, et 50% de probabilité accrue de recevoir des “favoris” sur les plateformes.

Contradiction ? Non, je pense que c’est plutôt une évolution des mentalités qui est en cours.

Maintenant, les critiques légitimes. Parce qu’il y en a, et nier leur validité serait aussi débile que de nier les avantages de l’IA.

Il s’agit tout d’abord de la question du consentement pour l’utilisation des données d’entraînement, et c’est un vrai sujet. L’artiste Karla Ortiz le formule bien : utiliser ses œuvres sans autorisation, c’est “une intrusion, comme un étrange vol d’identité”. Et elle a raison sur le principe éthique, même si techniquement l’IA ne “vole” rien comme je vous l’expliquais.

Bien sûr, les mécanismes d’opt-out européens sont largement insuffisants. L’ADAGP l’a souligné : contrairement à la musique ou aux films, les images sont “presque toujours immédiatement visibles et téléchargeables”. C’est vrai ça… Comment protéger efficacement son travail quand il suffit d’un clic droit pour l’aspirer ? C’est un vrai défi technique et juridique réel qui mériterait mieux que des solutions cosmétiques.

Les biais algorithmiques constituent aussi une autre préoccupation. L’études de Bloomberg montrent que les générateurs amplifient les stéréotypes raciaux et de genre. Par exemple, plus de 80% des images “criminelles” générées représentent des personnes à peau foncée. Cette perpétuation automatisée des inégalités sociétales, c’est un problème éthique majeur que les développeurs devraient prendre à bras-le-corps.

L’impact économique sur certains secteurs créatifs est également très réel. Goldman Sachs estime que l’IA peut aujourd’hui automatiser 26% des tâches dans les métiers créatifs. L’illustration commerciale, la photographie stock, le design graphique basique subissent des pressions indéniables. Brookings (2024) anticipe que 30% des travailleurs pourraient voir plus de la moitié de leurs tâches affectées, avec une exposition disproportionnée des femmes.

Mais c’est bien aussi de contextualiser ces chiffres car l’histoire des révolutions technologiques nous montre que les disruptions créent autant qu’elles détruisent. La photographie, initialement perçue comme une menace mortelle pour les peintres portraitistes, a finalement créé des industries entières et poussé la peinture vers l’innovation. Et le secteur créatif américain a atteint 1,1 trillion de dollars en 2022, ce qui est un record historique et les artistes indépendants ont connu une croissance de 13,5% depuis 2019.

Bref, l’adaptation est en cours, et on est loin de l’effondrement.

L’argument environnemental mérite aussi d’être nuancé. Car oui, générer une image avec DALL-E consomme l’équivalent énergétique d’une charge de smartphone. Mais Nature Scientific Reports révèle que l’IA est 130 à 1500 fois moins émettrice de CO2 que les humains pour des tâches équivalentes d’écriture, et 310 à 2900 fois moins pour l’illustration. Cette différence s’explique par l’empreinte carbone annuelle humaine comparée à l’usage ponctuel de l’IA.

Les initiatives Green AI progressent aussi rapidement. Par exemple, Google fournit aujourd’hui six fois plus de puissance par unité d’électricité qu’il y a cinq ans, avec 66% d’énergie sans carbone en 2024. L’optimisation quantique a aussi amélioré l’efficacité d’entraînement des IA. Bref, la trajectoire d’amélioration continue est plutôt claire, je trouve.

Alors oui, il faut bien sûr réguler. Et l’AI Act européen, les propositions de Kate Crawford sur la transparence des algorithmes et le partage équitable des revenus, tout ça va dans le bon sens. Mais non, il ne faut pas interdire ou diaboliser par principe. Par exemple, l’ouverture prochaine du musée DATALAND de Refik Anadol à Los Angeles, conçu par Frank Gehry, montre que l’art génératif trouve sa place dans l’écosystème culturel.

Mais comme d’hab, y’a des tensions et des communautés comme Newgrounds ou ArtStation bannissent l’art IA, pendant que d’autres l’embrassent. Les protestations “No AI Art” côtoient l’explosion de créativité générée par ces outils. C’est normal, je trouve même que c’est sain et nécessaire car ça force le dialogue.

Ce qui m’agace, vous l’aurez compris, c’est cette manie de transformer chaque innovation en guerre de religion de débiles. L’IA générative n’est ni le diable ni le messie. C’est un outil puissant avec des implications complexes qui méritent des débats nuancés, et pas des slogans à la con de PMU. Les vrais enjeux comme le consentement, les biais, l’impact économique, ou encore la régulation que j’évoquais un peu plus haut, sont trop sérieux pour être noyés dans cet espèce de brouillard d’incompréhension technique que j’ai pu voir sur les réseaux sociaux notamment quand j’y trainais encore.

Alors continuez à critiquer c’est votre droit, mais s’il vous plait, renseignez-vous avant. Lisez les études, comprenez le fonctionnement de la technologie, et distinguez les problèmes réels des fantasmes.

A bon entendeur…

HRM - L'IA qui ridiculise ChatGPT avec seulement 27 millions de paramètres

Par : Korben
28 juillet 2025 à 09:59

Ce lundi matin, pendant que vous buvez votre café tiède en écoutant vos collègues évoquer leur future retraite imaginaire, sachez que des chercheurs singapouriens vient encore de repousser les frontières de l’IA avec HRM, un modèle qui résout des Sudoku impossibles sans même transpirer. Et il ne pèse que 27 Mo.

Je vous explique… La startup Sapient Intelligence vient de sortir le Hierarchical Reasoning Model (HRM), et c’est un véritable game-changer car avec seulement 27 millions de paramètres (c’est 6500 fois moins que GPT-3) cette petite bête arrive à battre les géants de l’IA sur des tâches de raisonnement complexe. Et le plus fort c’est qu’elle n’a besoin que de 1000 exemples pour apprendre, là où les autres en demandent des millions.

Le secret de cette prouesse, c’est une architecture directement inspirée de notre cerveau. Au lieu de faire comme les LLMs classiques qui génèrent du texte token par token en mode “je réfléchis à voix haute”, HRM fonctionne avec deux modules qui bossent ensemble : un module H (High-level) qui fait la planification stratégique lente, et un module L (Low-level) pour les calculs rapides et détaillés. En gros c’est un architecte qui dessine les plans et un maçon qui construit.

Et alors ça donne quoi dans la réalité ? Et bien sur des Sudoku niveau “extreme” où GPT-4 et Claude se cassent les dents avec un score de 0%, HRM affiche tranquillement un taux de réussite quasi parfait. Sur le benchmark ARC-AGI qui teste le raisonnement abstrait, il tape des scores de 40.3% contre 34.5% pour o3-mini d’OpenAI et 21.2% pour Claude 3.7 Sonnet. Pas mal donc pour un modèle qui tient sur une clé USB.

Mais le vrai kiff, c’est la vitesse d’exécution. Guan Wang, le CEO de Sapient Intelligence, parle d’un gain de performance de x100 par rapport aux approches chain-of-thought classiques. Pourquoi ? Et bien parce qu’au lieu de générer des pavés de texte pour expliquer chaque étape de raisonnement, HRM fait tout ça en interne, dans son “espace latent”. C’est ça la différence entre quelqu’un qui marmonne tout ce qu’il pense (le fou de la gare) et quelqu’un qui réfléchit dans sa tête avant de donner la réponse.

D’ailleurs, cette histoire de chain-of-thought, c’est un peu la “béquille” des LLMs actuels. Les chercheurs de Sapient ne mâchent pas leurs mots dans leur papier : en disant que “C’est une béquille, pas une solution satisfaisante. Ça repose sur des décompositions fragiles définies par l’humain où une seule erreur peut faire dérailler tout le processus de raisonnement.” Ouille…

Pour l’entraînement, c’est du grand art aussi. Il faut seulement 2 heures de GPU pour apprendre à résoudre des Sudoku niveau pro, et entre 50 et 200 heures pour le benchmark ARC-AGI. Comparez ça aux milliers d’heures nécessaires pour entraîner GPT-4, et vous comprenez pourquoi les entreprises commencent à s’intéresser sérieusement à cette approche.

L’équipe derrière ça sont des anciens de Google DeepMind, DeepSeek, Anthropic et xAI, accompagnés d’académiques de grandes universités. Ils ont même mis le code en open source sur GitHub, donc si vous voulez jouer avec, c’est cadeau.

Pour les applications concrètes, Wang voit grand : santé pour les diagnostics complexes, prévisions climatiques (ils annoncent 97% de précision sur les prévisions saisonnières), et robotique comme “cerveau décisionnel” embarqué. Parce que oui, avec sa taille réduite et sa faible consommation, HRM peut tourner sur des appareils edge sans problème.

Alors bien sûr, ne jetez pas ChatGPT ou Claude à la poubelle tout de suite car pour les tâches créatives et linguistiques, les LLMs restent imbattables. Mais pour tout ce qui demande du raisonnement pur et dur, c’est à dire optimisation logistique, diagnostic de systèmes complexes, planification…etc, HRM pourrait bien devenir le nouveau standard.

Ainsi, depuis des années, la course à l’IA c’était “qui aura le plus gros modèle” et là, Sapient nous montre qu’avec une architecture intelligente inspirée du cerveau, on peut faire mieux avec infiniment moins. Si vous suivez l’actualité des nouveaux modèles IA comme Llama 4, vous savez que l’industrie commence à explorer des architectures alternatives comme par exemple les Mixture of Experts pour optimiser les performances, donc peut-être que Meta ou d’autres intégreront HRM dans le futur à leurs nouveaux modèles.

Voilà, en attendant la prochaine révolution hebdomadaire de l’IA (Perso, je me régale !! Pas vous ??), vous pouvez déjà aller tester le code sur leur GitHub. Et qui sait, peut-être que dans quelques années, on se souviendra de ce moment comme du jour où l’IA a commencé à vraiment penser comme nous. Enfin, en mieux et en plus vite.

Source

La NASA a réparé une caméra à 600 millions de km en la chauffant à fond

Par : Korben
22 juillet 2025 à 18:34

Vous savez comment la NASA a réparé une caméra qui orbite autour de Jupiter ? Et bien en la mettant dans un four. Non, je déconne pas.

La sonde Juno tourne autour de Jupiter depuis 2016, et elle embarque une caméra appelée JunoCam qui nous envoie des images absolument dingues de la plus grosse planète du système solaire. Sauf que voilà, après 46 orbites nickel chrome, la caméra a commencé à faire des siennes lors de la 47ème orbite. Les images étaient pourries, pleines de bruit et de lignes bizarres.

Les ingénieurs du Jet Propulsion Laboratory ont alors vite compris le problème : les radiations de Jupiter, qui sont absolument monstrueuses, avaient bousillé le régulateur de tension de la caméra. Pour vous donner une idée, Jupiter émet tellement de radiations que la NASA avait prévu que JunoCam ne survive que 8 orbites, soit environ 400 jours. Mais la petite caméra qui le pouvait a tenu courageusement 5 fois plus longtemps que prévu !

Bon, le souci c’est qu’envoyer un nouveau régulateur via Amazon Prime à 600 millions de kilomètres, c’est pas vraiment une option. Alors les mecs de la NASA ont sorti une idée complètement folle de leur chapeau : Et si on faisait chauffer la caméra pour réparer les dégâts ?

Cette technique s’appelle le “recuit” (annealing en anglais), et c’est un procédé utilisé en métallurgie où on chauffe un matériau puis on le laisse refroidir lentement. Ça permet parfois de corriger des défauts dans la structure du matériau au niveau microscopique. Mais personne ne savait si ça marcherait sur du silicium irradié dans l’espace.

Jacob Schaffner, l’ingénieur de Malin Space Science Systems qui s’occupe de JunoCam, explique : “On savait que le recuit peut parfois modifier un matériau comme le silicium au niveau microscopique, mais on ne savait pas si ça réparerait les dégâts. On a commandé au chauffage de JunoCam de monter la température à 25°C, soit bien plus chaud que d’habitude pour la caméra, et on a attendu en retenant notre souffle.

Et bam ! Miracle, ça a marché. La caméra s’est remise à produire des images nickel. Mais comme toutes les bonnes choses ont une fin, après quelques orbites supplémentaires, les images ont recommencé à merder vers l’orbite 55.

Là, c’était la panique à bord. La sonde devait passer super près de Io, une des lunes de Jupiter, et il fallait absolument que la caméra fonctionne pour capturer ce moment historique. Cette fois, ils ont carrément mis le chauffage au max. Et re-miracle, ça a encore fonctionné ! Juste à temps pour capturer des images époustouflantes de Io et ses volcans en éruption.

Le plus fou dans cette histoire, c’est que cette technique de réparation par chauffage a tellement bien marché que l’équipe de Juno l’a testée sur d’autres instruments et systèmes de la sonde. Scott Bolton, le responsable scientifique de la mission, est super enthousiaste : “Juno nous apprend comment créer et maintenir des vaisseaux spatiaux résistants aux radiations, et ces leçons vont bénéficier aux satellites en orbite autour de la Terre. Je pense que ce qu’on a appris avec Juno sera applicable aux satellites militaires et commerciaux, ainsi qu’à d’autres missions de la NASA.

Malheureusement, lors de la 74ème orbite, le bruit est revenu dans les images et la NASA n’a pas dit s’ils allaient retenter le coup du four spatial une troisième fois. Peut-être qu’ils attendent le bon moment pour ressortir leur botte secrète.

Tout cela prouve que même avec toute leur technologie de pointe, les ingénieurs de la NASA doivent parfois improviser des solutions à la MacGyver comme à l’époque où on mettait nos cartes graphiques dans le four pour les réparer, sauf que là c’est une caméra qui se trouve à 600 millions de bornes et qui file à 200 000 km/h autour d’une planète géante radioactive.

Bref, cette technique de réparation par recuit pourrait se rajouter aux procédures de maintenance des satellites et des sondes spatiales, qui sait ? Comme ça, au lieu de considérer qu’un instrument endommagé par les radiations est foutu, on pourra peut-être le ressusciter avec un bon coup de chaud et ainsi économiser des millions tout en prolongeant la durée de vie de certaines missions spatiales.

Par contre, n’essayez pas la même chose en mettant votre smartphone ou votre laptop au four, ils risquent de ne pas aimer ^^.

Source

❌
❌