Un ado transforme la roue de son hamster en chargeur de smartphone
![]()
Un YouTubeur a transformé la roue d'exercice de son hamster en mini-turbine pour recharger son téléphone. Ça fonctionne, à condition de patienter et de soigner son câble USB.
![]()
Un YouTubeur a transformé la roue d'exercice de son hamster en mini-turbine pour recharger son téléphone. Ça fonctionne, à condition de patienter et de soigner son câble USB.
![]()
La pollution aux microplastiques a un effet direct sur le climat. Une étude parue dans Nature montre que les particules qui errent dans l'atmosphère auraient tendance à réchauffer la planète encore plus vite que certains gaz à effet de serre.
![]()
Phénomène aussi familier que méconnu, la pluie cache une mécanique physique fascinante. Deux experts nous entraînent au cœur des nuages pour comprendre comment, de l'évaporation à la condensation, la vapeur d’eau finit par se transformer en gouttes.
![]()
Comment les créatures des abysses perçoivent-elles un monde sans soleil ? Dans un extrait de leur ouvrage Secrets de l'océan profond, les chercheurs Juliette Ravaux et Sébastien Duperron nous entraînent à plus de 2 000 mètres sous la surface. Des crevettes détectrices de chaleur aux poissons hypersensibles à la bioluminescence, découvrez les fascinantes adaptations visuelles d'une faune marine encore mystérieuse.
![]()
Le courant océanique AMOC est chaque année de plus en plus faible, ce qui est inquiétant pour l'écosystème mondial. Afin de le renforcer, des scientifiques ont eu une idée : construire un barrage géant dans le détroit de Béring. Une solution prometteuse, mais pas miraculeuse.
![]()
Le courant océanique AMOC est chaque année de plus en plus faible, ce qui est inquiétant pour l'écosystème mondial. Afin de le renforcer, des scientifiques ont eu une idée : construire un barrage géant dans le détroit de Béring. Une solution prometteuse, mais pas miraculeuse.
Cet article a été réalisé en collaboration avec Nordnet
![]()
Jusqu’à 200 Mb/s de débit et des options intéressantes pour les familles comme les professionnels : la connexion haut débit par satellite de Nordnet est un service 100 % français qui offre une solution viable pour les oubliés de la fibre.
Cet article a été réalisé en collaboration avec Nordnet
Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.
Cet article a été réalisé en collaboration avec Nordnet
![]()
Jusqu’à 200 Mb/s de débit et des options intéressantes pour les familles comme les professionnels : la connexion haut débit par satellite de Nordnet est un service 100 % français qui offre une solution viable pour les oubliés de la fibre.
Cet article a été réalisé en collaboration avec Nordnet
Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.
![]()
Depuis plus de deux ans, la communauté scientifique se passionne pour un objet doré d'origine inconnue retrouvé au fond du golfe d'Alaska. Des analyses ont permis de l'identifier, et il a une origine biologique.
![]()
« NASA » ou « TUDUM » écrits avec des photographies aériennes. Voilà ce que l'on pouvait voir sur les réseaux sociaux le 22 avril 2026. Des créations qui ont une explication, ou plutôt deux : le Jour de la Terre et le programme Landsat.
"Une requête ChatGPT consomme 10 fois plus d'énergie qu'une recherche Google."
Cette phrase, vous l'avez lue 100 fois. Mais est-ce vraiment vrai ?
Charles Duprat, chercheur en inclusion numérique, vient de publier un papier qui retourne complètement ce chiffre. Et même si je suis incapable de vérifier la validité scientifique de tout ce qu'il avance, ça vaut le coup d'en parler.
Son argument de base est simple et pas con. En fait quand on compare l'énergie d'une requête IA vs une recherche Google, on ne regarde en fait que ce qui se passe côté serveur, plutôt que l'ensemble de la chaîne. Le GPU Nvidia qui mouline d'un côté, l'index Google qui répond de l'autre.
Sauf que dans la vraie vie, une recherche web sur votre iPhone ou votre Android, c'est clairement pas juste un serveur qui tourne ! C'est le téléchargement de plusieurs mégaoctets via la 4G, c'est du JavaScript et du CSS qui font chauffer le CPU de votre téléphone, c'est du temps d'écran, et surtout c'est des dizaines de scripts publicitaires et de trackers qui tournent en arrière-plan. Et rien de tout ça n'apparaît dans le bilan "officiel".
Du coup, le chercheur a modélisé la comparaison au niveau de la session utilisateur complète. Donc pas juste la requête serveur, mais tout le trajet : réseau mobile, rendu de page, pubs, temps passé à lire. Et là, les résultats sont contre-intuitifs car pour une tâche complexe sur mobile (genre comparer des pompes à chaleur et des chaudières gaz), une session LLM consommerait environ 5,4 fois moins d'énergie qu'une session de recherche web classique. Dans le pire des cas modélisé, l'avantage reste quand même de 1,6 fois.
Alors d'où ça vient ?
D'abord, la page web médiane sur mobile pèse 2,56 Mo. Oui, 2,56 Mo pour une seule page web sur Chrome ou Safari qui est ensuite transmise en 4G à 0,17 kWh/Go, et ça, ça coûte déjà plus en énergie réseau qu'une inférence LLM complète. Une réponse ChatGPT ou Claude, c'est environ 5 Ko de texte brut. Le ratio de transmission est de 500 pour 1 avant même de parler du reste. Quand on sait déjà que la consommation réelle des datacenters est un sujet à tiroirs, ça relativise pas mal.
Et puis y'a le boulet de la pub programmatique ! Des études (Khan et al., 2024) montrent que les bloqueurs de pub intégrés comme Brave réduisent la consommation électrique du terminal de 15 à 44%. En gros, quand vous naviguez sur un site d'actu classique, jusqu'à 41% de l'énergie de la session sert à charger et exécuter du JavaScript publicitaire. Hé bien le LLM court-circuite tout ça en vous filant une réponse texte directe.
Comme je vous le disais en intro, je suis totalement incapable de valider la méthodologie de cette étude... Allez savoir si les paramètres sont bien calibrés. Et c'est un working paper, donc pas encore relu par des pairs, avec des simulations plus nombreuses. L'auteur se base sur des chiffres publiés par Google pour Gemini (0,24 Wh par prompt, issu d'un papier arXiv), par Epoch AI pour ChatGPT (0,30 Wh), et par Sam Altman lui-même (0,34 Wh). Et comme ces chiffres viennent des constructeurs eux-mêmes, ça mérite qu'on garde un oeil critique.
Par contre, l'étude a aussi l'honnêteté de poser ses propres limites car l'avantage s'effondre pour les requêtes simples en Wi-Fi depuis votre PC ou Mac (quasi parité LLM <> Google). Et surtout, ça s'inverse violemment dès qu'on passe aux modèles de raisonnement type o3 ou Deep Think, qui consomment 30 à 700 fois plus qu'une inférence standard parce qu'ils génèrent des chaînes de pensée à rallonge.
Le paradoxe de Jevons est aussi mentionné : si l'IA est plus efficace par requête, les gens en feront forcément plus, donc la consommation globale augmentera quand même. Et la question des modèles éco-responsables reste elle aussi entière.
Mais bon, cette étude remet quand même en question un truc qu'on répète tous sans trop réfléchir. Comparer un serveur IA à un serveur Google, c'est oublier que la recherche web moderne, c'est devenu "recherche + publicité + réseau mobile + rendering JavaScript + temps d'attention". Et comme Google lui-même commence à coller de l'IA (les AI Overviews) en plus par-dessus ses résultats classiques, ça devient un joyeux bordel à mesurer...
Bref, lisez l'étude vous-mêmes , c'est en accès libre. Et faites-vous votre propre avis !
