Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Quand Amazon transforme vos ebooks en manuscrits médiévaux impossible à déchiffrer ou presque

Par : Korben
17 octobre 2025 à 16:19

Voici l’histoire de Pixelmelt, un développeur qui voulait simplement sauvegarder en local un ebook acheté sur Amazon pour le lire avec une autre app parce que l’app Kindle d’Android a crashé une fois de trop à son goût.

Mais c’est impossible. Pas de bouton download, pas d’export, que dalle… Même si vous avez acheté le livre, c’est Amazon qui décide de comment et de quand vous pouvez le lire.

Bref, frustré, il se tourne alors vers le Kindle Cloud Reader, la version web de l’app. Et là, il découvre un truc incroyable ! Amazon a créé un système d’obfuscation tellement complexe qu’il ressemble aux techniques de cryptographie des manuscrits anciens. Mais siii, vous savez, ces textes enluminés que seuls les moines pouvaient déchiffrer au Moyen-Âge. Amazon a réinventé le concept en version numérique.

Pour fonctionner, le Kindle Cloud Reader utilise un endpoint de rendu qui nécessite plusieurs tokens d’authentification. Déjà c’est pas simple. Mais ça se corse un peu plus quand on regarde le texte qui s’affiche car ce ne sont pas des lettres ! Ce sont des glyphes, essentiellement des séries de coordonnées qui dessinent une lettre. Ainsi, au lieu de stocker le caractère ‘T’, Amazon stocke “glyphe 24” qui correspond à une forme dessinée via des commandes SVG. Et ces glyphes changent de mapping toutes les 5 pages, un peu comme un codex (coucou Dan Brown ^^) où l’alphabet se transforme à tous les chapitres.

Du coup, pour son livre de 920 pages, il a fallu faire 184 requêtes API distinctes. Chaque requête récupère un nouveau jeu de glyphes soit au total 361 glyphes uniques découverts, et 1 051 745 glyphes à décoder. Oui, ça fait plus d’un million de symboles à traduire pour lire un seul livre.

Amazon a même ajouté des pièges comme des micro-opérations MoveTo complètement inutiles dans les SVG qui s’affichent parfaitement dans le navigateur mais cassent toute tentative de parsing automatique. C’est de l’anti-scraping placé là volontairement, comme des fausses pistes dans des cryptogrammes médiévaux destinées à tromper les copistes non autorisés.

Face à ce délire, notre développeur est alors devenu malgré lui un crypto-archéologue. Sa méthode a donc été de comparer pixel par pixel chaque caractères, valider chaque hypothèse, pour tout reconstruire patiemment. Je vous passe les détails techniques mais il a sorti chaque glyphe SVG sous la forme d’une image, puis a comparé ces images pour trouver leur correspondance avec les vraies lettres en utilisant un outil (SSIM) qui simule la perception humaine pour évaluer la similarité entre deux images.

Résultat, 100% des glyphes matchés ont un score quasi-parfait ce qui lui a permis de reconstruire un fichier EPUB complet avec le formatage, les styles, les liens internes…etc. Tout y est, c’est trop fort !

Bref, Pixelmelt 1 - Amazon 0 ! Et ça, ça fait plaisir ! Maintenant si vous voulez connaitre tous les détails de ça et refaire la même chez vous (pour rigoler hein, ne vous lancez pas dans dans une opération de piratage massif sinon vous finirez en taule comme Sarko ^^)

Le premier hack musical de l'histoire est de retour et c'est magnifique !

Par : Korben
13 octobre 2025 à 15:07

Le youtubeur Joe Lynch vient de faire jouer “ Olson ” de Boards of Canada sur un ordinateur de 1959. Pas un émulateur, hein mais le vrai PDP-1, celui qui est au Computer History Museum. 603 bytes de musique sur une bande perforée, et quatre ampoules sur le panneau de contrôle transformées en haut-parleurs… Le son est brut, lo-fi, presque primitif et je trouve ça magnifique.

Mais attendez, ce PDP-1 c’est pas juste un vieux tas de circuits et de câbles… C’est vraiment l’ordinateur qui a créé les hackers et je vais essayer de vous en raconter un peu l’histoire !

Le PDP-1 débarque au MIT en septembre 1961. Digital Equipment Corporation le vend alors 120 000 dollars en tant qu’outil de calcul scientifique. C’est très sérieux, très corporate, sauf que les étudiants du MIT s’en foutent du calcul scientifique.

Ils veulent jouer !

Steve Russell programme alors Spacewar! en 1962. C’est l’un des premiers jeu vidéo. Deux vaisseaux qui se tirent dessus autour d’une étoile et vous vous en doutez, c’est pas prévu dans le manuel. C’est un détournement de la machine… un hack.

Puis la même année, Peter Samson , un autre étudiant du MIT, remarque que les ampoules de statut du PDP-1 clignotent. On/off, on/off… Il se dit alors qu’en contrôlant la vitesse du clignotement, on peut générer des fréquences audio. Il code alors le Harmony Compiler et c’est comme ça que les quatre ampoules deviennent quatre voix musicales. C’est l’un des premier synthétiseur temps réel et polyphonique de l’histoire. Peter optimise même le système pour jouer du Bach.

C’est la naissance de la culture hacker, de l’idée que le matériel peut faire plus que ce pour quoi il a été conçu et vendu. Les limites sont là pour être contournées et ce n’est pas mal… c’est de l’exploration !

Le PDP-1 devient alors le terrain de jeu des premiers hackers du MIT. Ils codent la nuit, quand les profs sont partis et transforment cette machine de calcul en espace de créativité. Et cette étincelle de culture va créer tout ce qui suit. Unix en 1969, le Homebrew Computer Club dans les années 70, les premiers PC, l’open source, Linux…etc. A chaque fois, ce sont des étudiants qui ont décidé que les règles c’était optionnel.

Et 63 ans plus tard, Joe Lynch arrive, prend le code de Peter Samson écrit en 1962 et l’utilise pour faire jouer un morceau de 1998. Il perfore une bande papier, il la charge dans le PDP-1, les fameuses quatre ampoules s’allument et s’éteignent alors à des fréquences calculées pour l’occasion et c’est “Olson” qui sort des haut-parleurs.

Incoyrable non ?

Pour réussir cet exploit, Joe Lynch a utilisé le Harmony Compiler tel qu’il était à l’époque, sans faire aucune modification et tout fonctionne encore parfaitement. Peter Samson a écrit ce code bien avant Apollo 11, bien avant Unix, Internet et tout ce que vous connaissez. Et son code survit encore aujourd’hui alors que 50% des apps que vous avez sur votre téléphone seront totalement mortes dans 5 ans.

Voilà, j’ai trouvé ça beau, un peu comme entendre le son du premier phonogramme ou la première chanson enregistrée… Le projet est évidemment sur GitHub et Joe Lynch y a documenté tout le processus. Il y explique comment il a transcrit “Olson” dans le DSL défini par le Harmony Compiler puis comment il a séparé les quatre voix, comment il a compilé tout ça en bande perforée et enfin, comment il a chargé la bande dans le vrai PDP-1 du Computer History Museum avec l’aide de Peter Samson lui-même, maintenant conférencier pour le musée.

Le site dédié au projet c’est pdp1.music si ça vous branche !

Il refait un ChatGPT avec de la redstone Minecraft

Par : Korben
2 octobre 2025 à 16:10

Vous ne trouvez pas que ChatGPT met un peu de temps à répondre parfois ? Et bien imaginez maintenant devoir attendre 2 heures pour obtenir une réponse de 3 mots. Bienvenue dans le monde de CraftGPT, le ChatGPT entièrement construit en redstone Minecraft par un gars du nom de sammyuri !

Ce dernier a créé un vrai modèle de langage avec 5 087 280 paramètres, construit UNIQUEMENT avec de la redstone. Pas de command blocks. Pas de datapacks. Et pas de mods. Juste de la redstone pure et dure, comme à l’ancienne.

Il a pris un dataset d’entraînement (TinyChat, des conversations basiques en anglais), l’a entraîné en Python comme n’importe quel modèle de langage normal, puis a RECRÉÉ toute l’architecture du modèle dans Minecraft. Un modèle avec 6 couches, 1920 tokens de vocabulaire, une dimension d’embedding de 240, et une fenêtre de contexte de 64 tokens. C’est petit mais assez pour des conversations très courtes.

Et le résultat, c’est une cathédrale de redstone qui occupe un volume de 1020 x 260 x 1656 blocs. Soit 439 millions de blocs au total. C’est tellement gigantesque qu’il a dû utiliser le mod Distant Horizons juste pour filmer l’ensemble, ce qui fait que les composants lointains ont l’air un peu bizarres dans la vidéo parce qu’ils sont rendus avec moins de détails.

Mais ce qui est génial ici, c’est pas vraiment l’exploit technique en lui-même. Enfin si, c’est impressionnant, mais c’est surtout ce que ça nous dit sur la nature même du calcul et de l’intelligence artificielle. Parce qu’en réalité, ce que sammyuri vient de prouver c’est qu’on peut faire de l’IA avec N’IMPORTE QUOI. Des cailloux virtuels dans un jeu vidéo, des dominos, de l’eau, peu importe. Tant que vous avez un système Turing-complet, vous pouvez faire tourner un modèle de langage.

Cela veut dire que l’intelligence artificielle, au final, c’est juste de la logique. Ce sont juste des calculs. Des additions, des multiplications, des comparaisons et cela peu importe le support technique. Qu’on utilise du silicium ultra-rapide ou des torches de redstone qui s’allument et s’éteignent dans un monde cubique, le principe reste le même.

Bon, après, c’est lent car même en utilisant MCHPRS (Minecraft High Performance Redstone Server) qui accélère le jeu à 40 000 fois la vitesse normale, CraftGPT met environ 2 heures pour générer une réponse. Sans cette accélération, ça pourrait prendre jusqu’à 10 ans. Dix ans pour une phrase de quelques mots.

Et dire qu’on râle quand ChatGPT met 3 secondes à répondre, alors qu’on a dans nos poches une puissance de calcul qui aurait fait pleurer de joie Alan Turing…

Sinon, histoire de rentrer un peu plus dans le détail, sammyuri a dû faire face aux mêmes problématiques que les chercheurs en IA d’aujourd’hui. Pour faire rentrer son modèle dans Minecraft, il a dû quantifier la plupart des poids à 8 bits. Les poids d’embedding et de LayerNorm sont stockés à 18 et 24 bits respectivement, mais le gros du modèle est compressé. C’est exactement le même débat qu’actuellement sur l’optimisation des LLMs pour les faire tourner sur des machines moins puissantes.

Et le meilleur dans tout ça c’est que le gars a tout mis en open source sur GitHub . Vous pouvez donc télécharger le monde Minecraft (version Vanilla 1.20.4 ou version MCHPRS), récupérer l’émulateur, les poids du modèle, et le guide pour le faire tourner.

Voilà… Encore un chouette projet inutile, certes mais qui nous permet de nous reconnecter aux fondamentaux pour mieux comprendre les technologies du moment.

Tout est sur ce repo CraftGPT de sammyuri .

Source

Leonidas - L'arme anti-drone des américains

Par : Korben
29 septembre 2025 à 12:50

Vous savez ce qu’il y a dans votre chargeur rapide USB-C posé là, sur votre bureau ? Il y a du nitrure de gallium . Hé bien ce truc, c’est la même technologie qui permet à l’armée américaine de faire tomber 49 drones du ciel en une seule impulsion. C’est ce qui s’est passé le 26 août à Camp Atterbury dans l’Indiana, où la société Epirus a fait une démonstration de son système Leonidas devant des représentants de pays alliés.

Cette machine, baptisée en référence au roi spartiate qui défendait les Thermopyles , ne tire pas de projectiles. A la place, elle génère un champ électromagnétique dans un arc de 60 degrés et tout ce qui vole dedans tombe comme une mouche. Les circuits grillent, les servomoteurs deviennent fous, et paf, le drone s’écrase. Le truc génial c’est que le coût de revient par drone abattu n’est que de quelques centimes, contre des dizaines de milliers de dollars pour un missile traditionnel.

L’armée américaine a signé un contrat de 66 millions de dollars pour quatre prototypes, soit environ 16,5 millions pièce. Ça peut paraître cher, mais comparé au coût d’un système de défense classique et surtout au coût des munitions, c’est donné. Vous payez une fois et vous avez une quantité illimitée de destructions de drones… Pas de munitions à racheter, juste de l’électricité et un peu de maintenance.

Le système fonctionne donc avec des semi-conducteurs au nitrure de gallium au lieu des bons vieux magnétrons qu’on trouvait dans les micro-ondes de nos grands-mères. Ces puces GaN peuvent balancer des kilowatts de puissance sans chauffer comme un four, ce qui permet au système de tirer en continu. De leur côté, les Chinois développent leur propre système appelé Hurricane avec des tubes à vide old-school et ce qui est drôle c’est que la Chine produit 98% du gallium mondial.

Et comme elle a décidé de bloquer ses exportations vers les États-Unis , les entreprises américaines comme Epirus se tournent vers des alternatives. Le Japon, leader mondial du recyclage de gallium, devient donc une source cruciale pour contourner le blocage chinois.

Lors du test en Indiana, le système a détruit 100% des drones utilisés lors de leurs 5 scénarios de tests IRL. Le clou du spectacle étant la mise à terre de 49 drones d’un coup ! Regardez, c’est impressionnant.

Les observateurs présents ont décrit la scène comme surréaliste… une vague de drones qui tombent du ciel en même temps, leurs moteurs qui crépitent avant le silence… Le PDG d’Epirus, Andy Lowery, a même qualifié ça de moment historique. Un peu pompeux, mais bon, quand tu viens de prouver que ton micro-ondes géant fonctionne, tu peux te permettre.

Les Marines américains vont également recevoir une version portable appelée ExDECS (Expeditionary Directed Energy Counter-Swarm) qui peut être montée sur n’importe quel véhicule et il existe même une version “pod” qui peut être accrochée sous un avion. C’est beau la guerre quand même, non ? (Je décooooonnne !)

Le ExDECS

Matéo, 16 ans, qui fait voler son DJI au-dessus de l’aéroport parce qu’il veut faire une vidéo TikTok a intérêt à bien se tenir !!! Et Vladimir aussi ^^.

Epirus prépare déjà la version 2 qui sera deux fois plus puissante et pourra griller des drones encore plus loin… J’ai hâte de voir ça (ou pas…)

ertdfgcvb - Du Live Coding 100% ASCII

Par : Korben
23 septembre 2025 à 17:42

Alors si vous cherchez un truc pour procrastiner intelligemment ce soir ou demain, j’ai exactement ce qu’il vous faut. Play.ertdfgcvb.xyz , c’est un terrain de jeu ASCII interactif où vous pouvez coder des animations directement dans votre navigateur. Et c’est hyper hypnotisant, vous allez voir !

Derrière ce nom imprononçable “ertdfgcvb” se cache Andreas Gysin , un artiste suisse basé à Lugano qui fait du code et du design et son playground ASCII, c’est une interface épurée au maximum composée d’un éditeur de code à gauche, d’une fenêtre de prévisualisation à droite, et c’est tout. Pas de fioritures, pas de boutons partout, juste l’essentiel. Vous tapez Cmd+Enter (ou Ctrl+Enter sur PC) et votre code s’exécute en temps réel.

Le principe de son code en live est inspiré des fragment shaders GLSL , sauf qu’au lieu de pixels colorés, vous manipulez des caractères. Vous avez accès à des fonctions spécifiques telle que boot() qui s’exécute une fois au démarrage, pre() pour préparer vos données, main() qui est appelée pour chaque cellule de l’écran, et post() pour les modifications finales.

Voici un exemple simple en javascript pour comprendre le délire :

export function main(coord, context){ return String.fromCharCode((coord.y + coord.x) % 32 + 65) }

Ce bout de code génère un pattern de lettres qui change selon la position X et Y sur l’écran. C’est tout con mais c’est beau.

Le playground propose également des dizaines d’exemples triés par catégorie. Vous avez les basiques pour apprendre, des démos plus complexes comme “Doom Flame” qui recrée l’effet de flamme du jeu Doom en ASCII, ou encore “Donut” qui fait tourner un donut en 3D avec juste des caractères. Y’a même une section “camera” où vous pouvez manipuler votre webcam et la transformer en ASCII art en temps réel.

D’après le GitHub du projet , Andreas a créé ça comme un hommage à tous les artistes, poètes et designers qui utilisent le texte comme medium. C’est un projet minimaliste, avec presque pas d’interface, juste le code et le résultat. Même les marges et les numéros de ligne ont été virés.

Et tout ça tourne de manière fluide dans le navigateur et pour les dev qui veulent comprendre comment ça marche sous le capot, tout le code source est sur GitHub, et vous pouvez vraiment faire des trucs de ouf avec, par exemple des fractales, des simulations de fluides…etc. C’est complètement barré.

Mais pour commencer, le plus simple c’est d’explorer les exemples. Le classique “10 PRINT” recrée le fameux one-liner du Commodore 64 qui génère un labyrinthe infini. Les exemples SDF (Signed Distance Fields) montrent comment faire de la 3D avec des maths et des caractères. Et si vous êtes chaud, vous pouvez lui envoyer vos propres créations qui rejoindront la section “contributed”.

Andreas enseigne ces techniques dans ses cours, et apparemment les étudiants adorent. C’est vrai que c’est une approche super pédagogique du creative coding où on se prend pas la tête avec du WebGL ou des frameworks complexes… Non, faut juste pondre du code simple qui produit des résultats visuels immédiats.

Bref, play.ertdfgcvb.xyz c’est le genre de site qu’on bookmark et qu’on ressort quand on veut se vider la tête en codant des trucs rigolos. C’est gratuit, c’est open source, et c’est une belle démonstration que l’art et le code peuvent cohabiter sans avoir besoin de millions de polygones et de shaders complexes.

Un grand merci à Lorenper pour m’avoir fait découvrir cette pépite !

Ce quiz prouve que vous ne savez pas ce qu'est une adresse email

Par : Korben
21 septembre 2025 à 07:54

Un développeur a créé un quiz qui va détruire votre ego en 21 questions sur les adresses email. La mauvaise nouvelle, c’est donc que vous allez découvrir que 👉@👈 est techniquement une adresse valide. Sniiif…

Hé bien oui, car e-mail.wtf est un petit quiz vicieux créé par samwho qui teste vos connaissances sur ce qui est autorisé ou non dans une adresse email. Et croyez-moi, même si vous bossez dans l’informatique depuis 20 ans, vous allez vous planter.

Le truc marrant, c’est que ce quiz se base sur les RFC officielles (RFC 822, RFC 2822, RFC 5322, et RFC 6532 pour les curieux) qui sont les documents qui définissent depuis 1982 ce qu’est vraiment une adresse email valide. Et spoiler alert, c’est le bordel total. Même les experts qui connaissent ces RFC par cœur se font avoir par certaines questions de ce quiz.

Par exemple, saviez-vous que “John Doe"@example.com est parfaitement valide ? Les guillemets permettent d’utiliser des espaces et des caractères spéciaux dans la partie locale. Ou que john.smith@(commentaire)example.com est équivalent à [email protected] ? Les commentaires entre parenthèses sont autorisés et ignorés.

C’est dingue non ?

Techniquement, vous pouvez donc avoir des caractères comme !#$%&’*+-/=?^_`{|}~ dans votre adresse. Vous pouvez même utiliser des crochets pour mettre une adresse IP au lieu d’un domaine, genre user@[192.168.1.1]. Bon, après, c’est pas dit que ça fonctionne sur des outils comme Gmail…

D’ailleurs, c’est là tout le paradoxe. Gmail refuse plein de caractères pourtant valides selon les RFC. Pas de &, =, _, ‘, -, + ou de virgules dans les nouvelles adresses Gmail et interdiction d’avoir deux points consécutifs. Pourtant les RFC disent que c’est OK.

Mais le plus fou, c’est l’arrivée des emojis dans les adresses email. Selon les RFC 6530 à 6532 , depuis 2012, vous pouvez théoriquement avoir une adresse 100% emoji. Genre 🍕@🍔.com. Ou même коля@пример.рф en cyrillique, अजय@डाटा.भारत en hindi, ou 用户@例子.广告 en chinois. Le futur est là, mais personne n’est prêt.

Sam Rose, le créateur du quiz avoue lui-même avoir appris plein de trucs en créant ce quiz. C’est dire si le sujet est compliqué. En vrai ce qui ressort des discussions à ce sujet, c’est que la seule vraie validation d’email, c’est d’envoyer un email de confirmation. Sinon vous risquez de filtrer des utilisateurs légitimes.

Le quiz commence donc facilement avec des trucs comme [email protected] , puis ça part en vrille avec des adresses à rallonge, des caractères bizarres, et des cas limites que même les RFC ont du mal à expliquer. C’est humiliant mais instructif, faites moi confiance, vous allez apprendre des trucs.

Allez faire le quiz sur e-mail.wtf , c’est gratuit, ça ne prend 5 minutes, et ça va vous faire réaliser que l’informatique, c’est vraiment n’importe quoi parfois. Et la prochaine fois qu’un site refuse votre adresse email parce qu’elle contient un + ou un point de trop, vous saurez que c’est eux les incompétents et pas vous !!

Mon test du Narwal Flow - L'aspirateur robot qui surmonte tous les obstacles

Par : Korben
4 septembre 2025 à 15:36
– Article en partenariat avec Narwal

Après plusieurs semaines avec cet aspirateur robot dans les pattes (et les câbles qui traînent), je peux vous dire qu’il y a pas mal de trucs intéressants à raconter. Le Narwal Flow fait en effet partie de la nouvelle génération d’aspirateurs robots qui débarquent en 2025, et celui-co a quelques arguments qui sortent du lot.

D’abord, parlons du bruit, ou plutôt de l’absence de bruit. Ce truc est assez silencieux, je trouve. Pendant que le CES 2025 nous présentait des robots avec des bras robotisés pour ramasser les chaussettes, chez Narwal ils ont préféré se concentrer sur la réduction du bruit. Et ça marche ! Vous pouvez donc le lancer pendant une réunion Zoom sans que vos collègues s’en rendent compte.

Il a aussi une excellente gestion des obstacles. Non seulement il évite mes câbles qui traînent partout (oui, je sais, je devrais ranger), mais il contourne aussi mes chaussettes lâchement abandonnées. Cette capacité géniale lui vient de son système de navigation avec deux caméras RGB à 136° et un chip IA embarqué qui reconnaît plus de 200 types d’objets. Pas de traitement dans le cloud, tout se fait en local donc pour les parano de la vie privée, c’est plutôt rassurant. Puis comme ça, quand vous regardez la map avec tous les obstacles, vous pouvez voir sur quoi il tombe…

Parlons maintenant de la fonction qui m’amuse le plus : la surveillance à distance. Grâce à la caméra embarquée, je peux prendre le contrôle du robot depuis mon téléphone et faire un petit tour de la maison. C’est pratique pour vérifier si j’ai bien fermé une fenêtre, si le chat a renversé quelque chose ou si y’a un gars chelou dans ma cuisine. Ces aspirateurs robots avec caméra permettent même une communication bidirectionnelle, donc techniquement, vous pouvez parler à votre chat à distance. Je l’ai fait. Il s’en fout complètement. Puis bon bah comme toujours avec ce genre de gadgets, vous pouvez prendre des photos, faire des vidéos comme ceci :

Pour ceux qui ont des animaux justement, il y a un mode spécial qui évite que Médor se coince la queue dedans ou que le petit dernier y mette les doigts. Le robot ralentit et devient plus prudent quand il détecte du mouvement. C’est bien pensé, même si mon chat continue de le regarder comme un ennemi mortel.

La vraie innovation du Flow, c’est surtout son système de nettoyage FlowWash. Au lieu des serpillères rotatives classiques, Narwal a opté pour un rouleau au format chenille qui se nettoie en continu. Le principe c’est que le rouleau applique de l’eau propre d’un côté tout en aspirant l’eau sale de l’autre. Résultat, la serpillère reste toujours propre pendant le nettoyage. Et ce système permet enfin d’aller nettoyer dans les coins… Et ça j’apprécie car mes robots précédents laissaient toujours des trucs sales dans les angles.

Avec une puissance d’aspiration entre 20 000 et 22 000 Pa, on donc est sur du très haut de gamme… pour vous donner une idée, un robot aspi en général, c’est au moins 2 500 Pa, donc là on est carrément dans l’excès. Mais bon, quand on voit le prix autour de 900 €, on comprend qu’on n’est pas sur de l’entrée de gamme.

Maintenant, tout n’est pas parfait. Par exemple, il faut régulièrement passer un petit coup de sopalin dans la station d’acceuil pour nettoyer les résidus qui s’accumulent. C’est pas dramatique mais bon, c’est beurk ;-)

Deuxième point qui m’embête, la consommation d’eau. J’ai une grande maison, et si je veux passer toute la surface à la serpillère, il faut que je recharge le réservoir d’eau une fois par jour. Du coup, j’ai trouvé la parade : mode serpillère pour la cuisine uniquement, et mode aspirateur pour le reste. De temps en temps, je lance quand même un grand nettoyage complet à l’eau quand j’ai le temps de gérer la logistique eau.

Le robot gère aussi très bien les tapis, il les détecte et adapte automatiquement sa puissance d’aspiration. Et pour les petits dénivelés entre les pièces (genre ces petites marches de 1-2 cm qu’on a parfois), il fait son petit numéro d’escalade roue après roue. C’est rigolo à regarder et il s’en sort très bien !

Après c’est surtout la station d’accueil qui fait tout le boulot : vidange automatique de la poussière (jusqu’à 120 jours d’autonomie avec un petit sac aspi), lavage et séchage de la serpillère, remplissage d’eau propre dans le robot (avec détergent livré avec). Vous n’avez quasiment rien à faire, à part nettoyer la base de temps en temps et vider l’eau sale / remplir l’eau propre.

Comparé à la concurrence, le Flow se positionne donc clairement sur le haut de gamme. Narwal ne s’est pas perdu dans l’inovation ridicule (comme les robots avec les bras dont je vous parlais tout à l’heure) en misant sur un système de nettoyage innovant et une navigation ultra-précise. Chacun sa stratégie.

Bref, si je devais résumer mon expérience avec ce petit nouveau, je trouve que c’est un excellent robot aspirateur qui fait le job sans faire de bruit. En plus, je passe plus mon temps à le chercher dans toute la maison pour le débloquer d’un câble ou d’une chaussette, alors je suis content. Puis ce système de serpillère chenille nettoie vraiment bien je trouve, y compris les coin. Donc voilà, si vous cherchez du haut de gamme avec des fonctions originales, c’est une option sérieuse à considérer.

Découvrir la fiche technique du robot en cliquant ici.

Un astéroïde gros comme un Boeing va nous frôler demain - Suivez le show en direct

Par : Korben
2 septembre 2025 à 09:14

Ce soir, pendant que vous serez tranquillement devant Netflix, un rocher de la taille d’un avion de ligne va nous frôler à une vitesse de 45 000 km/h. Mais pas de panique, car on parle quand même de 218 000 kilomètres de distance, soit environ la moitié de la distance Terre-Lune. L’astéroïde 2025 QD8 fait juste son petit passage touristique près de chez nous, et grâce au Virtual Telescope Project, vous allez pouvoir suivre ça en direct depuis votre canapé.

Le Virtual Telescope Project a déjà réussi à capturer une image de ce visiteur cosmique le 30 août dernier, alors qu’il était encore à 3,9 millions de kilomètres. Sur la photo prise avec leur télescope de 17 pouces surnommé “Elena” (J’ai eu une poule qui s’appelait comme ça…RIP), l’astéroïde n’est qu’un minuscule point perdu parmi les étoiles. Mais bon, c’est déjà pas mal d’avoir réussi à choper un caillou de 38 mètres de diamètre à cette distance !

Le moment crucial, c’est demain 3 septembre à 16h56 heure française (10h57 ET). C’est là que 2025 QD8 sera au plus proche de nous. Mais le stream YouTube démarre ce soir à 1h du matin (19h ET le 3 septembre) avec les télescopes robotisés installés à Manciano en Italie. Donc si vous êtes du genre couche-tard ou que vous avez une insomnie, c’est l’occasion parfaite de regarder un astéroïde en temps réel plutôt que de scroller bêtement sur TikTok à la recherche de Live avec des cassos encore plus cassos que vous.

Il parait qu’il y aura aussi des aurores boréales en France, donc vous pouvez faire d’une pierre, 2 coups, en passant le nez par la fenêtre (ne sautez pas !!).

Ce qui est rigolo (ou pas) avec ces passages d’astéroïdes, c’est qu’on en découvre de plus en plus. Selon la NASA , des dizaines de milliers d’astéroïdes ont des trajectoires qui les amènent près de l’orbite terrestre. Le système ATLAS, qui a découvert 2025 QD8, est maintenant capable de scanner l’intégralité du ciel toutes les 24 heures. Ce réseau de quatre télescopes a déjà découvert plus de 700 astéroïdes proches de la Terre et 66 comètes.

D’ailleurs, on vit une époque intéressante pour la détection d’astéroïdes puisque le télescope spatial NEO Surveyor, prévu pour 2027, sera le premier spécifiquement conçu pour traquer ces objets. Il utilisera l’imagerie infrarouge pour détecter même les astéroïdes sombres qui ne reflètent pas beaucoup de lumière visible (comme votre âme ^^). En gros, on aura bientôt un radar spatial qui pourra repérer les cailloux qui arrivent même depuis la direction du Soleil, là où on est actuellement aveugles.

Pour mettre les choses en perspective, 2025 QD8 avec ses 17 à 38 mètres de diamètre, c’est peanuts comparé aux gros machins qui pourraient vraiment nous causer des problèmes (Coucou les dinosaures ! On pense à vous). Un astéroïde de 45 mètres peut être détecté une semaine avant l’impact par ATLAS, et un de 120 mètres trois semaines avant, mais rassurez-vous, le Centre d’Études des Objets Géocroiseurs de la NASA confirme qu’il n’y a aucune menace d’impact significative connue pour les 100 prochaines années . Ça tombe bien, Bruce Willis n’est pas dispo en ce moment…

Le Virtual Telescope Project, c’est donc un peu le Netflix de l’astronomie car depuis 2006, ils permettent à n’importe qui de surfer sur les étoiles depuis son salon. Leur philosophie c’est de rendre l’astronomie accessible à tous, peu importe votre niveau d’expérience. Ils ont plusieurs télescopes, dont des monstres de 14 et 17 pouces, et ils organisent régulièrement des événements en direct comme des éclipses lunaires ou des passages d’astéroïdes comme c’est le cas ce soir.

Alors voilà, si vous voulez voir un astéroïde en direct sans risquer votre vie façon Armageddon, rendez-vous ce soir sur le stream du Virtual Telescope Project. C’est gratuit, c’est sans danger, et franchement, c’est quand même plus classe de dire que vous avez regardé un astéroïde passer près de la Terre plutôt que d’avoir bingé une série. Et qui sait, peut-être que ça vous donnera envie de lever les yeux vers le ciel plus souvent parce qu’il s’y passe des trucs incroyables !

Source

❌
❌