Microsoft vient d'annoncer la sortie d'un nouveau module PowerShell dédié à la gestion des snapshots ReFS : ReFSSnapshots. Il peut remplacer l'outil refsutil.
Rockstar maintient GTA 6 au 19 novembre 2026, mais des témoignages anonymes évoquent une forte pression en interne. Un nouveau signal inquiétant autour des conditions de travail avant le lancement.
Deux fois plus rapide que LZ4 en décompression ?? Ah bon c'est possible ? Évidemment, quand Bertrand Lebonnois a publié
zxc sur GitHub
, et m'a envoyé un email pour me prévenir, j'ai été jeter un œil, surtout aux benchmarks.
Et bien après analyse, c'est bien réel !
La philosophie de zxc est assez tranchée vous allez voir. Il s'agit d'une lib WORM (Write-Once, Read-Many) qui permet de compresser une fois lentement, à la compilation ou en CI, et ensuite de décompresser comme vous voulez des millions de fois sur les appareils de vos utilisateurs à la vitesse de l'éclair. Avec zxc, on accepte que la compression soit lente et complexe (pour trouver le bitstream parfait), afin que la décompression soit méga rapide et simple pour le processeur. C'est aussi simple que ça.
Le revers de la médaille, c'est que si vous voulez de la compression à la volée ou du streaming temps réel, ce n'est clairement pas adapté. Par contre, si vous produisez des assets une fois et qu'ensuite, vous les servez des milliers de fois, alors vous êtes exactement dans la cible.
En pratique, sur macOS M2 avec un corpus de test standard, zxc dépasse les ~12 000 Mo/s en décompression, contre ~5 600 Mo/s pour LZ4 --fast dans le même test. L'écart reste également hyper solide ailleurs : 1,8× sur ARM serveur (Google Axion) et 2× sur x86_64 (AMD).
Et l'API proposée par zxc ne s'arrête pas à un compresseur basique. En effet, un mode "seekable" permet d'accéder à n'importe quelle position d'une archive sans scanner le fichier depuis le début. Par exemple, vous packagez vos
assets de jeux vidéo
dans une seule archive zxc, et quand le joueur charge une texture précise, vous lisez directement le bon bloc, et pas tout le fichier.
Côté installation, c'est simple : brew install zxc sur macOS, apt install zxc sous Debian ou Ubuntu, pip install zxc-compress, npm install zxc, cargo add zxc-compress ou vcpkg install zxc sous Windows.
Des bindings officiels existent aussi pour Rust, Python, Node.js, Go et WASM et la communauté a aussi ajouté Nim et Free Pascal de son côté. Et comme c'est codé en C, y'a aucune dépendance lourde.
Sache que pour assoir la crédibilité du projet, zxc a été intégré dans lzbench et TurboBench, les deux outils de référence permettant de comparer les algos de compression. Et le paquet est déjà dispo dans les versions testing et unstable de Debian, ce qui veut dire que les mainteneurs ont validé le truc !
Bref, si vous gérez de la compression d'assets ou de firmwares dans votre pipeline, ça vaut le coup d'y jeter un oeil.
Merci à Bertrand pour l'info et chapeau pour le boulot !
Trois décennies que ReactOS essaie de devenir un clone open source de Windows, et le projet vient de mettre en place deux changements assez gros pour mériter un coup d'œil.
La 0.4.16 est entrée en phase finale cette semaine, avec des release candidates qui devraient suivre dans la foulée, et elle apporte une image d'installation unifiée plus un nouveau storage stack ATA. Deux gros morceaux qui devraient simplifier la vie de ceux qui veulent tester le truc sur de vraies machines.
Premier changement, fini les deux ISOs séparées. Avant, il fallait choisir entre l'image live (pour tester sans installer) et l'image d'installation. Maintenant tout est dans une seule image. Voilà.
Du coup, vous pouvez booter en live, voir si ça marche sur votre machine, et lancer l'installation directement depuis là si ça vous convient. Au passage, le vieil installeur en mode texte façon Windows 2000 risque d'être bientôt mis à la retraite au profit d'un parcours plus moderne.
Le deuxième changement est plus technique mais peut-être plus important. Le projet a remplacé son driver de stockage UniATA, qui datait de pas mal d'années, par un nouveau storage stack PnP-aware compatible NT6+.
Concrètement, ça veut dire un meilleur support des contrôleurs ATA et AHCI modernes, et donc une meilleure compatibilité avec le matos réel qu'on trouve dans les PC de 2026. C'était l'un des plus gros problèmes pour faire tourner ReactOS sur du hardware physique plutôt qu'en machine virtuelle.
ReactOS reste avant tout un projet pour les passionnés. La compatibilité avec les applications Windows modernes est encore très partielle, et quasi tout ce qui dépend de DirectX récent ou des frameworks .NET de dernière génération va planter.
Mais pour faire tourner un vieux logiciel pro orphelin, un jeu Win98 ou XP, ou simplement explorer comment fonctionne un OS de type Windows en open source, c'est tout indiqué.
Pour rappel, ReactOS n'est pas une distribution Linux qui imite Windows, c'est une réimplémentation complète et indépendante qui vise la compatibilité binaire avec les drivers et applications Windows NT.
L'objectif est de pouvoir lancer un .exe Windows directement, sans Wine ni couche d'émulation. Le projet est sur les rails depuis 1996, et même si ça avance lentement, chaque release apporte son lot d'améliorations concrètes.
Bref, si vous aviez ReactOS dans un coin de votre tête comme curiosité, la 0.4.16 sera sans doute le bon moment pour le retester sur une vieille machine.
Hackaday vient de remettre en lumière (c'est le cas de le dire) une technique de photo couleur quasi oubliée et complètement folle : les plaques Lippmann. Au lieu de découper la lumière en trois canaux RGB comme un capteur moderne, elles enregistrent le spectre complet, longueur d'onde par longueur d'onde.
Le résultat est tellement précis qu'un spectromètre peut le relire sans problème.
Le truc tient à un montage tout simple. Vous prenez une plaque de verre recouverte d'un gel photographique chargé en cristaux de halogénure d'argent extrêmement fins, et vous collez un miroir contre l'arrière.
Quand la lumière de la scène frappe la plaque puis se réfléchit sur le miroir, elle interfère avec elle-même et crée des ondes stationnaires. Ces ondes laissent dans le gel un motif d'argent métallique avec un espacement qui dépend directement de la longueur d'onde.
Du coup, après développement, la plaque ne contient pas une image RGB classique. C'est un empilement de réseaux de diffraction microscopiques, chacun calé sur sa propre longueur d'onde.
Quand vous éclairez le tout en lumière blanche, chaque réseau renvoie pile la couleur d'origine, sans approximation. Pour la première fois en 1891, Gabriel Lippmann avait littéralement enregistré la couleur "telle quelle", ce qui lui avait valu un prix Nobel de physique en 1908.
Le souci, c'est que la technique avait quasiment tous les défauts possibles côté usage. L'image n'apparaît correctement que sous un angle de vision très limité, l'exposition demandait des minutes voire des heures, les couleurs ressortaient parfois ternes selon l'éclairage, et il était impossible de tirer des copies.
Bref, intransportable, une photo unique, et compliqué à montrer. Forcément, ça n'a jamais décollé pour le grand public.
Reste que le principe lui-même n'est pas mort, il a juste muté en holographie. C'est exactement la même logique d'enregistrement par interférence d'ondes, sauf qu'on capture aussi la phase et pas seulement l'intensité spectrale.
Et à l'heure où les capteurs hyperspectraux deviennent abordables pour les bidouilleurs, l'idée de revisiter Lippmann avec du gel moderne et un éclairage cohérent commence à avoir du sens.
Si vous utilisez
Claude Code
au quotidien, vous connaissez ce goût de sang qui vous monte dans la bouche lorsque sans prévenir quand cette putain de limite de quota imposée par Anthropic vous explose à la gueule ! Et le pire c'est que vous n'avez pas l'impression d'avoir fait grand chose.
En réalité, la vraie raison c'est surtout le "bruit" de toutes vos sorties shell. Un git log, un cargo test, un npm build... votre agent IA ingère tout ça comme du petit lait alors qu'il n'a besoin que d'une fraction pour comprendre ce qui se passe.
Breeef, c'est pas ouf quoi.
Heureusement pour vous RTK (Rust Token Killer) vient régler en partie ce problème. RTK c'est développé par un français et c'est un proxy CLI en Rust qui s'intercale entre votre shell et votre agent IA, intercepte les commandes courantes et compresse leur sortie avant qu'elle n'atterrisse dans le contexte de votre agent.
Comme ça plutôt que de massacrer vos prompts ou de changer vos habitudes (et dieu sait que vous avez horreur de changer d'habitudes..lol), il attaque le bruit à la source grâce à 4 stratégies de compression : un filtrage du boilerplate, un regroupement des lignes similaires, une troncature intelligente et de la déduplication des répétitions.
Et tout ça s'intègre merveilleusement bien via un hook pour Claude Code, GitHub Copilot, Cursor, Gemini CLI, Windsurf, Cline, Codex... soit une bonne dizaine d'outils supportés !
Ainsi, votre git status devient rtk git status sans changer quoi que ce soit à vos habitudes... RTK fait tout le filtrage dans votre dos, ce qui est parfait ! C'est un outil qu'on installe et qu'on oublie.
Par exemple un git diff passe de 12 000 tokens à 960, soit 92% d'économie, un npm test tombe de 6 000 à 600 tokens et une session de refactoring sur 12 fichiers passe de 74 700 à 6 960 tokens d'après les benchmarks. En pratique, les utilisateurs constatent des économies autour de 70% sur l'ensemble d'une journée de boulot, ce qui représente plusieurs millions de tokens par semaine pour ceux qui bossent avec des agents IA à plein régime.
Moi ça fait plusieurs mois que je le teste et voici mes stats. Ça donne quand même 81,5 % d'économie de tokens !!
L'installation se fait en une commande : brew install rtk sur macOS, ou un script curl pour les autres plateformes, ou cargo install --git https://github.com/rtk-ai/rtk si vous préférez compiler ça vous-même.
Avec la commande rtk gain vous verrez un tableau comme ci-dessus avec les statistiques par commande, et rtk gain --history donnera l'historique détaillé. Y'a plus de 100 commandes couvertes, de git aux runners de tests en passant par AWS CLI, kubectl et docker. Par contre, ça marche pas super bien si vos sorties de commandes sont déjà très courtes. Ça ne fera pas de miracle mais pour des diffs volumineux ou de suites de tests qui crachent 3 000 lignes à chaque fois, c'est tip top !
Si vous utilisez
des agents en mode autonome
où une boucle tourne sans intervention, c'est même encore plus pertinent car chaque itération accumule du bruit de façon cumulative, et du coup le contexte se remplit de trucs inutiles à vitesse grand V. Moins de bruit grâce à RTK, c'est donc une économie de tokens mais c'est également un meilleur signal pour votre agent.
RTK est dispo en open source sur
GitHub
sous licence Apache 2.0.
Vous avez un service qui tourne sur le port 8080, mais aucune authentification native dessus et vous voulez ajouter OAuth2 sans avoir à toucher au code ? Vous êtes vraiment exigeant dans la vie !
Mais comme vos désirs sont des ordres, je vous présente oauth2-proxy dont c'est EXACTEMENT le boulot !
Le principe avec cet outil c'est qu'il se glisse entre l'utilisateur et votre application. Ainsi, si la personne n'est pas connectée, elle est alors redirigée vers son provider OAuth2 ou OIDC. Et une fois le token validé, popopop, la requête repart vers son point d'origine avec les infos utilisateur dans les headers HTTP. Et voilà comme votre app reçoit le nom, l'email, et les groupes associés à l'utilisateur ! Plus besoin de gérer l'auth dans votre code c'est que du bonheur !
Et la liste des providers supportés par oauth2-proxy est longue : Google (c'est celui par défaut), GitHub, GitLab, Microsoft Entra ID, Keycloak, Gitea / Forgejo, NextCloud, DigitalOcean, LinkedIn, Bitbucket, Cisco Duo... et un bon vieux client OIDC générique pour tout ce qui expose un accès standardisé. Comme ça si votre SSO interne parle OIDC, vous êtes déjà couvert !
Côté déploiement, c'est un simple binaire en Go et c'est également disponible en image Docker sur quay.io/oauth2-proxy/oauth2-proxy, pour AMD64, ARM64, ARMv6/v7, et quelques architectures plus exotiques du genre ppc64le, s390x pour les bandeurs de mainframes ^^.
Ensuite, l'outil peut fonctionner de 2 façons : Soit en proxy autonome devant votre service, ou en middleware intégré dans un reverse proxy existant comme nginx via le mécanisme auth_request. Dans ce second mode, oauth2-proxy ne fait en réalité que vérifier la session et répondre du code 202 ou 401. C'est nginx qui gère le routage et le proxy lui se contente d'authentifier les gens.
Et voilà, si vous cherchez à minimiser la surface d'attaque, c'est la config à privilégier. Tout est là :
github.com/oauth2-proxy/oauth2-proxy
, avec la doc complète. Et si vous cherchez quelque chose de plus intégré, avec tunnel et gestion des tunnels VPN en prime, il y a aussi
Pangolin
dont je vous ai parlé. Et pour du plus simple en contexte Docker,
TinyAuth
fera également très bien le taf.
Naoki Hamaguchi, le réalisateur de la partie 3 du remake de Final Fantasy VII, a commenté l'avancement du développement. Il a ainsi révélé avoir déjà terminé plusieurs fois le jeu.
La voiture électrique est souvent présentée comme la grande gagnante quand les carburants flambent. Pourtant, en avril, les immatriculations reculent par rapport à mars. Nous a-t-on menti ?
L'étude de la collision des particules au Cern a donné des résultats qui contredisent le modèle standard de la physique. Si cela se confirme, ce serait une remise en cause du socle qui maintient la science moderne depuis des décennies.
The Blood of Dawnwalker, futur RPG inspiré de The Witcher et prévu pour la rentrée, pourra être terminé en deux temps trois mouvements. À condition d'être extrêmement bon…
Le procès entre Elon Musk et Sam Altman, qui pourrait bouleverser l'avenir d'OpenAI, va être diffusé en direct à partir de sa seconde semaine. Problème : le tribunal n'autorise qu'un flux audio. Il sera impossible de le regarder en vidéo.
La transition vers le 100 % électrique chamboule les plans financiers des constructeurs. Pour Volkswagen, la question de la rentabilité des voitures électriques intervient dans un contexte d'incertitude du marché. Le groupe mise énormément sur sa future plateforme avec Rivian pour réduire les coûts.
C'est une guerre ouverte pour la domination des écrans géants. Alors que Disney vient de lancer « Infinity Vision », son propre label pour les salles premium, le CFO d'IMAX n'a pas mâché ses mots. Pour l'entreprise technologique, cette nouvelle certification n'est qu'un écran de fumée destiné à masquer une faiblesse stratégique de la firme aux grandes oreilles.
« Parler à l'envers, pourquoi Yoda le fait-il ? » En ce 4 mai, journée mondiale de Star Wars, retour sur le secret de fabrication du phrasé le plus célèbre de la galaxie. De l'intention pédagogique de George Lucas à l'improvisation du marionnettiste Frank Oz, voilà comment l'hyperbate est devenue la signature ultime du maître Jedi.
[Deal du jour] Le QuietComfort Ultra II est le casque haut de gamme de Bose. Un modèle de grande qualité, dont le prix baisse sur Amazon pendant les French Days.
Une impressionnante galerie d'images prises durant la mission Artémis II a été publiée par la Nasa. Plus de 12 000 images de ce voyage exceptionnel autour de la Lune sont disponibles.