Transférer des fichiers entre votre Mac et votre téléphone Android, c'est souvent la galère. L'ancien Android File Transfer de Google était une horreur absolue et depuis qu'ils ont arrêté de le maintenir, y'a pas grand-chose de potable. C'est d'ailleurs pour ça que beaucoup d'utilisateurs de Mac ont également un iPhone.
Alors quand je suis tombé sur DroidDock, forcément ça m'a intrigué. C'est une app macOS qui se branche sur votre téléphone via ADB et qui vous permet de naviguer dans les fichiers comme si c'était un Finder amélioré. Vous branchez votre câble USB, vous activez le débogage USB sur votre Android et c'est parti mon kiki !
Et là où c'est pratique c'est que vous pouvez prévisualiser vos images et vidéos directement dans l'app sans avoir à les télécharger d'abord. Vous avez trois modes de vue (grille, liste ou miniatures) et le drag & drop fonctionne dans les deux sens. Vous glissez un fichier depuis votre Mac vers DroidDock, il atterrit sur votre téléphone. Et l'inverse marche aussi.
Le dev a aussi pensé à pas mal de trucs pratiques du genre si vous avez plusieurs appareils Android branchés en même temps, hé bien vous pouvez switcher de l'un à l'autre sans les déconnecter. Y'a aussi un mode sombre pour ceux qui bossent la nuit et une barre de recherche pour farfouiller dans vos dossiers. D'ailleurs si vous utilisez
scrcpy pour contrôler votre Android depuis le Mac
, DroidDock fait un bon complément pour la partie fichiers.
Sous le capot, ça utilise Tauri avec du Rust et React et l'app est tellement légère qu'elle fonctionnera parfaitement sur un vieux Mac. Le projet est open source sous licence MIT et vous pouvez le télécharger ici : [DroidDock](
https://rajivm1991.github.io/D
Des chercheurs viennent de trouver un truc complètement dingue. Un modèle de langage entraîné UNIQUEMENT sur de l'anglais, du texte humain basique quoi, est capable de comprendre la biologie moléculaire sans jamais avoir vu une seule séquence de protéines durant son entraînement.
En gros, GPT-2 qui fait de la paraphrase d'ordinaire est, sans le savoir, un expert en détection d'
homologie protéique
. Je vous jure que c'est vrai !!
Liang Wang, chercheur à l'Université de Wuhan (les pangolins, tout ça tout ça, loool), a publié
une étude sur bioRxiv
qui remet en question pas mal de certitudes. L'idée, c'est que la "grammaire" du langage humain et celle du vivant partagent une structure profonde commune. Du coup, un modèle qui apprend à distinguer des phrases qui ont le même sens mais avec des mots dans un ordre différent... développe aussi la capacité de reconnaitre les protéines qui sont de la même "famille".
Perso, ça me retourne le cerveau parce qu'à la base, on parle "juste" d'un petit GPT-2 de 124 millions de paramètres, entraîné sur le dataset PAWS (des paires de phrases anglaises adverses), qui atteint 84% de précision sur la détection d'homologie protéique. Sans jamais avoir vu d'acides aminés ! C'est comme si votre chat, après avoir appris le français, se mettait soudainement à comprendre le chinois.
Et ça devient encore plus fou quand on scale. Les gros modèles comme Qwen-3 atteignent quasiment 100% de précision sur les benchmarks standards, mais le plus impressionnant, c'est leur performance dans la "zone crépusculaire" de l'évolution, là où les séquences protéiques ont moins de 25% d'identité entre elles. Dans ce régime où même les outils spécialisés comme
ESM-2
peinent à maintenir leurs performances, les LLM généralistes maintiennent 75% de précision.
Ils raisonnent là où les autres mémorisent !
D'ailleurs, si vous aimez l'actu IA et biologie, vous avez peut-être déjà lu mes articles sur
Evo 2
ou
SimpleFold d'Apple
. Ces outils-là sont entraînés sur des montagnes de données biologiques alors que dans le cas que je vous expose ici, c'est l'inverse. C'est un LLM tout ce qu'il y a de plus classique qui n'a pas BESOIN de ces données spécifiques pour comprendre la structure du vivant (enfin, ça doit encore être bien validé par d'autres équipes mais on verra bien).
Alors vous vous en doutez, curieux, les chercheurs ont analysé ce qui se passe dans la tête du modèle. Certaines "
têtes d'attention
" du transformer deviennent des détecteurs universels de différences. La même tête qui repère une inversion sujet-objet dans une phrase anglaise va spontanément repérer les mutations d'acides aminés dans une protéine. Et voilà comment la syntaxe du langage humain et la syntaxe de la vie se retrouvent projetées sur le même "manifold" c'est à dire dans la même "surface" géométrique dans l'espace latent du modèle.
Et quand on demande aux gros modèles d'expliquer leur raisonnement via Chain-of-Thought (enchainement de pensées comme ce que propose ChatGPT 5.2 en mode thinking par exemple), ils font du "mental folding". C'est à dire qu'ils imaginent la structure 3D des protéines à partir de la séquence 1D. Le modèle identifie explicitement des motifs structurels comme "
Hélice-Coude-Hélice
" versus "
Tonneau TIM
" pour déterminer si deux protéines sont apparentées. Et tout ça sans jamais avoir reçu de coordonnées 3D en entrée.
Pour formaliser tout ça, l'équipe a donc créé BioPAWS, un benchmark qui évalue la capacité des modèles à transférer leur compréhension syntaxique du langage vers l'ADN, l'ARN et les protéines. Le dataset est dispo sur
Hugging Face
pour ceux qui veulent jouer avec.
Bref, si la grammaire humaine et la grammaire biologique sont vraiment des manifestations d'une même structure universelle, ça change pas mal de choses sur comment on pourrait faire de la découverte scientifique à moindre coût. Plus besoin de datasets monstrueux pour chaque domaine, les patterns abstraits sont peut-être déjà là, encodés dans le langage qu'on utilise tous les jours.
Y'a un truc qui me rend joyeux avec le web, c'est quand des devs décident de pousser les technos dans leurs retranchements juste pour prouver que c'est possible.
Et VoxCSS, c'est totalement ça : une bibliothèque JavaScript qui permet de faire du rendu voxel complet en utilisant uniquement le DOM et le CSS. Alors attention, quand je dis "uniquement", je veux dire sans WebGL et sans l'élément <canvas>. Juste des éléments HTML empilés intelligemment qui tirent parti de l'accélération matérielle du navigateur pour les transformations 3D.
Pour cela, VoxCSS utilise des grilles CSS superposées sur l'axe Z pour créer un espace volumétrique. Chaque niveau de profondeur est une grille CSS classique, décalée avec des translations 3D. Les voxels eux-mêmes sont des cuboïdes HTML composés de plusieurs faces positionnées avec des rotations CSS.
Par défaut, la scène utilise une perspective de 8000px et le fameux transform-style: preserve-3d pour que la magie opère... Un pur hack de génie qui transforme votre navigateur en moteur 3D sans passer par les API habituelles !
Et le rendu n'est pas dégueu du tout puisque le moteur gère les couleurs, les textures, et même différentes formes comme des rampes, des pointes ou des coins pour sortir du simple cube de base. Pour ceux qui se demandent comment ça se passe pour les ombres, VoxCSS simule également un éclairage en jouant sur l'opacité des faces, ce qui donne ce petit relief indispensable au style voxel. Vous pouvez même choisir entre différentes projections (cubique ou dimétrique) pour donner le look que vous voulez à votre scène.
Côté performances, même si on parle de manipuler potentiellement des milliers d'éléments DOM, l'équipe de Layoutit Studio a bien bossé. Y'a un système de "culling" pour ne pas calculer les faces cachées (on n'affiche que la surface extérieure, quoi) et une option de fusion (le mergeVoxels) qui permet de regrouper les cubes adjacents pour alléger la structure HTML. C'est pas activé par défaut, mais c'est indispensable dès que votre château Minecraft commence à prendre de l'embonpoint.
L'installation se fait via
npm install @layoutit/voxcss
La lib est hyper flexible puisqu'elle propose des wrappers pour React, Vue et Svelte, tout en restant utilisable en vanilla JS.
Vous posez votre caméra (<voxcamera>) pour gérer le zoom et la rotation, vous injectez votre scène (<voxscene>), et roule ma poule. Cerise sur le gâteau pour les artistes, VoxCSS inclut un parser pour charger directement vos fichiers .vox créés dans MagicaVoxel.
Si vous voulez tâter la bête sans coder, allez faire un tour sur Layoutit Voxels, l'éditeur qui sert de démo technique. Ils ont aussi sorti Layoutit Terra qui génère des terrains entiers avec la même techno.
Franchement, pour un gros jeu en prod, OK pour du WebGL, mais pour créer des éléments interactifs stylés, des petites scènes 3D ou juste pour la beauté du geste technique, c'est un sacré bel outil.
Et puis, faire de la 3D sans toucher à un seul shader, ça a un petit côté cool je trouve.
Si vous en avez marre de confier vos notes perso à Notion ou Evernote et que vous voulez reprendre le contrôle de vos données,
Alexandrie va vous plaire
! C'est une app open source française qui permet de prendre des notes en Markdown au travers d'une interface plutôt moderne, tout en gardant vos données là où vous voulez qu'elles soient : Chez vous.
Alexandrie, c'est avant tout un éditeur Markdown amélioré qui vous permet d'organiser vos notes par workspaces, catégories et tags. L'interface est clean, la recherche instantanée, et vous pouvez exporter vos notes en PDF ou Markdown !
Ce qui est cool, c'est que l'app fonctionne aussi hors ligne grâce à la technologie PWA. Vous pouvez donc bosser sur vos notes dans le train ou l'avion, et tout se synchronise dès que vous avez du réseau. Et si vous voulez partager des notes avec d'autres personnes, y'a un système de permissions pour gérer qui peut voir et modifier quoi.
Côté technique, Alexandrie tourne sur Vue/Nuxt pour le frontend et Go pour le backend, avec une base MySQL et un stockage compatible S3 et comme d'hab, tout ça se déploie avec un simple "docker compose up".
La grosse différence avec Notion ou Obsidian, c'est que vous contrôlez tout. Vos données restent sur votre serveur ou votre machine, rien ne transite par des serveurs américains. C'est donc de l'auto-hébergé, 100% hors ligne si vous voulez, et c'est compatible avec plein d'autres apps Markdown si vous souhaitez migrer plus tard.
C'est bien de voir une app française qui mise sur la souveraineté des données plutôt que sur le cloud américain ! C'est en train de devenir quelque chose de très recherché en ce moment. Bon après, faut être prêt à gérer soi-même l'hébergement, mais avec Docker c'est pas la mer à boire non plus.
Voilà, si vous cherchez une alternative open source à Notion qui respecte votre vie privée, c'est
par ici
.
Hier soir, je suis tombé sur ce gestionnaire de mot de passe clairement conçu pour les puristes et je me suis dit que ça pourrait vous intéresser. Parce que si ça vous casse la tête de devoir confier vos identifiants et autres mots de passes à des services dans le cloud qui ont connu quelques déboires de sécurité ces derniers temps (suivez mon regard... Oh Lastpass, comment ça va ?), j'ai exactement ce qu'il vous faut !
Ça s'appelle
LocalPass
, c'est open source et surtout c'est conçu pour fonctionner 100% en offline. J'ai testé ça ce matin sur mon laptop et c'est assez simple à utiliser.
Mais avant pour ceux qui se demandent quel est l'intérêt d'un gestionnaire de mots de passe local par rapport à un truc comme
Bitwarden
ou
Dashlane
, la réponse est simple : la souveraineté. Bah ouais, c'est logique. Avec LocalPass, vos données ne quittent jamais votre machine. Pas de cloud, pas de synchro mystérieuse, pas de télémétrie. C'est vous, votre fichier chiffré, et c'est tout.
Perso, j'ai longtemps utilisé des solutions cloud pour le confort, mais depuis quelques mois, je cherche à revenir sur des trucs plus locaux pour tout ce qui est critique, du coup LocalPass tombe à pic.
Côté technique, c'est du solide (sur le papier en tout cas) puisque l'outil est développé en Python et utilise Argon2id pour la dérivation de clé (ce qui rend les attaques par force brute bien pénibles pour les méchants) ainsi que
AES-GCM
pour le chiffrement.
L'utilisation ensuite c'est pas compliqué si vous avez déjà touché à une ligne de commande. D'ailleurs, pour l'installer, un petit coup de pip suffit (sauf si vous n'avez pas Python, là faut l'installer avant hein) :
pip install localpass
Ensuite, vous initialisez votre coffre-fort :
localpass init moncoffre.lp
Et hop, vous pouvez commencer à ajouter vos comptes (je vous laisse aller lire la doc sur le github). C'est un peu comme utiliser
KeePass
(que j'adore hein, pas de méprise), sauf que l'interface graphique de KeePass... comment dire... elle pique parfois un peu les yeux. Là, avec LocalPass, vous restez dans votre terminal chéri. Vous pouvez lister vos entrées, récupérer un mot de passe ou générer des identifiants sécurisés directement depuis votre shell.
Le truc cool, c'est que même si l'outil est "offline first", LocalPass intègre une fonction (totalement optionnelle et manuelle rassurez-vous) pour vérifier si vos mots de passe ont fuité via l'API de Have I Been Pwned. Mais rassurez-vous, ça utilise la méthode k-anonymity ce qui veut dire que votre mot de passe ne transite jamais en clair. Seul un bout de son hash est envoyé. C'est dnc le compromis idéal entre paranoïa et sécurité active.
Après moi le truc qui m'angoisse un peu avec ces gestionnaires de mots de passe locaux, ce sont les backups. Parce que si vous perdez votre fichier ".lp" ou votre mot de passe maître, c'est game over ca y'a pas de "Mot de passe oublié ?" ici. Donc comme toujours, FAITES DES SAUVEGARDES (sur différentes clé USB chiffrées par exemple que vous stockerez à différents endroits y compris hors de chez vous).
Si vous ne le faites pas, faudra pas venir pleurer après ^^.
Si vous avez envie de pimper votre bio Instagram, votre pseudo Discord ou vos posts TikTok avec des caractères stylisés qui sortent de l'ordinaire, Font Generator va vous plaire ! C'est un outil gratuit en ligne qui convertit votre texte en 170+ styles différents basés sur Unicode, histoire de vous démarquer un peu dans la jungle des réseaux sociaux.
Vous tapez votre texte dans la case, et hop, l'outil vous génère instantanément des dizaines de variantes : polices Script Bold Italic, Fraktur (style Old English), texte dans des bulles, lettres barrées, superscript, et j'en passe. Du coup, vous scrollez les styles disponibles, vous trouvez celui qui vous plaît, et vous le copiez-collez directement où vous voulez. Ça marche sur Instagram, Discord, Twitter/X, et même dans les jeux comme Roblox ou Fortnite.
Ce qui est cool, c'est que tout ça repose sur des caractères Unicode. Concrètement, ça veut dire que ce ne sont pas de vraies polices au sens technique, mais des caractères spéciaux qui existent déjà dans la norme Unicode. Résultat, pas besoin d'installer quoi que ce soit, ça fonctionne partout où l'Unicode est supporté (spoiler : QUASIMENT PARTOUT). Vous copiez, vous collez, et ça s'affiche correctement.
Ayez quand même conscience que pour les personnes malvoyantes, avec les lecteurs d'écran, c'est pas top. Ils ne pourront pas lire ce que vous écrivez comme ça. Donc si vous voulez rester accessibles à tous, ce genre de style d'écriture est à proscrire.
Ah et faut quand même que je précise un truc important : tous les styles ne proposent pas l'intégralité de l'alphabet. Certains ne fonctionnent qu'avec des lettres spécifiques ou ne supportent pas les chiffres. C'est une limite de l'Unicode lui-même, pas de l'outil. Du coup, si votre texte contient des caractères non supportés par un style, ils s'afficheront normalement. Rien de dramatique, mais c'est bon à savoir avant de s'énerver. Et attention, certaines applis mobiles plus anciennes peuvent afficher des carrés vides à la place des caractères exotiques.
L'outil propose aussi des collections spécialisées par plateforme : polices Instagram, polices Discord, polices Twitter, et même des trucs plus niche comme Adopt Me ou Fortnite. Y'a de quoi faire ! Et tout est gratuit, sans inscription, sans pub envahissante.
Perso, je trouve ça pratique pour se démarquer un peu, surtout que tout le monde utilise les mêmes typographies chiantes sur les réseaux. Essayez dans vos bio, ça attire plus l'œil que du texte standard. Après, faut pas en abuser non plus, sinon ça devient illisible. Mais pour une bio qui claque ou un pseudo qui attire l'œil, c'est nickel.
Vous mourrez. Votre crypto meurt avec vous. Et votre famille n'a aucune idée de comment récupérer vos Bitcoins, vos Ethereum ou vos autres actifs numériques. Sympa l'héritage !
C'est exactement le problème que
Deadhand
vient résoudre avec une approche plutôt bien pensée : le partage de secret de Shamir (Shamir's Secret Sharing pour les intimes). En gros, au lieu de refiler votre seed phrase à quelqu'un en lui faisant confiance les yeux fermés, l'outil la découpe en 3 morceaux qu'il éparpille intelligemment.
Vous gardez le Shard A. Votre bénéficiaire reçoit le Shard B. Et le serveur Deadhand stocke le Shard C. Et là, c'est mathématiquement prouvé : n'importe quelle combinaison de 2 shards permet de reconstruire la phrase complète, mais un seul shard tout seul = zéro info utilisable.
Le truc cool avec ce système c'est surtout le système d'homme-mort automatique. Tous les 30 jours, Deadhand vous envoie un mail "T'es toujours vivant ?". Vous cliquez sur le lien, le timer se réinitialise, et hop c'est reparti pour un tour. Simple, non ? Mais si pendant 90 jours vous ne donnez pas signe de vie (RIP), le serveur envoie alors automatiquement le Shard C à votre bénéficiaire qui peut alors le combiner avec son Shard B pour récupérer la seed phrase originale.
Du coup, personne n'a le contrôle total à aucun moment. Si le serveur se fait hacker ? Les pirates récupèrent que le Shard C, TOTALEMENT INUTILE sans les autres. Si votre bénéficiaire devient malveillant ? Il a juste le Shard B, pareil, ça sert à rien tout seul. Et si vous perdez votre Shard A ? Pas de panique, votre bénéficiaire peut toujours combiner B + C pour récupérer l'accès.
Techniquement, c'est du FastAPI côté backend avec PostgreSQL pour la base de données. Le frontend reste sobre avec du HTML, TailwindCSS et HTMX. Et surtout, tout le chiffrement se passe côté client dans votre navigateur via la bibliothèque secrets.js, donc vos clés ne transitent jamais en clair sur le réseau. Architecture zéro-trust comme on dit... même les administrateurs du serveur ne peuvent pas accéder à vos données.
Bon, faut quand même préciser que c'est un MVP (minimum viable product). Les développeurs sont honnêtes là-dessus : ça demande du durcissement avant la prod. Il faut implémenter HTTPS comme il faut, auditer la lib secrets.js, sécuriser l'infrastructure de la base de données et remplacer le mock email par un vrai fournisseur genre SendGrid ou AWS SES. Donc attention, c'est pas encore prêt pour mettre vos millions de Bitcoin dedans, hein.
Niveau installation, rien de bien compliqué si vous voulez tester en local. Vous clonez le repo GitHub, vous installez les dépendances avec pip install -r requirements.txt, puis vous lancez python -m uvicorn app.main:app --reload --port 8000 et vous accédez à http://localhost:8000. Bon, évidemment faut avoir Python 3.9+ installé, mais ça vous le savez déjà. Et le projet est sous licence MIT donc complètement open source, ce qui fait que vous pouvez auditer le code vous-même si vous en avez les capacités (ce n'est pas mon cas).
Perso, je trouve le concept vraiment intelligent par contre. Pas besoin de faire confiance à une boîte centralisée ou de refiler vos clés à un proche en croisant les doigts pour qu'il ne se fasse pas pirater ou qu'il ne perde pas le bout de papier. Le partage de secret de Shamir, c'est pas nouveau mais l'appliquer à l'héritage crypto avec un dead man's switch automatisé, c'est pas mal du tout !
Bref, si la question de l'héritage de vos cryptos vous turlupine (et elle devrait),
Deadhand
propose une piste sérieuse à creuser. Et si vous cherchez aussi à
sécuriser physiquement vos seed phrases
, jetez un œil à SeedKeeper.
– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –
Bon, vous commencez à me connaître, j'ai une passion presque maladive pour les câbles, les batteries et tout ce qui permet de nourrir mes trucs de geek maladif. J’ai acheté il y a quelques semaines ce bloc chargeur de chez Anker équipé d’un grand écran, et franchement, je l’adore. Il trône sur mon bureau, sous mon écran, et je charge absolument tout avec lui. Il fournit 250W en GaN, et autant vous dire qu’avec ce truc, votre bureau ne sera plus jamais le même.
Au premier coup d'œil, la bête ressemble à un petit réveil futuriste, compact et plutôt mignon avec sa robe grise assez classique des produits Anker Prime sortis ces dernières semaines. Puis vous le branchez, et là on change un peu de dimension. On se retrouve face à un chouette écran LCD de 2,26 pouces qui affiche en temps réel ce qui se passe dans le ventre de la bête. C’est le genre de détail dont je ne pourrai plus jamais me passer : voir les watts défiler précisément port par port, c'est limite hypnotique et vraiment très satisfaisant.
La fiche technique est tout simplement monstrueuse avec quatre ports USB-C en façade et deux ports USB-A sur le côté. Le premier port USB-C est capable à lui tout seul de balancer 140W, ce qui vous permettra de redonner 50% de batterie à un MacBook Pro 16 pouces en quelque 25 minutes. Avec une puissance totale de 250W, vous pouvez même alimenter simultanément deux ordinateurs portables, une tablette et vos smartphones divers et variés sans faire chauffer le boîtier (merci la technologie GaN).
L’autre truc très marrant c’est la molette de contrôle située sur le côté de l'appareil. En tournant et en cliquant, on accède à une gestion plus fine de l'énergie délivrée. On peut par exemple activer le mode Dual-Laptop pour prioriser deux ordinateurs, ou passer en mode Low Current pour optimiser la charge des petites batteries de vos AirPods ou de votre Apple Watch durant la nuit. Tout est transparent, intuitif, et on peut même gérer l'ensemble depuis une application dédiée sur son smartphone si l'on a la flemme de tendre le bras. Pour être très honnête je n’utilise jamais la molette, je l’ai branché, et par défaut, c’est déjà parfait.
Pour ceux qui veulent vraiment un réveil sur leur bureau, en mode horloge, le chargeur affiche l'heure et la date proprement. C’est validé pour ça aussi.
Alors certes, c’est 160 euros, mais franchement c’est tellement puissant, pratique, design et satisfaisant, qu’à mon avis, ça vaut vraiment le coup, surtout si vous aussi, vous aimez voir les watts défiler en temps réel. Disponible par ici, sur Amazon !
Non mais attendez... y'a un mec qui vient de concevoir
une carte mère 486 from scratch
, en grand 2026 comme disent les jeunes ! Pas une repro. Pas un clone. Non non, une vraie carte mère complète avec son propre chipset custom qui fait tourner DOOM et Linux.
Un PCB 4 couches fait maison, rien que ça !!
Piotr Grzesik, alias maniek86, est un étudiant en électronique polonais qui s'est lancé dans un projet complètement dingue. Tout est parti d'une sombre arnaque sur une carte POST ISA chinoise... et suite à ça, il s'est dit "bon, je vais apprendre le VHDL et l'ISA bus moi-même". En fait, au début je pensais que c'était juste un projet de bricolage de plus, mais non. De fil en aiguille, il a fini par créer la
M8SBC-486
, une carte mère qui accueille de vrais processeurs Intel 486 vintage.
La carte mère M8SBC-486 dans toute sa splendeur rétro
Et le bonhomme n'a pas juste fait un PCB, mais a carrément développé son propre chipset baptisé "Hamster" qui tourne sur un FPGA Xilinx Spartan II. Il aurait pu utiliser un FPGA récent mais il a préféré le Spartan II parce que les outils Xilinx modernes supportent plus ces vieilles puces. Donc il bosse avec des logiciels de 15 ans d'âge... logique.
Et dedans, y'a tout ce qu'il faut pour émuler un PC des années 90 : un timer 8254, un contrôleur d'interruptions 8259, un contrôleur clavier PS/2, et même une horloge temps réel.
Côté specs c'est du bon vieux socket PGA-168 compatible avec tous les processeurs 486 5V, que ce soit du Intel ou des compatibles. Le bus tourne à 24 MHz, ce qui donne du 48 MHz avec un DX2 (et théoriquement 72 MHz avec un DX4). Y'a 4 Mo de SRAM, 256 Ko de ROM pour le BIOS, et deux slots ISA 16 bits pour les nostalgiques des cartes d'extension. Attention par contre, si vous comptez utiliser un 486 3.3V genre les derniers AMD, ça passera pas... faut du 5V uniquement.
Perso, ce qui m'impressionne le plus c'est la liste des trucs qui tournent dessus. MS-DOS 6.22 évidemment, FreeDOS, mais aussi Linux 2.2.26 ! Sans oublier DOOM, Wolfenstein 3D, et la démo Second Reality qui en a fait baver plus d'un à l'époque. Même Windows 3.1 démarre. Bon, la souris fonctionne pas, mais quand même...
J'aurais bien voulu tester moi-même sur un vieux 486 DX2/66 qui traîne quelque part dans un carton au garage, mais retrouver ce truc c'est un projet en soi. Finalement, si vous êtes fan d'
émulation rétro
, c'est pil poil le genre de projet qui fait rêver les vieux grands enfants que nous sommes !
Le plus beau dans tout ça, c'est que Piotr a publié l'intégralité du projet en open source sur GitHub : les schémas, le PCB, le code VHDL du chipset, les sources du BIOS... Tout est dispo. Du coup si vous avez envie de vous lancer dans le rétrocomputing hardcore, vous savez où chercher.
Bon après, y'a quelques limitations. C'est là que ça peut coincer car y'a pas de DMA, donc oubliez les cartes son type Sound Blaster. Pas de second PIC non plus, et le Plug and Play ISA n'est pas encore implémenté dans le BIOS. Sauf si vous êtes prêt à contribuer au code, évidemment.
Mais franchement, pour un premier essai de cette envergure, c'est du très très solide.
Bref, si vous voulez voir la bête en action, la vidéo montre la démo Second Reality qui tourne avec quelques petits glitches visuels et pas de son, mais c'est normal vu les limitations.
Et si vous avez des vieux 486 qui traînent dans un carton, vous avez maintenant une raison de les ressortir !
Vous vous êtes déjà demandé à quoi ressemblerait un magazine fabriqué quasi entièrement par des IA ?
Hé bien ne cherchez plus et allez lire
Les Heures Claires
! Il s'agit d'un mensuel d'environ 90 pages où 99% du contenu, des articles aux illustrations, est généré avec l'aide d'outils comme Midjourney, DALL-E 3 ou ChatGPT. "Avec l'aide" ça veut dire qu'il y a quand même des humains derrière, hein...
Le projet est né de l'imagination de Rémi Rostan, un photographe Google Street View certifié et le gars connaît bien l'image et la technologie, car ça se sent dans le résultat.
Concrètement, le mag est découpé en trois sections. Y'a "Les Heures Innovantes" qui cause tech et IA, "Les Heures Claires" qui explore le côté créatif et artistique, et "Les Heures Sombres" pour le ton plus décalé et humoristique. Perso, c'est ce mélange des genres qui rend le truc intéressant... On est donc loin d'un énième catalogue de prompts Midjourney ou d'un PDF SlopAI ^^.
Et d'ailleurs, en parlant de Midjourney, c'est là que
GenIArt
entre en jeu. Cette communauté francophone, fondée par Nicolas, un fidèle lecteur de Korben.info, en avril 2023, regroupe plus de 3000 membres sur Discord et contribue régulièrement au magazine avec des tutoriels et des techniques de prompt engineering. Ils ont même remporté un prix aux AI Film Awards de Cannes 2025 avec leur clip "Croquette Crew".
Pas mal pour des passionnés !
Côté diffusion, le mag a déjà conquis environ 10 000 lecteurs, avec 1000 à 1500 nouveaux abonnés chaque mois. Vous pouvez le lire gratuitement en PDF et depuis quelques mois, y'a même une version anglaise pour l'international.
Ce qui est vraiment dingue, c'est que Rémi et ses contributeurs utilisent plus de 20 outils IA différents pour produire chaque numéro. Magnific pour l'upscaling, Generative Fill pour les retouches, et tout un arsenal de modèles de langage pour les textes... Et depuis, le projet a évolué avec la création de
StudioLHC
, un studio créatif qui propose maintenant ses services aux marques et agences qui veulent intégrer l'IA générative dans leur communication.
La boucle est bouclée !
Moi je trouve ça génial. Les articles sont excellents et les illustrations et autres photos, vraiment très bien exécutées. En plus on apprend des choses.
Bref, si vous voulez voir ce que donne la création de contenu assistée par IA quand c'est bien fait, Les Heures Claires est un exemple plutôt convaincant. Ça fait réfléchir sur l'avenir de l'édition... et c'est un peu le but.
Alors ça, c'est une news qui m'énerve un peu ! Parce que oui, écouter sa communauté c'est bien, sauf que ça veut pas dire qu'elle a toujours raison.
En ce moment, y'a une vague de joueurs en colère qui forcent des studios de jeux vidéos à annuler des projets ou à prendre leurs distances avec tout ce qui touche de près ou de loin à l'IA générative. Et du coup, des jeux se font dézinguer avant même d'avoir prouvé quoi que ce soit.
Prenez Postal: Bullet Paradise. Le trailer sort, des joueurs crient à l'IA dans les graphismes, et
hop, l'éditeur Running With Scissors annule tout
. Le studio Goonswarm Games ferme boutique. Pouf, tout ça pour des soupçons ! Ils ont admis après coup que du matos promo contenait peut-être de l'IA, mais le jeu lui-même ? Nop, y'avait pas d'IA. C'est con hein ?
Y'a aussi
Clair Obscur: Expedition 33
, le RPG de Sandfall Interactive qui a raflé le Game of the Year aux The Game Awards 2025 (avec 9 prix sur 12 nominations !). Sauf que les Indie Game Awards lui ont retiré ses deux prix parce que le studio avait utilisé de l'IA comme placeholders pendant le dev. Le directeur Guillaume Broche a pourtant été clair : tout dans le jeu final est fait par des humains. Hé bien ça n'a pas suffi !
Et même Larian, les papas de Baldur's Gate 3, se sont pris un shitstorm quand Swen Vincke a confirmé que le studio utilisait l'IA générative pour le concept art et l'exploration d'idées sur le prochain Divinity. Il a dû faire marche arrière après que des ex-employés ont révélé que certains devs étaient contre cette décision en interne. Tout ça pour du concept art qui n'aurait même pas été dans le jeu final !
Perso, je comprends pas que ce soit un débat. Un bon jeu, c'est quoi ? C'est un gameplay qui tient la route, une histoire qui accroche, des mécaniques bien foutues. Pas le fait qu'un humain ait dessiné chaque pixel à la main.
Y'a des tas d'humains qui produisent de la merde tous les jours. Pourquoi ce serait automatiquement meilleur qu'une IA bien pilotée par des gens qui savent ce qu'ils veulent ? Une IA toute seule, ça fait du slop générique. Mais une IA guidée par des créatifs avec une vision ? Ça peut aller plus vite, réduire les coûts, et même permettre d'explorer des trucs qu'on n'aurait jamais tentés autrement.
Les studios qui cèdent à la pression et annulent des projets juste pour prouver qu'ils ont embauché des artistes, je suis pas sûr que ça donne de meilleurs jeux au final. Ça donne juste des jeux qui ont coûté plus cher à produire !
Bref, à la fin il restera que les bons jeux. IA ou pas. Au chiotte le slop IA, et aux chiottes les Angry Gamers qui tuent des projets sur des suppositions à la con !
C'est ce vieux protocole réseau non chiffré que nos arrières-arrières-arrières-grands-parents utilisaient pour se connecter à des serveurs distants. C'est un truc que vous pensiez peut-être enterré depuis belle lurette... Hé bien figurez-vous qu'une faille critique vieille de 11 ANS vient d'être découverte dans le serveur telnetd de GNU InetUtils. Et le pire c'est que des hackers l'exploitent déjà activement.
ARGH !
La vulnérabilité en question, baptisée
CVE-2026-24061
, permet de contourner complètement l'authentification et d'obtenir un accès root. Sans putain de mot de passe (!!!!).
Bon ok, faut quand même que le service telnetd soit actif et exposé, mais après c'est open bar les amis ! En gros, le serveur telnetd passe la variable d'environnement USER directement à la commande login sans la nettoyer. Du coup, un attaquant n'a qu'à définir USER sur -f root et utiliser **telnet -a** pour se retrouver connecté en root.
C'est moche.
Concrètement, ça touche toutes les versions de GNU InetUtils de la 1.9.3 jusqu'à la 2.7. Ça touche donc des distributions Linux, de vieux routeurs, des capteurs industriels...etc. Après, les machines exposées sur Internet avec Telnet actif c'est quand même assez rare, donc faut pas non plus paniquer.
Cependant, les attaquants n'ont pas attendu. La société
GreyNoise
a documenté des exploitations actives entre le 21 et le 22 janvier, soit très rapidement après la divulgation du 20 janvier. Ils ont ainsi observé 18 adresses IP différentes lancer une soixantaine de sessions Telnet, avec 83% des tentatives ciblant directement le compte root. Du travail de pros.
Heureusement, un correctif existe \o/ : GNU InetUtils 2.8 colmate la brèche mais combien de ces vieux équipements IoT ou industriels vont vraiment être mis à jour ? On connaît tous la chanson par cœur !
Mais bon, si vous avez des machines exposées avec telnetd actif, vous avez trois options : mettre à jour vers la version 2.8, désactiver complètement le service telnetd, ou bloquer le port TCP 23 au niveau du firewall. Perso, je vous conseille carrément de virer Telnet et de passer à SSH si c'est pas déjà fait. En 2026, y'a vraiment plus aucune excuse pour utiliser un protocole qui n'est pas chiffré.
Bref, encore une vieille faille qui traînait depuis 2015 et qui refait surface au pire moment.
Alors ça c'est du culot les amis ! Des cybercriminels vraisemblablement vietnamiens viennent de se faire remarquer d'une manière plutôt... originale. Leur petit stealer Python embarque carrément une insulte en vietnamien répétée DES MILLIONS de fois dans le code. Et pas n'importe quelle insulte, une qui vise directement
Morphisec
, un éditeur de solutions de cybersécurité.
Le message "địt mẹ mày Morphisec" (je vous laisse deviner la traduction... Vous ne trouvez pas ? Ça veut dire "Nique ta mère, Morphisec" loool) est bourré partout dans le payload obfusqué. Le fichier de 16 Ko gonfle à 116 Mo une fois décodé, soit une expansion de x7425. Pas vraiment discret donc comme technique, mais efficace pour faire ramer les scripts d'analyse qui se retrouvent à itérer sur des millions de constantes bidon.
Ce sont les chercheurs de
Profero
qui ont disséqué ce petit bijou et ils y ont découvert que le stealer utilise une chaîne d'infection plutôt sophistiquée. Ça démarre par un binaire Adobe légitime (ADNotificationManager.exe) qui charge une DLL malveillante via sideloading. Ensuite, WinRAR renommé en japonais (lol) extrait une archive, puis Python 3.10 déguisé en svchost.exe entre en scène.
C'est de la sorcellerie !
Et là, le truc vraiment vicieux c'est que le voleur d'infos utilise Telegram comme serveur de commande et contrôle (C&C). Plutôt que de coder en dur des URLs qui se feraient griller en deux secondes, les auteurs ont opté pour une technique de "Dead Drop Resolver". Le malware va chercher ses instructions dans les métadonnées og:description d'une chaîne Telegram publique. C'est pas con, hein ?
Du coup, une fois installé, ce stealer aspire tout ce qui bouge. Identifiants des navigateurs, cookies, portefeuilles crypto... Le genre de trucs qu'on retrouve ensuite dans
ces histoires de dev malheureux qui ont installé des extensions malveillantes
et qui font des ravages. Les données volées atterrissent sur un canal Telegram privé baptisé "Reset Logs".
L'attribution vietnamienne est donc plutôt solide. L'admin du bot Telegram se fait appeler @Byte_ManzZz, le code contient des tags comme "vietnamnumber1", et y'a des noms de développeurs genre "_ngocuyen" qui laissent peu de place au doute, même si d'autres auraient pu tenter de brouiller les pistes volontairement. Une fois encore, quand il s'agit de cybercriminalité, on est jamais sûr de rien.
Bref, on est face à des gars qui non seulement ont du talent technique mais qui en plus se payent le luxe de narguer l'industrie de la sécu. Ce serait presque drôle... si c'était pas du vol de données en bande organisée.
On parle toujours de Windows, de Mac OS, de Linux ou de FreeBSD (ou même de Solaris) mais il existe d'autres systèmes d'exploitation qui restent encore peu connus mais sont très prometteurs.
Attention, il ne s'agit pas ici de versions de Linux mais bien d'OS complets à mettre au même niveau qu'un Linux ou un Windows et fonctionnant sur
x86
ou
PowerPC
.
Amiga OS 4.1
Ce nom vous dit quelque chose ? Amiga fait office de vétéran en terme d'informatique et le système continue d'évoluer !
Hyperion Entertainment
a sorti l'Update 3 de la Final Edition en octobre 2025, avec plus de 60 nouvelles fonctionnalités et 135 corrections de bugs. AmigaOS tourne sur des machines spécifiques type PowerPC commercialisées par
ACube
, et une nouvelle fournée de cartes mères A1222+ est prévue.
Ah et j'oubliais, AmigaOS est sous licence propriétaire et donc pas open source.
Haiku
Haiku lui est open source et c'est la prolongation du projet BeOS. Au départ Haiku s'appelait d'ailleurs OpenBeOS mais a changé de nom en 2004.
La
version R1/beta5
est sortie en septembre 2024 avec un stack TCP retravaillé qui offre des perfs 8-10x meilleures, un nouveau driver TUN/TAP pour le support VPN, et plein de nouveaux ports comme .NET, GIMP ou Inkscape.
Le projet se porte super bien financièrement... les dons en 2024 ont battu tous les records ! Plus d'infos sur
le site d'Haiku
ReactOS
ReactOS est un système d'exploitation très ambitieux car il a pour objectif d'être compatible avec les logiciels pour Windows.
Démarré en 1998 à partir de zéro, ReactOS se base en grande partie sur Wine pour faire tourner les applications Windows. La
version 0.4.15
est sortie en mars 2025, avec un gestionnaire de mémoire kernel réécrit, un support SMP (multi-cœurs) grandement amélioré, et une meilleure compatibilité avec les installeurs Windows.
C'est toujours en alpha, mais ça progresse bien. Il tourne sur x86 et est open source.
MorphOS
Celui là est dédié aux architectures à base PowerPC. Inspiré d'AmigaOS, il est léger et orienté "création".
Un émulateur inclus dans l'OS permet de faire tourner des applications Amiga. La
version 3.19
est sortie en janvier 2025, avec le support du protocole QUIC (HTTP/3) et un navigateur Wayfarer basé sur WebKitGTK 2.50.0.
SDL a même été mis à jour vers la version 3 ! Il tourne sur les plateformes
Pegasos
,
Amiga
ou
EFIKA
.
AROS Research Operating System
AROS a aussi été conçu à la base pour être compatible avec AmigaOS et depuis 1995 le projet n'a cessé de s'améliorer.
En 2025, c'est le passage au 64-bit avec
AROS One v1.0
, la première distribution complète en 64 bits ! Le navigateur Odyssey a été mis à jour avec un moteur WebKit de 2019 (YouTube remarche enfin), et un portage de GCC 15 est en cours. Il tourne aussi bien sur PowerPC que sur x86 et intègre un émulateur pour faire tourner des applis Amiga.
Il est open source et vous aurez plus d'infos sur
le site d'AROS
MenuetOS
Aussi connu sous le nom de MeOS, il est petit et rapide car entièrement écrit en assembleur. Il tient sur une disquette de 1,44 Mb et possède son petit gestionnaire de réseau et son interface graphique.
La
version 1.58.00
est sortie avec un serveur X amélioré, de meilleures performances réseau et les classiques utilitaires X comme XEyes ou XCalc. Ça boot même en UEFI maintenant ! La version 32 bits est open source, la 64 bits est gratuite pour usage personnel mais sans les sources.
KolibriOS
En parlant de MenuetOS, des gens ont forké le projet en 2004 pour créer
KolibriOS
. Pareil, c'est entièrement écrit en assembleur FASM et ça tient sur une disquette 1,44 Mo.
Le truc boot en quelques secondes et les applis se lancent instantanément. En 2024, le projet a participé au Google Summer of Code pour ajouter le support des SSD NVMe et de SDL2. Y'a plus de 250 applications incluses : traitement de texte, lecteur de musique, navigateur web... Le tout avec 12 Mo de RAM minimum. Franchement impressionnant.
SerenityOS
Celui-là, c'est mon coup de cœur.
SerenityOS
est un OS moderne qui rend hommage aux interfaces des années 90. C'est un vrai système Unix-like développé from scratch : kernel, librairie C, système de fichiers, interface graphique... tout est fait maison.
Le projet a même donné naissance au navigateur
Ladybird
qui est devenu un projet indépendant en 2024. Et début 2025, quelqu'un a réussi à le faire tourner sur un vrai Chromebook Dell !
Y'a pas de releases officielles, faut compiler soi-même, mais c'est un projet éducatif passionnant.
Redox OS
Pour les fans de Rust, voici
Redox OS
. C'est un OS Unix-like basé sur un microkernel, entièrement écrit en Rust pour la sécurité et la fiabilité.
Le projet fête ses 10 ans et ça avance bien : les perfs I/O ont été améliorées de 500-700% en 2025, le multi-threading fonctionne enfin par défaut, et ils ont même réussi à faire tourner le moteur de navigateur Servo et WebKitGTK !
Andrew Tanenbaum, le créateur de MINIX, a dit que Redox "a un vrai potentiel". Ça tourne sur x86 32/64 bits, et le support ARM64 arrive.
Visopsys
Et on termine avec un OS développé par une seule personne depuis 1997 !
Visopsys
(Visual Operating System) est petit, rapide et open source. La dernière version 0.92 date de septembre 2023.
Il a une interface graphique fonctionnelle, du multitâche préemptif, et supporte les systèmes de fichiers FAT, ext2/ext3 et ISO9660. Un beau projet de hobbyiste qui tient la route.
Tous ces OS sont donc des initiatives intéressantes et apportent parfois de bonnes idées. Si vous avez un peu de temps, je vous conseille d'en tester quelques uns. Installés par exemple sur le PC des enfants, ils éviteront les virus et les installations de jeux intempestives :-)
Amusez vous bien !
Article publié initialement le 27 septembre 2008 et mis à jour le 26 janvier 2026.
Karman Industries vient de lever 20 millions de dollars pour un truc qui va faire plaisir aux écolos anti-cloud : Refroidir les datacenters sans utiliser une seule goutte d'eau ! Oui, nada !
Vous n'êtes pas sans savoir que les datacenters actuels, c'est un peu le scandale écologique dont personne ne parle. On estime qu'en 2028, ces usines à calcul vont engloutir entre 34 et 68 milliards de gallons d'eau par an rien qu'aux États-Unis. C'est comme si votre frigo tournait à la vitesse d'un réacteur d'avion...
Ah bah tiens, justement en parlant de réacteur...
David Tearse et CJ Kalra, les deux fondateurs de Karman Industries, ont décidé d'appliquer des techniques d'ingénierie aérospatiale au refroidissement de datacenters. Leur bébé s'appelle le HPU (Heat Processing Unit), une plateforme thermique modulaire de 10 MW qui utilise de la turbomachinerie ultra-rapide inspirée des moteurs de fusée de SpaceX.
Au lieu d'utiliser de l'eau comme réfrigérant, ils ont opté pour du CO2 liquide. Résultat ? Plus de 25% d'économies d'énergie pour le refroidissement, jusqu'à 80% d'espace en moins, et surtout... pas une goutte d'eau. Quand on sait que le refroidissement représente environ 40% de la facture électrique d'un datacenter, ça commence à chiffrer sérieusement.
L'équipe a levé plus de 30 millions de dollars au total, avec Riot Ventures en lead sur ce dernier tour donc c'est pas exactement une PME du coin, quoi.
Comme je l'avais déjà évoqué dans mon article sur la
consommation d'eau des datacenters
, le problème est déjà critique avec l'explosion de l'IA. Chaque requête ChatGPT, chaque image Midjourney, ça consomme à mort de la flotte quelque part. Bref, si la techno de Karman fonctionne comme prévu, ça pourrait changer pas mal de choses. Reste à voir combien ça coûte mais les premières livraisons sont prévues pour le troisième trimestre 2026, avec une usine de fabrication à Long Beach en Californie.
Voilà, y'a plus qu'à voir si ça tient ses promesses en conditions réelles ! Et j'espère que le meilleure hébergeur du monde, O2Switch s'équipera bientôt car j'ai vraiment envie de voir ça de mes yeux ^^.
Vos concurrents vous cachent des choses. Enfin, j'crois ^^
Leur infrastructure secrète, leurs projets en cours, leurs lancements prévus... Et pourtant, une bonne partie de tout ça est en fait visible si on sait où regarder...
Comment ? Grâce aux logs Certificate Transparency, c'est-à-dire les registres publics où les autorités de certification reconnues par les navigateurs enregistrent les certificats SSL qu'elles émettent.
Du coup, quand une boîte prépare un nouveau service sur staging.secret-project.example.com, hop, le certificat SSL est enregistré dans les logs CT et devient visible pour qui sait chercher. Et c'est exactement à ça que sert
CertRadar
, un outil gratuit qui va fouiller ces logs pour vous.
Perso j'adore ce genre d'outil pour le pentest et la veille concurrentielle. Vous tapez un domaine et bam, vous récupérez une bonne partie des sous-domaines qui ont eu un certificat SSL. Y'a de quoi faire pleurer un admin sys qui pensait que son serveur de dev était bien planqué !
CertRadar propose plusieurs modules. Le Cert Log Search qui est le coeur du truc, fouille les logs CT pour trouver les certificats émis pour un domaine. Le TLS Scanner analyse la config TLS de n'importe quel serveur (versions supportées, ciphers, tout ça). Le Header Search inspecte les en-têtes HTTP. Y'a aussi un RDAP Lookup pour les infos whois, un Domain Health pour vérifier la santé globale d'un domaine, et même un Multi-Domain Report pour analyser plusieurs domaines d'un coup.
Maintenant, mettons que vous voulez cartographier l'infrastructure de votre concurrent. Vous entrez leur domaine principal dans le Cert Log Search, et vous récupérez une liste de leurs sous-domaines visibles dans les logs CT : api.example.com, staging.example.com, admin-panel.example.com, dev-v2.example.com... Certains noms sont parfois très parlants sur les projets en cours !
D'ailleurs, si vous cherchez d'autres méthodes pour
trouver les sous-domaines d'un site
, j'avais déjà parlé de SubFinder qui fait ça en ligne de commande.
La différence avec CertRadar c'est que tout se passe dans le navigateur, pas besoin d'installer quoi que ce soit. Vous allez sur le site, vous tapez votre requête, et vous avez vos résultats. Hyper fastoche.
Pour ceux qui font de la sécu, c'est clairement un outil qui a sa place dans votre arsenal. La partie Cert Log Search et RDAP c'est de la reconnaissance passive pure, vous ne touchez pas aux serveurs cibles. Par contre le TLS Scanner et le Header Search vont activement interroger les serveurs, donc à utiliser uniquement sur des domaines où vous avez l'autorisation. Vous pouvez découvrir des endpoints oubliés, des serveurs de staging exposés, des APIs non documentées... Bref, tout ce que les équipes IT auraient préféré garder discret.
Et comme les logs Certificate Transparency sont publics par design (c'est fait pour améliorer la transparence et détecter les certificats frauduleux), consulter ces données est parfaitement légal. James Bond peut aller se rhabiller, la vraie surveillance se fait en open source maintenant !
Si vous voulez jouer les espions légaux, c'est cadeau les copains. Comme d'hab que du bon ici ^^
Vous utilisez Claude Code, le CLI d'Anthropic ? Hé bien figurez-vous qu'il y a des fonctionnalités cachées dedans, et pas des moindres ! Un dev nommé Mike Kelly a fouillé dans le JavaScript minifié du CLI et il a découvert un truc dingue : un mode "Swarms" qui transforme votre assistant en véritable chef d'équipe capable de déléguer le travail à plusieurs agents en parallèle.
En gros, au lieu de parler à une seule IA qui code, vous parlez à un team lead. Et ce team lead, lui, il ne code pas... il planifie, découpe les tâches et les dispatche à une équipe de spécialistes qui bossent en même temps. Du coup quand vous validez un plan, il spawn plusieurs agents workers qui partagent un tableau de tâches, communiquent entre eux via une sorte de boîte aux lettres interne, et reviennent vous faire leur rapport une fois le boulot terminé.
Le truc c'est que cette fonctionnalité existe DÉJÀ dans le code de l'outil CLI, mais elle est verrouillée derrière un feature flag côté serveur (un truc qui s'appelle tengu_brass_pebble pour les curieux). Mike a donc créé
claude-sneakpeek
, un outil qui patche le CLI pour forcer ce flag à true. Hop, les fonctionnalités cachées deviennent accessibles. Si vous avez déjà lu
mon article sur Auto-Claude
, vous voyez le genre... Ce sont des agents en parallèle qui bossent pendant que vous faites autre chose, genre lire mes articles pour entrapercevoir le futur ^^.
Ce qui se débloque
Une fois le patch appliqué, vous avez accès à :
TeammateTool : pour spawner des équipes d'agents
Delegate mode : le Task tool peut lancer des agents en arrière-plan
Teammate mailbox : les agents peuvent s'envoyer des messages entre eux
Concrètement, quand vous demandez une tâche complexe, l'IA peut maintenant découper le travail, créer des sous-tâches avec dépendances, et lancer plusieurs workers qui vont bosser en parallèle sur leurs morceaux respectifs. Et ça consomme moins de tokens que de tout faire séquentiellement, contrairement à ce qu'on pourrait croire.
Et voilà, vous pouvez lancer claudesp au lieu de claude pour avoir la version avec les features débloquées !
Le truc bien pensé, c'est que ça installe une instance COMPLÈTEMENT isolée. Votre installation normale de l'outil CLI reste intacte, avec sa propre config, ses sessions et ses serveurs MCP. Zéro interférence.
Comment ça marche sous le capot
Pour les curieux qui veulent comprendre le hack, c'est assez chouette. En fait, le CLI est du JavaScript minifié, et il contient une fonction qui ressemble à ça :
function i8(){if(Yz(process.env.CLAUDE_CODE_AGENT_SWARMS))return!1;return xK("tengu_brass_pebble",!1)}
Cette fonction vérifie le feature flag côté serveur. Le patch la remplace simplement par :
function i8(){return!0}
Bref, au lieu de checker le flag, ça retourne toujours true. Simple mais efficace.
Pour mettre à jour ou désinstaller
npx @realmikekelly/claude-sneakpeek update claudesp
# Mise à jour
npx @realmikekelly/claude-sneakpeek remove claudesp
# Désinstallation
Voilà, si vous êtes fan d'automatisation et que vous voulez pousser le CLI dans ses retranchements, c'est clairement un truc à tester ! Le mode Swarms change la donne pour les projets complexes où paralléliser les tâches fait gagner un temps fou.
Un journal entièrement rédigé par des IA, ça vous parle ?
Non je parle pas de toutes les merdes que vous pouvez lire sur Google Discover hein... Mais je plaisant pas non plus car c'est ce que
Rafael Ben-Ari
vient de nous pondre et le résultat est trop marrant, vous allez voir.
Son concept c'est que plusieurs agents IA bossent ensemble comme une vraie rédaction. Y'a des "reporters" qui vont chercher l'info, des "éditeurs" qui structurent tout ça, et hop, à la fin vous avez un journal complet qui sort tout seul. Le tout tourne dans des bacs à sable (sandboxes) pour que chaque agent puisse faire son taf sans marcher sur les plates-bandes des autres.
Et le truc dingue, c'est qu'il en a fait DEUX versions. La première,
The Gradient Descent
, se concentre sur l'actualité liée à l'intelligence artificielle. Classique mais efficace... Mais là où ça devient vraiment fun, c'est avec
Real Mode Wire
, un journal dédié au rétro-computing qui reprend l'esthétique visuelle de SimCity 2000 ! Ça parle de modems 56K, de graphismes VGA, de ports Dreamcast... Bref, de la nostalgie pure en pixels.
Le système utilise différents modèles IA selon les tâches pour réduire les coûts. Genre un petit modèle rapide pour le tri d'infos, et un plus costaud pour la rédaction finale. C'est super malin, et tout le code est open source
sur GitHub
donc vous pouvez aller fouiller dedans si ça vous amuse.
D'ailleurs, ça me fait marrer parce que moi aussi je pourrais techniquement passer mes actus sous ce format. Imaginez un peu : "Korben Daily, édition du 26 janvier, entièrement généré par Claude pendant que le vrai Korben fait la sieste". Bon après, vous perdriez mes blagues douteuses et mes égarements sur les années 90, et ça serait quand même dommage non ?
Bref, si vous voulez voir ce que ça donne quand des robots jouent aux journalistes, allez jeter un œil. C'est gratuit, c'est open source, et au pire ça vous donnera des idées pour automatiser votre propre veille techno...
Si vous avez une carte graphique AMD sous Linux, vous savez que côté outils de contrôle, c'est pas vraiment la fête. AMD ne fournit rien d'officiel pour gérer l'overclocking ou les ventilateurs, du coup faut se débrouiller avec des solutions tierces. Et j'ai vu que
LACT
venait de sortir une nouvelle version estampillée 0.8.4 et franchement, elle a l'air vraiment pas mal.
Pour ceux qui débarquent, cet utilitaire open source permet de configurer et monitorer votre GPU AMD (et aussi Nvidia ou Intel dans une certaine mesure) directement depuis une interface graphique très bien fichue. Vous réglez vos courbes de ventilation, vous ajustez la puissance, vous undervoltez... tout ça sans passer par des lignes de commande cryptiques.
Et de ce que j'ai compris, la grosse nouveauté de cette version, c'est la refonte de la page d'overclocking. L'interface a été réorganisée avec les boutons déplacés dans l'en-tête, ce qui rend le tout plus lisible. D'ailleurs, le panneau de contrôle mémorise maintenant vos onglets entre les redémarrages, donc plus besoin de re-naviguer à chaque fois que vous lancez l'appli.
Côté hardware, y'a du nouveau aussi. De nouveaux capteurs de puissance sont exposés sur les cartes AMD, ce qui permet genre de séparer la consommation CPU et GPU. Pratique pour voir précisément ce qui bouffe le plus de watts dans votre config ! La lecture des métriques est aussi devenue plus efficace, donc moins de charge système pour afficher vos stats en temps réel.
Pour les serveurs headless, une image Docker est aussi disponible, du coup vous pouvez faire tourner le service sans interface graphique et gérer vos GPU à distance. Sympa pour les fermes de calcul ou les rigs de minage (si ça existe encore ??).
Les développeurs ont aussi corrigé pas mal de trucs notamment des fuites mémoire. Maintenant, si jamais ça crash, au lieu de se bloquer bêtement, l'appli affichera un jolie écran de plantage tout propre.
L'installation est dispo sur à peu près toutes les distros : Arch (directement dans les repos), Debian/Ubuntu en .deb, Fedora via Copr, openSUSE, et même en Flatpak pour les allergiques aux paquets natifs.
Voilà, si vous voulez vérifier la température de votre carte graphique sous Linux sans vous prendre la tête avec sensors et compagnie, c'est clairement la solution la plus user-friendly du moment.