Si vous êtes comme votre blogueur préféré (hi hi) et que vous avez des tonnes de fichiers markdown qui traînent dans des dossiers obscurs depuis des années, voici l'outil parfait pour rendre tout ceci à nouveau utilisable dans la vraie vie.
En tout cas, c'est plus pratique qu'un grep !
Ça s'appelle QMD (Quick Markdown Search) et c'est un outil en ligne de commande dispo sur GitHub qui va indexer tout votre bazar de notes pour les rendre consultables rapidement. QMD combine la recherche plein texte classique (BM25) avec de la recherche vectorielle sémantique et du re-ranking via LLM, ce qui veut dire que c'est ultra puissant. On est un peu sur le même principe qu'un RAG en fait puisque l'IA locale est utilisée pour comprendre le sens de votre requête et pas juste chercher des chaînes de caractères bêtes et méchantes. J'utilise depuis un petit moment maintenant un système similaire avec LEANN pour indexer tous les articles de korben.info et retrouver des connexions entre mes contenus, et je peux vous dire que quand on goûte à la recherche sémantique, le bon vieux grep a un goût de carton.
L'outil est même capable de faire de l'expansion de requête (Query Expansion) pour deviner ce que vous cherchez vraiment.
Techniquement, ça tourne avec
bun
ou npm et ça s'appuie sur
node-llama-cpp
pour faire tourner des modèles GGUF directement sur votre machine. Tout reste chez vous donc niveau vie privée c'est nickel. C'est un peu la même philosophie que des outils comme
Khoj
ou
Blinko
dont je vous ai déjà parlé, mais en version CLI pour le terminal.
L'installation est hyper facile si vous avez déjà Bun, mais prévoyez quand même un peu de place (environ 3 Go) pour les modèles qui iront s'installer au chaud dans ~/.cache/qmd/models/ et installez sqlite si vous êtes sur macOS :
brew install sqlite # Pour macOS
npm install -g @tobilu/qmd
Ensuite, y'a plus qu'à vous créer vos collections en pointant vers vos dossiers, et en lançant l'indexation comme ceci :
qmd collection add ~/mes-notes --name notes
qmd embed # L'étape indispensable pour générer les vecteurs
Et hop, vous pouvez lancer des recherches !!
C'est magique ! Perso, j'utilise presque tout le temps la commande "qmd query" plutôt que "search" parce que le mode hybride est bien plus puissant je trouve. Vous avez aussi "qmd vsearch" si vous voulez une recherche purement sémantique, genre quand vous cherchez un concept sans connaître les mots exacts utilisés dans vos notes. En fait, quand vous tapez une requête, QMD va chercher via les mots-clés, via les vecteurs (le sens), puis fusionner tout ça avec un algo RRF, et refaire passer un petit coup de LLM par dessus pour trier les résultats par pertinence.
Après vous l'aurez capté en me lisant, si vous avez une machine un peu ancienne sans GPU costaud, l'étape de re-ranking risque de prendre un peu de temps... mais c'est le prix de la qualité et de la sécurité ^^.
D'ailleurs, si vous utilisez Claude Desktop ou Claude Code, sachez que QMD intègre également un
serveur MCP
(Model Context Protocol). Du coup, vous pouvez connecter QMD à Claude et lui permettre d'aller fouiller dans vos notes pour répondre à vos questions. Et bonne nouvelle, QMD propose maintenant un mode HTTP daemon (qmd mcp --http --daemon) qui garde les modèles chargés en mémoire, ce qui évite de les recharger à chaque requête. Attention par contre, dans ce cas précis, les extraits de vos notes seront envoyés à Claude (donc dans le cloud).
QMD est aussi dispo en tant que librairie Node.js (npm install @tobilu/qmd) pour ceux qui voudraient l'intégrer dans leurs propres scripts ou workflows d'automatisation. Avec les options --json et --files en sortie, ça se branche facilement dans un pipeline.
Perso je trouve ça génial parce que ça comble le fossé entre le simple fichier texte et les usines à gaz de gestion de connaissances. Par exemple, si vous êtes un grand adepte de
Silverbullet
ou d'
Obsidian
, c'est le top pour l'indexation globale de vos écrits.
Voilà, si vous voulez un moteur de recherche personnel qui en a sous le capot et qui respecte votre vie privée, foncez tester ça.
Lorsque qu’un disque dur est défectueux ou présente des secteurs endommagés, il devient risqué de travailler directement dessus.
Dans ce type de situation, la meilleure solution consiste à réaliser un dump disque (copie bit à bit) afin de sauvegarder toutes les données avant toute tentative de réparation.
Cette technique permet de cloner un disque en copiant chaque secteur, même en présence d’erreurs.
Dans ce guide, nous allons voir comment créer un dump de disque et dans quels cas cette méthode est indispensable.
Un dump disque est souvent la dernière chance de récupérer les données d’un disque défectueux. Ne travaillez pas directement sur le disque d’origine.
Quand faire un dump disque (copie bit à bit)
Créer une image disque (.dd) n’est pas toujours nécessaire, mais dans certaines situations, cela devient fortement recommandé. L’objectif est de travailler sur une copie du disque afin de limiter les risques de perte de données.
Situations où un dump disque est recommandé
Situation
Dump disque recommandé ?
Pourquoi
Disque avec secteurs défectueux
Oui
Évite la perte progressive des données
Disque en panne (lent / bruit)
Oui
Dernière chance de récupération
Récupération de données
Oui
Permet de travailler sur une copie
Disque RAW
Oui
Sauvegarde avant réparation
Disque qui se déconnecte
Non
Préférer une sauvegarde
Disque sain
Non
Inutile
Sauvegarde classique
Non
Préférer une sauvegarde normale
Cas où ce n’est pas indispensable
Dans certaines situations simples, vous pouvez travailler directement sur le disque :
Disque stable et sans erreur
Problème léger (partition visible, peu de corruption)
Vous travaillez sur ce fichier avec des outils (TestDisk, récupération…)
Le disque original reste intact
En cas d’erreur, vous pouvez recommencer sans risque.
Qu’est-ce qu’un dump disque (image disque .dd) ?
Une image disque (.dd) est une copie exacte d’un disque ou d’une partition, réalisée secteur par secteur. Contrairement à une simple copie de fichiers, elle reproduit l’intégralité du contenu du disque, y compris les zones invisibles ou endommagées.
Le résultat est un fichier unique (souvent avec l’extension .dd) qui contient une image complète du disque original.
Une copie “brute” du disque
Une image disque fonctionne comme un clone à l’identique :
Tous les fichiers sont copiés
La structure du système de fichiers est conservée
Les secteurs vides ou corrompus sont également inclus
Cela permet de capturer l’état exact du disque, même en cas de problème.
Différence avec une copie classique
Il est important de distinguer une image disque d’une copie de fichiers :
Copie classique → uniquement les fichiers accessibles
Image disque (.dd) → copie complète du disque, même illisible
Une image disque est donc beaucoup plus adaptée à la récupération de données.
À quoi sert une image disque ?
Créer une image disque permet de :
Travailler sur une copie plutôt que sur le disque original
Éviter d’aggraver les dommages
Tester plusieurs méthodes de récupération sans risque
Sauvegarder l’état du disque avant intervention
C’est une pratique fortement recommandée en récupération de données.
Dans quels cas utiliser un dump disque ?
Dump disque vs clonage vs image disque : quelles différences ?
Lorsqu’il s’agit de sauvegarder ou de récupérer un disque, plusieurs méthodes existent : le dump disque (copie bit à bit), le clonage de disque ou encore la création d’une image disque.
Ces techniques sont souvent confondues, mais elles répondent à des besoins différents.
Le dump disque consiste à copier un disque secteur par secteur, sans tenir compte du système de fichiers. Il est particulièrement adapté aux disques défectueux ou contenant des erreurs.
Le clonage de disque copie les données d’un disque vers un autre disque en vue d’une migration ou d’un remplacement, généralement sur un disque sain.
L’image disque crée un fichier contenant les données du disque, souvent compressé, utilisé pour la sauvegarde ou la restauration.
Comparatif des méthodes
Méthode
Fonctionnement
Cas d’usage
Avantages
Limites
Dump disque (dd / ddrescue)
Copie brute secteur par secteur
Disque défectueux, récupération de données
Sauvegarde complète, ignore erreurs logiques
Lent, nécessite espace équivalent
Clonage de disque
Copie disque vers disque
Migration vers SSD, remplacement disque
Simple, rapide, prêt à l’emploi
Pas adapté aux disques endommagés
Image disque
Copie dans un fichier (compressé)
Sauvegarde, restauration système
Gain de place, flexible
Ne gère pas bien les disques défectueux
Précautions avant de créer un dump disque
Créer une image disque est une opération sensible qui consiste à lire l’intégralité du support. Avant de lancer la copie, il est important de préparer correctement l’environnement afin d’éviter les erreurs et maximiser les chances de récupération.
Vérifier l’état du disque source
Avant toute chose, assurez-vous que le disque est lisible :
Le disque est détecté par Windows ou Linux
Il ne fait pas de bruits anormaux (clics, grattements)
Il ne se déconnecte pas en permanence
Si le disque est très instable, privilégiez un outil comme ddrescue.
Prévoir un support de destination adapté
Une image disque peut être très volumineuse.
Utilisez un disque sain
Prévoyez un espace libre au moins égal à la taille du disque source
Évitez d’utiliser le disque à sauvegarder comme destination
Un manque d’espace peut interrompre la copie.
Ne pas utiliser le disque pendant la copie
Pendant la création de l’image :
N’ouvrez pas de fichiers sur le disque
N’effectuez aucune écriture
Évitez d’utiliser le système si le disque est interne
Cela garantit une copie cohérente.
Utiliser les bons outils
Tous les outils ne sont pas adaptés à un disque endommagé.
Une interruption peut rendre l’image inutilisable.
Tableau des précautions
Précaution
Pourquoi
Risque évité
Vérifier le disque
Détecter instabilité
Échec de la copie
Prévoir l’espace
Éviter saturation
Copie incomplète
Ne pas utiliser le disque
Garantir cohérence
Données corrompues
Choisir le bon outil
Adapter à la situation
Mauvaise récupération
Laisser finir la copie
Éviter interruption
Image inutilisable
Créer un dump disque avec dd (Linux)
La création d’une image disque peut se faire en ligne de commande avec des outils comme dd. Cette méthode permet de réaliser une copie complète du disque, mais elle demande de la rigueur car une erreur peut entraîner une perte de données.
Cette méthode est recommandée pour les utilisateurs à l’aise avec les commandes système.
Principe de la commande dd
La commande dd permet de copier un disque secteur par secteur.
if (input file) → disque source
of (output file) → fichier image (.dd)
bs → taille des blocs
Elle fonctionne sous Linux, mais aussi via des environnements comme WSL ou un Live USB.
Le fichier image (.dd) sera créé sur le disque de destination.
Points importants
La copie est bit à bit, même les secteurs vides sont copiés
Le processus peut être long selon la taille du disque
Aucune gestion avancée des erreurs
En cas de secteurs défectueux, la commande peut s’arrêter.
Limites de la méthode dd
La commande dd présente certaines limites :
Ne gère pas bien les erreurs de lecture
Peut s’interrompre sur un disque endommagé
Ne reprend pas automatiquement en cas d’échec
Pour un disque défectueux, il est préférable d’utiliser ddrescue.
Créer un dump disque avec dd (Linux)
Lorsque le disque est endommagé ou instable, ddrescue est l’outil le plus adapté pour créer une image disque. Contrairement à dd, il est capable de gérer les erreurs de lecture et de reprendre la copie là où elle s’est arrêtée.
C’est la méthode recommandée pour la récupération de données sur un disque défectueux.
Pourquoi utiliser ddrescue ?
ddrescue est conçu pour travailler sur des disques problématiques :
Ignore les secteurs défectueux dans un premier temps
Réessaie de lire les zones endommagées
Enregistre la progression dans un fichier log
Permet de reprendre la copie en cas d’interruption
Il maximise les chances de récupérer un maximum de données.
Principe de fonctionnement
La copie se fait en plusieurs phases :
Lecture rapide des zones accessibles
Saut des secteurs défectueux
Tentatives de récupération des zones difficiles
Cela permet d’obtenir une image disque la plus complète possible.
Identifier le disque
Avant de lancer ddrescue :
Utilisez la commande lsblk
Repérez le disque source (ex : /dev/sdb)
Identifiez le disque de destination
Une erreur de disque peut entraîner une perte de données.
Cette phase tente de lire les secteurs défectueux.
Créer un dump disque avec TestDisk (Windows/Linux)
TestDisk n’est pas conçu à l’origine pour créer des images disque complètes comme dd ou ddrescue. Cependant, il peut être utilisé pour copier des fichiers depuis une partition ou un disque, ce qui peut servir de solution alternative dans certains cas.
Pour créer une véritable image disque (.dd), il est préférable d’utiliser des outils spécialisés comme dd ou ddrescue.
Ce que permet TestDisk
Avec TestDisk, vous pouvez :
Accéder aux fichiers d’une partition détectée
Copier des fichiers ou dossiers vers un autre disque
Sauvegarder les données avant réparation
Cela permet de sécuriser les fichiers sans passer par une image disque complète.
Choisissez un emplacement (bureau ou autre disque)
Lancez l’utilitaire en double-cliquant sur testdisk_win.exe
Choisissez No Log
Sélectionnez le disque à dumper
Puis laissez le type de partition détectée, probablement EFI GPT
Prenez l’option [Advanced] File System.
Sélectionnez la partition et en bas l’option Image Creation.
Choisissez l’emplacement en vous assurant que l’espace disque sera suffisant et appuyez sur C pour lancer la création. Le dump de la partition s’effectue. On obtient alors un fichier image.dd
La création du fichier image.dd s’effectue
Si tout va bien, une fois terminé, le message suivant s’affiche : Image created successfully.
Limites de cette méthode
TestDisk ne permet pas :
De créer une image disque complète (.dd)
De copier les secteurs bruts
De gérer les erreurs de lecture comme ddrescue
Il ne remplace pas un outil de clonage disque.
Créer un dump disque avec des outils graphiques (plus simple)
Si vous n’êtes pas à l’aise avec la ligne de commande, il existe des outils avec interface graphique qui permettent de créer une image disque facilement, sans avoir à saisir de commandes.
Ces solutions sont plus accessibles et réduisent les risques d’erreur.
Avantages des outils graphiques
Les logiciels avec interface offrent plusieurs bénéfices :
Interface visuelle plus intuitive
Sélection du disque en quelques clics
Paramétrage simplifié
Moins de risque de se tromper de disque
Ils sont particulièrement adaptés aux débutants.
Exemples d’outils disponibles
Plusieurs logiciels permettent de créer une image disque :
DiskGenius → création d’image + récupération de données. DiskGenius utilise son propre format d’image disque (.pmfx). Bien qu’efficace, ce format est propriétaire et ne peut pas être utilisé avec des outils comme TestDisk. Pour une compatibilité maximale, il est préférable d’utiliser un format standard comme .dd.
Certains outils sont gratuits, d’autres proposent des versions payantes.
Étapes générales
Le fonctionnement est globalement similaire :
Lancez le logiciel
Sélectionnez le disque source
Choisissez l’option Créer une image disque
Définissez l’emplacement de sauvegarde
Lancez la copie
Le logiciel se charge du reste.
Points de vigilance
Même avec une interface graphique :
Vérifiez toujours le disque source sélectionné
Assurez-vous d’avoir suffisamment d’espace
Ne travaillez pas sur le disque à sauvegarder
Évitez d’interrompre l’opération
Les erreurs restent possibles si les mauvaises options sont choisies.
Tableau comparatif
Outil
Type
Facilité d’utilisation
Fonctionnalités
DiskGenius
Récupération + image
Élevée
Analyse, récupération Format propriétaire .pmfx
HDClone
Clonage
Élevée
Copie disque
Macrium Reflect
Sauvegarde
Moyenne
Image système
R-Studio
Avancé
Moyenne
Forensic, récupération
Des outils graphiques comme Macrium Reflect permettent de créer une image disque facilement, sans ligne de commande. Cependant, ces logiciels ne réalisent pas toujours une copie bit à bit complète comme dd ou ddrescue. Ils sont plus adaptés à la sauvegarde ou au clonage de disques fonctionnels. En cas de disque défectueux ou de secteurs endommagés, il est préférable d’utiliser des outils spécialisés comme ddrescue.
Travailler sur une image disque (dump disque)
Une fois l’image disque (.dd) créée, il est fortement recommandé de travailler uniquement sur cette copie plutôt que sur le disque original. Cette approche permet de préserver l’état du support et de limiter les risques en cas d’erreur.
Pourquoi utiliser l’image disque ?
Travailler sur une image disque présente plusieurs avantages :
Le disque original reste intact
Vous pouvez tester plusieurs méthodes sans risque
Vous évitez d’aggraver les dommages
Vous pouvez revenir en arrière en cas d’erreur
Cela apporte une sécurité essentielle lors de la récupération de données.
Monter l’image disque
Pour exploiter une image disque (.dd), il est souvent nécessaire de la monter comme un disque virtuel. Cela permet d’accéder aux partitions et aux fichiers comme si le disque était connecté physiquement.
Monter une image disque sous Linux (loop device)
Sous Linux, vous pouvez utiliser un loop device pour attacher l’image disque.
Identifiez un périphérique libre :
losetup -f
Associez l’image disque :
losetup /dev/loop0 image.dd
Rafraîchissez les partitions :
partprobe /dev/loop0
Montez la partition :
mount /dev/loop0p1 /mnt
Vous pouvez alors accéder aux fichiers dans /mnt.
Monter une image disque sous Windows
Windows ne supporte pas nativement les fichiers .dd. Vous devez utiliser un logiciel spécialisé.
Exemples :
OSFMount (léger et efficace)
DiskGenius
R-Studio
Avec OSFMount :
Lancez le logiciel
Cliquez sur Mount new
Sélectionnez votre fichier .dd
Choisissez une partition à monter
Validez
L’image apparaît comme un disque dans l’explorateur.
estDisk ne permet pas de charger une image disque depuis son interface. Il faut passer par la ligne de commande.
Ouvrez un terminal ou invite de commandes
Lancez TestDisk avec le fichier image :
testdisk image.dd
TestDisk considère alors l’image comme un disque réel
Si vous préférez une interface graphique, vous pouvez monter l’image avec un outil comme OSFMount, puis lancer TestDisk sur le disque virtuel.
Tester sans risque
L’image disque permet de :
Essayer plusieurs méthodes de récupération
Recommencer en cas d’échec
Comparer les résultats
Cela évite les erreurs irréversibles.
Conserver une copie de sauvegarde
Même après récupération :
Conservez l’image disque
Stockez-la sur un support fiable
Évitez de la modifier
Elle peut servir de sauvegarde ou de référence.
Tableau des avantages
Avantage
Impact
Protection du disque original
Évite les dommages supplémentaires
Travail sécurisé
Permet de tester sans risque
Reproductibilité
Possibilité de recommencer
Sauvegarde
Conservation des données
Vérifier l’intégrité d’un dump disque
Une fois l’image disque (.dd) créée, il est important de vérifier qu’elle est complète et exploitable. Une image corrompue ou incomplète peut compromettre la récupération des données.
Vérifier la taille de l’image
La première vérification consiste à comparer la taille du fichier image avec celle du disque source.
La taille de l’image doit être proche de celle du disque
Une taille anormalement faible peut indiquer une copie incomplète
Cela permet de détecter rapidement un problème lors de la création.
Vérifier le fichier log (ddrescue)
Si vous avez utilisé ddrescue :
Consultez le fichier .log généré
Vérifiez les secteurs non lus ou en erreur
Analysez le taux de récupération
Le log donne une vision précise de l’état de la copie.
Monter l’image disque
Un bon test consiste à monter l’image :
Ouvrez l’image avec un outil compatible
Vérifiez si les partitions sont détectées
Essayez d’accéder aux fichiers
Si l’image est lisible, elle est exploitable.
Tester avec un outil de récupération
Vous pouvez également :
Ouvrir l’image dans TestDisk
Lancer un scan avec un logiciel de récupération
Vérifier la présence des fichiers
Cela confirme que les données sont récupérables.
Vérifier l’intégrité (hash)
Pour une vérification avancée, vous pouvez calculer une empreinte (hash) :
Microsoft’s latest image model, MAI-Image-2, vaults to #3 on the global leaderboards, marking a major shift toward internal AI development over OpenAI reliance.
"Something need doing ?" Si cette réplique vous file un frisson nostalgique, alors vous allez adorer
Peon Ping
!!
Il s'agit d'un outil CLI open source qui joue des voix de personnages de jeux vidéo quand vos agents IA ont besoin de votre attention. Vous lancez Claude Code, vous passez sur autre chose, et le moment venu, un peon de Warcraft III vous gueule "Work complete!" quand c'est terminé.
Concrètement, ce truc s'intercale via des hooks entre vous et votre IDE, comme ça, chaque événement (démarrage de session, fin de tâche, erreur, demande de permission) déclenche une réplique différente. Du coup le peon dit "Something need doing?" quand l'agent attend un input, et "I can't do that!" quand y'a une erreur.
Ça marche avec Claude Code, Cursor, Codex, et une dizaine d'autres outils (Kiro, Windsurf, Copilot, Gemini CLI, OpenCode, Antigravity, Rovo Dev CLI...), tout ça livré avec plus de 160 packs sonores dans 14 langues, de GLaDOS à
StarCraft
en passant par Zelda, Red Alert 2 ou Team Fortress 2.
Installation
Deux options principales. La plus propre, via Homebrew :
Attention par contre, sous WSL2, il faudra installer ffmpeg au préalable pour lire les formats audio autres que WAV.
Configuration
Une fois installé, lancez le setup :
peon-ping-setup
Ça détectera votre environnement, configurera les hooks et téléchargera les packs sonores en local. Ensuite, dès votre prochaine session Claude Code, vous entendrez un joli "Ready to work?" au démarrage.
Maintenant, si Warcraft c'est pas votre truc et que vous voulez changer de voix, genre passer à GLaDOS (une IA qui vous insulte pendant que vous codez avec une IA... ahahah), ça se fait en une commande :
peon packs use glados
Vous pouvez binder un pack à un dossier spécifique avec peon packs bind glados, comme ça, chaque projet a sa propre ambiance sonore, et si vous êtes du genre à aimer les trucs en français, il y a aussi des packs dans la langue du roi Arthur.
Moi j'en ai rien à foutre, j'installe les packs Age of Empires + Red Alert ou rien !!
Les commandes utiles
Tout passe par la commande peon :
peon status # Vérifier si c'est actif
peon volume 0.7 # Régler le volume
peon pause # Couper le son (réunion...)
peon resume # Remettre le son
peon packs list # Voir les packs installés
peon packs next # Passer au pack suivant
peon preview # Écouter un aperçu
Petit détail bien pensé, le système de "no repeats" fait qu'il ne jouera jamais le même son deux fois de suite dans la même catégorie. Et vous pouvez activer/désactiver chaque catégorie individuellement (greeting, acknowledge, complete, error, annoyed) si y'a des sons qui vous cassent les pieds.
En bonus, le terminal affiche le nom du projet et son statut dans le titre de l'onglet, avec un petit point indicateur quand c'est terminé. De grosses bannières desktop s'afficheront aussi quand un événement se produit, même si vous êtes sur une autre app.
Et si vous bossez en SSH ou dans un devcontainer, y'a un mode relay qui renvoie l'audio sur votre machine locale via peon relay --daemon. Pas mal du tout, hein ?
Le mode Peon Trainer
Maintenant, c'est là que ça part complètement en cacahuète car Peon Ping intègre un mode fitness qui vous rappelle de faire des pompes et des squats pendant que vous codez. L'objectif : 300 reps par jour, rien que ça !!
Dès que vous ouvrez une session, le Peon vous accueille avec un "Pushups first, code second! Zug zug!". Ensuite, toutes les 20 minutes environ, il vous relance. Et si vous ignorez, ça escalade jusqu'à "You sit too long! Peon say do pushups NOW!".
Pour logger vos reps en pleine session de code, pas besoin de quitter le terminal :
Quand vous atteignez les 300, le Peon célèbre avec un "THREE HUNDRED! Human strong like orc now!" et vous laisse tranquille pour le reste de la journée. Pas mal comme incentive pour bouger un peu entre deux refactorisations, non ?
Pour ceux qui utilisent
Claude Code au quotidien
, y'a aussi un serveur MCP intégré qui permet à l'agent de choisir lui-même quel son jouer. L'agent qui communique en répliques de Warcraft... on vit une époque formidable ! Et si vous voulez aller plus loin,
Claude Octopus
permet carrément d'orchestrer plusieurs IA en parallèle.
D'ailleurs, les plus motivés peuvent carrément créer leurs propres packs via
openpeon.com
. Le format suit la spec ouverte CESP (Coding Event Sound Pack), comme ça n'importe quel IDE peut l'adopter.
Le Peon Pet
Et le truc le plus mignon du projet c'est ce petit orc animé qui squatte un coin de votre écran. Ce Peon Pet réagit en temps réel aux événements de Claude Code. Il dort quand rien ne se passe, se réveille au démarrage d'une session, tape frénétiquement du clavier quand l'agent bosse, et fait sa danse de la victoire quand la tâche est terminée. C'est du Electron + Three.js, le tout en open source bien sûr.
En résumé, c'est votre Tamagotchi de développeur, sauf qu'au lieu de le nourrir, c'est lui qui vous engueule pour bosser.
Voilà, si checker votre terminal toutes les 30 secondes pour voir si Claude Code a avancé dans sa life, ça vous saoule, c'est le genre de petit outil con mais génial qui change la vie.
C’est un jour un peu spécial aujourd’hui : c’est mon anniversaire… mais aussi la sortie d’une nouvelle mise à jour pour les NAS Synology. Le constructeur vient en effet de déployer DSM 7.3.2 Update 3, une version qui corrige une faille de sécurité importante.
DSM 7.3.2-86009 Update 3
Si vous êtes passé à côté de l’Update 2, c’est tout à fait normal : elle a été rapidement remplacée par l’Update 3. Mais alors, que contient le journal des modifications de DSM 7.3.2 Update 2 et DSM 7.3.2 update 3 ?
DSM 7.3.2 Update 2 : une mise à jour discrète
Cette nouvelle version du logiciel interne pour les NAS Synology contenait une seule ligne :
Correction de plusieurs failles de sécurité.
Comme souvent, le fabricant reste volontairement discret sur les détails.
DSM 7.3.2 Update 3
Avec cette nouvelle version, Synology apporte davantage de précisions.
Correction d’une faille de sécurité concernant Telnetd (CVE-2026-32746).
Sur sa page dédiée aux avis de sécurité, Synology précise : « Synology a publié une mise à jour de sécurité pour DiskStation Manager (DSM) afin de corriger une vulnérabilité dans le service telnetd de GNU Inetutils ». Le fabricant ajoute « La vulnérabilité CVE-2026-32746 pourrait permettre à des attaquants distants non authentifiés d’exécuter des commandes arbitraires ». Autrement dit, une faille potentiellement critique. Personnellement, je préfère utiliser SSH que le Telnet et on va se le dire franchement : on n’expose ni l’un, ni l’autre sur Internet.
Faut-il installer la mise à jour ?
Oui, sans aucun doute. Que votre NAS soit accessible depuis l’extérieur ou non, il est fortement recommandé d’installer cette mise à jour rapidement.
Comment télécharger et installer DSM 7.3.2 Update 3
Voici comment l’installer manuellement en suivant ces étapes :
Connectez-vous à l’interface d’administration de votre NAS.
Accédez à Panneau de configuration > Mise à jour et restauration.
Cliquez sur Mise à jour manuelle de DSM.
Sélectionnez le fichier téléchargé via le bouton Parcourir.
Cliquez sur OK et patientez…
Redémarrage obligatoire
Une fois la mise à jour terminée, votre NAS redémarrera automatiquement.
Une fois la mise à jour appliquée, le NAS redémarre automatiquement. Le fichier fait environ 4 Mo. L’installation demande environ 5 minutes… A noter que les versions précédente de DSM 7.2.x et DSM 7.1.x dispose d’un correctif.
Settlers II, ce jeu de stratégie où vous passiez des heures à regarder vos petits bonhommes transporter des planches de bois sur des chemins de terre est quelque part, toujours vivant puisqu'il y a des devs qui bossent sur un jeu open source équivalent depuis 2001. Ça fait + de 24 ans et le résultat vaut carrément le coup d'œil.
Le projet s'appelle
Widelands
, c'est un jeu de stratégie en temps réel sous licence GPL-2.0, dispo sur Windows, macOS 11+ (j'ai dû le débloquer avec
Sentinel
comme d'hab) et Linux (AppImage, Flatpak, PPA Ubuntu). On y retrouve de la gestion de mines d'or et de fer, de la construction de scieries et de casernes en pierre, des chaînes de production complètes avec des forgerons qui tapent sur l'enclume, des bûcherons qui abattent des chênes et des fermiers qui récoltent du blé...etc. Tout pareil sur Settlers II donc sauf que là c'est gratuit, c'est libre, et ça tourne même sur des machines pas toutes jeunes.
Dans Widelands, vous avez 5 tribus jouables, les Barbarians, l'Empire, les Atlanteans, les Frisians et les Amazons, chacune avec ses bâtiments spécifiques et ses arbres de technologies. Y'a des campagnes solo avec des tutoriels intégrés, un mode multijoueur en ligne et un éditeur de cartes.
Sous le capot, c'est du C++ compilé avec CMake et du Lua pour le scripting des campagnes et de l'IA. Du coup si vous voulez bidouiller, hop vous clonez le repo
depuis GitHub
et vous suivez le guide de compilation du wiki (y'a des dépendances SDL2, Boost, ICU à installer avant). C'est pas forcément facile car le code source fait plusieurs centaines de milliers de lignes mais heureusement, y'a un système d'add-ons qui vous permettra d'installer des cartes et des mods sans toucher au compilateur, genre un Steam Workshop du pauvre (mais en mieux parce que c'est ouvert).
Screenshot
Et ce projet est bien vivant avec plusieurs commits par jour. La communauté discute sur IRC (#widelands sur LiberaChat) et sur Discord et fait amusant, l'équipe a officiellement refusé toutes les contributions générées par IA parce que ça pose notamment pas mal de soucis de copyright. Après pour un projet construit avec amour depuis deux décennies par des bénévoles en chair et en os, je trouve ça plutôt sain.
Vous avez des vieilles caméras de surveillance chinoises qui prennent la poussière parce qu'il vous est impossible de trouver leur flux vidéo ? Y'a pas de RTSP, y'a pas de doc, y'a juste un pauvre port 80 ouvert et une app Android en Mandarin qui est périmée depuis 2021 ?
JE VIENS VOUS SAUVER LES ZAMIS ! Eh oui, grâce à
Strix
qui est capable de tester 102 787 patterns d'URL en 30 secondes et qui vous sort miraculeusement le bon flux vidéo qui marche, avec la config
Frigate
prête à être collée.
En fait, le principe est simple. Vous lancez un conteneur Docker, vous entrez l'IP de votre caméra et l'outil bombarde en parallèle toutes les URL connues pour ce type de matos. RTSP sur le port 554, MJPEG sur le 8080, snapshots JPEG sur le 80... et 30 à 60 secondes plus tard, vous avez la liste des flux qui répondent avec résolution, FPS et codec H.264 ou H.265.
L'installation
tient en une ligne
et l'interface web tourne sur le port 4567. Vous entrez l'IP, le login si besoin, et éventuellement le modèle de la caméra IP pour affiner la recherche. Après, même sans modèle, Strix se débrouille avec les 206 patterns les plus courants (sur les 102 787 de la base complète) + la découverte
ONVIF
. Du coup ça trouve un flux sur à peu près n'importe quoi, du Dahua au Foscam en passant par les marques fantômes d'AliExpress.
Un autre truc vraiment sympa aussi , c'est la génération de config. Vous collez votre fichier frigate.yml existant, même avec 500 caméras dedans, et l'outil ajoute proprement la 501ème sans rien casser ! Il configure automatiquement le flux HD 1080p pour l'enregistrement et le flux 640x480 pour la détection d'objets, le tout passant par
go2rtc
. Résultat, la conso CPU de Frigate peut carrément passer de 30% à 8%.
Et surtout, l'histoire derrière est assez dingue. Le dev derrière ce projet avait des vieux NVR chinois de 2016 qu'il voulait connecter à Frigate. Après 2 ans à tester toutes les URL possibles... rien. Snif... Tous les ports fermés sauf le 80. À vrai dire, ces machins ne parlaient même pas un protocole connu. Alors il a fini par faire tout ce que fait un vrai bidouilleur quand il est énervé : Sniffer le trafic de l'app Android avec Wireshark !
Et grâce à cela, il a découvert un truc baptisé BUBBLE, tellement obscur que ça n'existe nulle part sur Google ! Cela lui a permis de construire une base de 67 288 modèles issus de 3 636 marques, des Hikvision jusqu'aux trucs sans nom d'AliExpress.
Et quand y'a pas de RTSP du tout (ce qui arrive souvent avec le matos chinois pas cher), l'outil se rabat sur les snapshots JPEG et les convertit en vrai flux vidéo via FFmpeg. C'est pas aussi clean qu'un vrai stream H.264 (et ça saccade un peu à 10 FPS), mais c'est largement suffisant pour de la détection de personnes ou de bagnoles.
Après, sachez-le, ça ne marche qu'avec les caméras présentes sur votre réseau local. Les caméras cloud (Blink, Ring, Xiaomi) ne sont pas supportées. Et aussi, comme on n'est jamais trop prudent d'ailleurs, si vous branchez ce genre de vieux matos chinois, mettez-les dans un VLAN isolé sans accès Internet parce que côté sécurité, c'est la fête du slip sur ce genre de matos : Backdoors, mots de passe en clair sur le port 80, appels serveurs en Chine... va savoir ce qu'elles font quand personne ne regarde.
Strix a même tapé dans l'œil du développeur de Frigate lui-même, qui a invité l'auteur à soumettre une PR officielle pour l'intégrer dans la doc officielle. Eh ben quelle classe ! Ah et y'a aussi un add-on Home Assistant en beta si vous êtes branchés domotique (pas forcément stable, le soft sous Docker reste plus fiable). Strix est écrit en Go, sous licence MIT, y'a une image Docker de 80-90 Mo sur Alpine Linux, avec FFmpeg et FFprobe embarqués, et ça tourne comme un charme sur AMD64 comme sur ARM64 (votre Raspberry Pi 4 suffit).
Bref, allez tester ça, car y'a clairement de quoi sauver pas mal de matos de la poubelle !
La
recompilation statique
, je vous en avais parlé avec Zelda 64
et Sonic Unleashed. Le principe, en gros c'est qu'au lieu d'émuler bêtement le processeur et la mémoire d'origine, on traduit tout simplement le code assembleur du jeu directement en C natif. Du coup le jeu tourne nativement sur votre machine, sans couche d'émulation.
Et la bonne nouvelle du jour c'est que cette technique vient de parvenir jusqu'à la Game Boy avec
GB Recompiled
.
Vous filez à cet outil un fichier .gb et il vous sort OKLM un dossier avec du code C, un CMakeLists.txt et tout ce qu'il faut pour le compiler. Vous lancez cmake puis ninja, et votre vieux Pokemon Bleu tourne nativement sur votre PC plutôt que de passer par un émulateur qui simule le processeur Z80 à chaque frame.
Plutôt chouette non ???
Pour réussir ce tour de force, le recompilateur parse les opcodes Z80 de la cartouche, construit un graphe de contrôle de flux et résout les sauts indirects (genre les tables de jump, le truc qui rend la décompilation galère parce que l'adresse de destination dépend de la valeur d'un registre). Le taux de découverte dépasse alors les 98% même sur des RPGs bien touffus... pas mal pour de l'analyse purement statique !
Côté compatibilité, 7 jeux sont pour le moment validés : Tetris, Pokemon Blue, Donkey Kong Land, Kirby's Dream Land, Zelda Link's Awakening, Castlevania et Super Mario Land.
Par contre, attention, tous les jeux ne passent pas encore. Le runtime embarque un rendu
PPU scanline
, un système audio 4 canaux et les contrôleurs mémoire MBC1, MBC2, MBC3 et MBC5. Et comme tout ça tourne avec SDL2, du coup ça compile tranquillou sur macOS, Linux et Windows sans broncher !
Y'a aussi des outils de vérification assez bien pensés. Par exemple, un mode différentiel lance le binaire recompilé et un interpréteur Z80 côte à côte, puis compare l'exécution cycle par cycle avec une implémentation de référence. Tant que ça colle, le portage est fidèle !
Et y'a aussi un script Python basé sur PyBoy qui génère des traces d'exécution pour repérer les instructions que l'analyse statique aurait loupées. Voilà, ce que je veux vous dire c'est que c'est pas juste un traducteur tout bête. Y'a vraiment tout un pipeline de tests derrière pour assurer le meilleur portage possible.
Si vous avez suivi les autres projets autour de la portable de Nintendo, comme le
GB Interceptor
qui espionne le bus mémoire avec un adaptateur USB ou le
Game Bub
et son FPGA Xilinx, GB Recompiled choisit plutôt l'angle purement logiciel. Là où le FPGA reproduit les circuits et l'émulateur simule le CPU, la recompilation traduit le code source. Ce sont 3 philosophies différentes mais qui ont un seul et même objectif : Faire en sorte que ces jeux ne crèvent pas avec leurs cartouches en plastique gris.
Pour tester chez vous, c'est du classique : un petit terminal, un petit git clone, un cmake, un ninja, et vous passez votre fichier .gb au recompilateur.
git clone https://github.com/arcanite24/gb-recompiled.git
cd gb-recompiled
cmake -G Ninja -B build .
ninja -C build
# Générer le code C depuis la ROM
./build/bin/gbrecomp path/to/game.gb -o output/game
# Compiler la nouvelle version en C
cmake -G Ninja -S output/game -B output/game/build
ninja -C output/game/build
# Optionnel: Baisser ou augmenter le niveau d'optimisation
cmake -S output/game -B output/game/build -DGBRECOMP_GENERATED_OPT_LEVEL=2
# Et on lance !
./output/game/build/game
Voilà comment avec juste quelques commandes, votre bonne vieille cartouche GB peut enfin tourner nativement sur votre laptop. Notez que le support Game Boy Color est dans les tuyaux, ainsi qu'un build Android.
Le projet est franchement actif et ça sent très bon pour la suite !
La Station Spatiale Internationale file à 28 000 km/h au-dessus de nos têtes, et y'a un mec qui a décidé de suivre ça en direct depuis un petit écran 3.5 pouces posé sur un Raspberry Pi 3b. Le projet s'appelle
ISS Tracker
, c'est open source, et franchement... c'est plutôt classe !
Concrètement, l'écran affiche un globe terrestre en 3D qui tourne, avec la position de l'ISS en temps réel. Latitude, longitude, altitude, vitesse, et même la région survolée. En fait, la position est récupérée toutes les 30 secondes via des APIs gratuites et interpolée entre les mises à jour pour que le rendu reste fluide. Vous branchez le câble micro-USB, vous attendez le boot, et ça tourne tout seul !
L'ISS Tracker monté au mur, façade alu et globe 3D sur l'écran
Côté matos, c'est sobre : un Pi 3b (ou plus récent), un écran LCD Waveshare 3.5 pouces qui se clipse directement sur le GPIO, et un interrupteur à bascule optionnel. Celui-là, c'est la petite touche sympa effet NASA. En un coup de "switch", vous passez ainsi du tracking orbital à la liste des astronautes actuellement en orbite, groupés par vaisseau.
Du coup vous savez qui est là-haut en ce moment, et dans quel engin
(merci Lorenper).
Mais le truc vraiment cool dans ce projet, c'est le boîtier. Filbot a imprimé la structure en 3D avec du PLA renforcé carbone (les
fichiers STL sont sur MakerWorld
), puis a fraisé la façade en aluminium sur sa CNC personnelle. Plus d'une heure d'usinage pour une plaque (les vrais machinistes pleurent ^^) et la cerise sur la Lune (non c'est pas une hallucination IA, c'est juste que je suis fou) c'est qu'il a séché la peinture dans la chambre chauffée de son imprimante 3D. L'IA qu'il a utilisée pour le guider lui a dit que c'était du génie... on va pas la contredire.
Pour la touche finale, une décalcomanie en transfert à l'eau avec le logo NASA "worm" et des données inventées pour faire officiel + le garde-interrupteur en alu style aviation qui protège le switch, c'est purement cosmétique mais ça envoie grave !
Le globe 3D en action avec la position de l'ISS et la télémétrie
Sous le capot, le globe est affiché sous forme de 144 frames pré-calculées avec
Cartopy
. Au premier lancement, comptez quelques minutes sur un Pi 3b pour générer le cache et ensuite ça démarre en 3 secondes. Par contre, attention, il faut augmenter le buffer SPI à 307 200 octets parce que le défaut de 4 Ko est beaucoup trop petit pour pousser des frames complètes sur l'écran. Oubliez pas ça, sinon l'affichage ne marchera pas.
D'ailleurs, si vous voulez que l'engin tourne H24, y'a un service systemd fourni avec watchdog, auto-restart et limitation mémoire à 250 Mo. Notez que le fichier theme.toml permet de changer toutes les couleurs, polices et le layout sans toucher au code. Ambiance cockpit Boeing par défaut (labels verts, valeurs blanches sur fond noir), mais vous pouvez faire du cyan fluo si ça vous chante et que vous avez des goûts de chiottes ^^.
Les APIs utilisées sont toutes gratuites et sans clé :
Where the ISS at?
en principal, Open Notify en fallback. Pas d'inscription, pas de token, ça marche direct ! Et si vous aimez les projets Raspberry Pi dans cet esprit, vous pouvez jeter un œil au
rover martien à imprimer en 3D
ou aux
talkies-walkies DIY
à base de Pi.
Bref, de quoi kiffer ses soirées à regarder un point lumineux traverser le globe. C'est plutôt méditatif !
Un TUI en Rust pour gérer vos coffres Obsidian sans quitter le terminal c'est ce que propose Basalt qui détecte automatiquement vos vaults, affiche le markdown avec un rendu visuel, et depuis la v0.12.3, y'a même un mode vim intégré. Le tout sans avoir besoin que la vraie app tourne en arrière-plan !
Et c'est là toute la différence avec
le CLI officiel d'Obsidian
dont je vous parlais il y a quelques jours. Car le CLI a besoin de l'app qui tourne via un socket local. Basalt, lui, lit en fait vos fichiers .md directement sur le disque. Du coup, ça marche en SSH, sur un serveur headless, ou sur n'importe quelle machine où vous avez juste vos fichiers markdown. C'est carrément pratique !
L'installation se fait en une commande :
cargo install basalt-tui
Au premier lancement, l'outil va alors chercher automatiquement vos coffres en lisant le fichier de config (sous macOS c'est dans ~/Library/Application Support/obsidian/obsidian.json). Comme ça, hop hop, vos vaults apparaissent, vous naviguez au clavier et vous passez d'un coffre à l'autre avec Ctrl+G. Vous pouvez aussi passer par
aqua
ou télécharger un binaire pré-compilé sur la page releases si vous préférez.
Basalt en action, navigation dans un vault Obsidian
Vous ouvrez alors une note et le markdown s'affiche avec un rendu visuel : les # disparaissent au profit d'indicateurs plus colorés, les blocs de code ont un fond distinct, les callouts > [!NOTE] sont reconnus, et les wiki-links [[Ma Note]] sont également parsés. D'ailleurs, quand vous renommez une note avec r, tous les wiki-links qui pointent vers elle sont mis à jour automatiquement dans tout le vault. Pas de search-replace à la main, ça fait toujours du bien !
Après faut pas s'attendre à un clone complet non plus. Y'a pas de rendu pour le gras, l'italique ou les tableaux. Pas de recherche dans les notes. Pas de graph view. L'éditeur intégré est expérimental (pas d'undo, pas de copier-coller, pas de sélection). C'est assumé de ce que j'ai pu voir, car le projet se présente comme un compagnon minimaliste.
Et c'est justement pour ça que le mode vim est le bienvenu, à vrai dire. Vous pouvez activer ça dans votre config TOML comme ceci :
vim_mode = true
Le mode vim en action dans Basalt
Et là vous avez hjkl pour naviguer, gg / G pour sauter en haut et en bas, w / b pour les mots, i pour l'insertion. C'est pas forcément aussi complet qu'un vrai vim, mais franchement, pour parcourir vos notes c'est agréable.
Le vrai kiff, c'est la config TOML qui permet de lancer un éditeur externe sur la note en cours :
Du coup, le workflow devient : Basalt pour naviguer et lire et un raccourci clavier pour ouvrir dans vim (ou n'importe quel éditeur) quand vous voulez éditer sérieusement. C'est le genre de combo qui fonctionne bien quand vous bossez en
full terminal
.
Le projet est sous licence MIT, écrit en Rust avec ratatui, et tourne sur Linux, macOS et Windows. Tiens, la v0.12.3 ajoute aussi la création de notes et dossiers directement depuis l'explorateur avec n et N... Ça avance plutôt vite comme projet !!
Voilà, si vos notes vivent dans des coffres et que le terminal c'est votre habitat naturel,
Basalt
fera bien le boulot.
Cybersecurity researchers have disclosed details of a multi-stage malware campaign that uses batch scripts as a pathway to deliver various encrypted remote access trojan (RATs) payloads that correspond to XWorm, AsyncRAT, and Xeno RAT.
The stealthy attack chain has been codenamed VOID#GEIST by Securonix Threat Research.
At a high level, the obfuscated batch script is used to deploy a second
Le GIF, c'est un format que j'adore mais qui date de 1987. Ouais c'est super vieux quoi (désolé les gens qui sont né cette année là ou avant...On est ensemble...loool). C'est l'époque où Rick Astley cartonnait et où Internet n'existait même pas encore pour le grand public. Et pourtant, y'a encore plein de gens qui s'en servent pour leurs animations avec notamment de la transparence. Alors c'est cool mais aujourd'hui, je vous propose qu'on règle ça une bonne fois pour toute.
Le problème du GIF en fait c'est assez technique puisque ça se compose de 8 bits de couleur (256 couleurs max) et surtout d'un alpha 1 bit. Chaque pixel est donc soit totalement opaque, soit totalement transparent, y'a pas d'entre-deux. Du coup quand vous avez une animation avec des bords arrondis ou des ombres portées, vous vous retrouvez avec des bords tout crénelés et moches. Ça donne un effet "découpage aux ciseaux de maternelle" qu'on aime bien parce que ça fait très rétro mais bon, on peut faire mieux aujourd'hui.
Car avec le WebP animé, c'est une autre histoire. Là on passe à 24 bits de couleur (plus de 16 millions de couleurs) et un alpha 8 bits, c'est-à-dire 256 niveaux de transparence au lieu de juste oui/non. Les dégradés, les ombres, les bords anti-aliasés... tout ça passe nickel et vos animations ont enfin l'air pro au lieu de sortir d'un site GeoCities.
Et niveau poids, y'a pas photo. Google annonce ~64% de réduction en lossy par rapport au GIF même si en pratique, comptez entre 50 et 70% de gain selon la complexité de l'animation. Cela veut dire que sur une page web avec plusieurs animations, ça fait une SACRÉE différence niveau temps de chargement.
Et côté compatibilité, en 2026 la question ne se pose plus puisque Chrome, Firefox, Safari (depuis iOS 14 en 2020), Edge... bref tout le monde supporte le WebP animé. Donc ces conneries de compatibilité, c'est plus une excuse !
Convertir avec gif2webp (la méthode recommandée)
L'outil officiel de Google s'appelle gif2webp (il est inclus dans
libwebp
) et c'est ce qu'il y a actuellement de plus fiable pour ce job.
Le paramètre -m c'est la méthode de compression, de 0 (rapide) à 6 (lent mais meilleur ratio). Perso, -m 4 je trouve que c'est le sweet spot comme on dit. Et le mode -mixed est intéressant aussi parce qu'il analyse chaque frame et décide tout seul si c'est mieux en lossy ou lossless.
Avec ffmpeg
Après si vous avez déjà
ffmpeg
installé (et si vous êtes sur ce blog, y'a de bonnes chances), ça marche aussi :
Le -c:v libwebp_anim force l'encodeur WebP animé (sans ça, ffmpeg choisit parfois le mauvais codec et vous obtenez un WebP statique avec juste la première frame... pas génial). Le -q:v va de 0 à 100, et je pense que 70 c'est un bon compromis.
Le -coalesce est important car les GIF optimisés stockent souvent juste les différences entre frames pour gagner de la place. Cette option reconstruit chaque frame en entier avant la conversion, sinon vous risquez des artefacts visuels bien moches.
Conversion en masse
Après convertir UN fichier c'est bien, mais si vous avez 200 GIFs à migrer, faut automatiser :
# Convertir tous les GIFs d'un dossier
for f in *.gif; do
gif2webp -mixed -q 70 -m 4 "$f" -o "${f%.gif}.webp"
echo "$f converti"
done
# Avec un rapport de taille avant/après
for f in *.gif; do
gif2webp -mixed -q 70 -m 4 "$f" -o "${f%.gif}.webp"
size_gif=$(stat -f%z "$f" 2>/dev/null || stat -c%s "$f")
size_webp=$(stat -f%z "${f%.gif}.webp" 2>/dev/null || stat -c%s "${f%.gif}.webp")
ratio=$((100 - size_webp * 100 / size_gif))
echo "$f: -${ratio}%"
done
Intégrer sur un site web
Ensuite pour mettre vos images animées sur votre site web, la méthode propre, c'est l'élément <picture> qui permet de proposer un fallback GIF pour les (rares) navigateurs récalcitrants :
Après je pense que le fallback GIF n'est vraiment plus indispensable pour le web classique mais par contre si vous envoyez des animations par email comme un le bon boomer que vous êtes, gardez le GIF en fallback parce que les clients mail, c'est un autre monde.
Ah et attention, j'ai lu certains articles qui suggèrent d'utiliser @supports en CSS pour détecter le WebP. Genre @supports (background: url(truc.webp)). Sauf que ça ne marche PAS. La règle @supports teste si une déclaration CSS est syntaxiquement valide, pas si le navigateur sait décoder le format d'image. Donc elle passera toujours, même sans support WebP. Donc si vous avez besoin d'une détection côté CSS, utilisez plutôt image-set() avec type(), mais franchement le <picture> fera le job.
Et l'AVIF animé dans tout ça ?
Alors vous avez peut-être entendu parler de l'
AVIF
, le format qui fait encore mieux que le WebP en compression. Pour les images statiques, c'est vrai, l'AVIF déchire (support Chrome, Firefox, Safari).
Mais pour les animations ? Bah c'est pas encore ça. Chrome n'affiche que la première frame, Safari ne le supporte pas du tout, et Firefox le cache derrière un flag (image.avif.sequence.enabled).
Bref, on en reparlera dans 2-3 ans.
Quel format pour quel usage ?
Hé oui, y'a un choix à faire parce que le WebP animé n'est pas non plus LA solution à tout. Voici ce que je vous propose en fonction de ce que vous voulez proposer comme animation :
WebP animé : stickers, emojis, petites animations en boucle avec transparence. Le meilleur ratio poids/qualité pour ce cas.
Vidéo MP4/WebM : si votre animation dépasse 5 secondes ou n'a pas besoin de transparence, une vidéo sera TOUJOURS plus légère. Un MP4 pèse ~50% de moins qu'un WebP animé pour le même contenu. Utilisez ``.
Lottie : pour les animations vectorielles (icônes, UI), c'est imbattable en poids (quelques Ko) et c'est scalable. Faut juste le player JS (~60 Ko mis en cache). J'suis sûr que vous ne connaissiez pas !!
APNG : si vous avez besoin de lossless absolu (logos, texte animé), c'est supporté partout mais c'est lourdingue.
Voilà, si vous avez encore des GIFs animés avec transparence qui traînent sur votre site, vous savez maintenant ce qu'il vous reste à faire.
Voici un billet récapitulatif du CKOIKIDI #98, mon émission en direct du 4 février 2026.
Comme d'habitude, j'ai fait ma veille sans aucune aide de l'IA.
On m'a demandé comment je faisais ma veille : Phoronix, Fedora Magazine, OMG! Ubuntu!) et le groupe LinuxGram sur Telegram pour dénicher du contenu pertinent.
Le mois de janvier a été calme, mais j'ai sélectionné quelques actus.
Voici le résumé complet, avec mes analyses et mes remarques :
1. Linux Mint 22.3 est là !
La grande nouvelle de la mi-janvier, c'est la sortie de Linux Mint 22.3 en version stable. Si vous utilisez déjà la 22.2, sachez que le système ne se mettra pas à jour tout seul : vous devez lancer manuellement la montée en version via le gestionnaire de mises à jour, sous l'onglet "Édition".
La star de cette mouture est l'environnement Cinnamon 6.6, qui apporte un nouveau menu d’applications. Je vais être honnête, je ne l'aime pas trop; il change brutalement les habitudes, notamment avec le déplacement de la barre de recherche, même s'il reste personnalisable.
Ceux qui utilisent la LMDE (Linux Mint Debian Edition) on reçu ces nouveautés automatiquement, un peu comme une "rolling release" pour l'interface.
Un autre ajout majeur est l'outil de diagnostic fusionné qui propose un équivalent graphique aux commandes lsusb et lspci pour voir les détails du GPU ou du BIOS. On y trouve aussi un nouvel utilitaire pour configurer le GRUB graphiquement, ce qui évite de bidouiller les fichiers texte dans /etc/default/grub.
Les nouvelles installations bénéficient du noyau HWE 6.14, garantissant un meilleur support matériel récent.
Notez aussi des améliorations sur les XApps et une meilleure gestion des claviers sous Wayland.
2. Linux From Scratch abandonne Sys V Init
Le projet LFS, qui permet de construire sa distribution de A à Z, a annoncé un changement historique le 1er février. L'équipe abandonne officiellement le support de SysVinit dans ses manuels pour se concentrer exclusivement sur Systemd.
Cette décision s'explique d'abord par la charge de travail monumentale pour les bénévoles qui doivent maintenir plus de 1000 paquets. De plus, des environnements comme GNOME et KDE (version 6.7+) imposent désormais Systemd comme prérequis pour la compilation.
Pour moi, c'est une décision logique puisque Systemd est devenu le standard universel dans le monde professionnel, que ce soit sous Debian, Red Hat ou Ubuntu. Même si certains puristes seront déçus, cela simplifie l'apprentissage (vu qu'on connait de façon générale des distributions avec systemd en entreprise et dans la tech).
3. BAZZITE : Le drama :(
C'est le dossier brûlant qui m'a fait un peu regretter d'avoir mis en avant cette distribution récemment. Un développeur clé, Anteas, a publié un "post-mortem" suite à son exclusion du projet par le fondateur, Kyle.
Kyle est accusé de gérer Bazzite comme son "OS personnel", en poussant des changements instables juste pour ses propres besoins.
Par exemple, il a supprimé prématurément X11 et forcé le passage à iwd pour le Wi-Fi, cassant la connexion de nombreux utilisateurs.
La communauté sur Discord est décrite comme toxique, avec des bannissements arbitraires pour quiconque signale un bug dérangeant.
Suite à ce conflit d'ego, les projets Aurora et Bluefin ont même quitté le serveur Discord commun pour s'en distancier. Le projet est passé de 500 à 60 000 utilisateurs par semaine depuis 2023, mais sa viabilité est aujourd'hui menacée par ce manque de sérieux communautaire.
Heureusement, grâce au système atomique d'Universal Blue, vous pouvez basculer vers Bluefin avec une simple commande rebase sans tout réinstaller.
4. Debian va retirer GTK2 dans Debian 14 !
L'équipe Debian a confirmé son intention de faire le ménage dans ses dépôts pour la future version 14 prévue en 2027. L'objectif est de supprimer complètement GTK2, un kit graphique qui n'est plus mis à jour depuis des années.
Il faut savoir que GTK3 est là depuis 15 ans et que même GIMP, le dernier grand logiciel à l'utiliser, est enfin passé à GTK3 avec sa version 3.0.
Arch Linux et RHEL 10 ont déjà franchi le pas, et Debian ne veut pas rester à la traîne avec des bibliothèques obsolètes. Cela pourrait poser problème à ceux qui utilisent encore de vieux scripts Python ou des applications de dépôts tiers non maintenues, donc prenez note !
Sur ma Fedora, j'ai remarqué que Steam dépend encore un peu de GTK2, donc il va y avoir du travail de transition.
Debian stable reste protégée pour l'instant, mais les utilisateurs de "Sid" verront les changements arriver bientôt, ou tout utilisateur ayant une distrib basée sur "Sid".
5. WINE 11 : Une petite révolution !
La version 11.0 de Wine, sortie à la mi-janvier, est ce que j'appelle un excellent cru d'ingénierie.
La grande nouveauté est la maturité du mode WoW64, qui permet de faire tourner des applications Windows 32 bits sur un système Linux 64 bits sans bibliothèques 32 bits.
C'est majeur, car cela permet enfin d'envisager la fin du "multilib", cette couche de dépendances souvent pénible à gérer.
Sur ma propre machine, j'ai 196 paquets 32 bits installés uniquement à cause de Steam, ce qui est absurde selon moi en 2026.
Wine 11 permet même de faire revivre de très vieilles applications 16 bits, ce que Windows lui-même ne supporte plus nativement.
On note aussi des améliorations de performance grâce au module noyau NTSync et une meilleure gestion de Wayland et Vulkan.
J'espère vraiment que Valve va mettre à jour son client Steam en 64 bits pur pour profiter de cette avancée et de ne plus avoir de 32bits une bonne fois pour toute !
C'est une version qui stabilise des années de travail sur la gestion de la mémoire et les API Win32/Win64.
Pour les professionnels, c'est une garantie de meilleure stabilité pour les logiciels métiers exigeants.
6. Firefox 148 permettra de désactiver les fonctions IA
Mozilla a fait preuve de bon sens en écoutant les critiques de sa communauté concernant l'intégration de l'IA.
Dans la version 148 prévue pour le 24 février, dans le menu "AI Control" fera son apparition un véritable "kill switch" qui permet de désactiver toutes les fonctions d'intelligence artificielle en un seul clic. Cela bloquera notamment les traductions automatiques, les suggestions de regroupement d'onglets et les raccourcis vers les chatbots.
C'est une excellente nouvelle pour ceux qui ont des machines moins puissantes, car ces fonctions sollicitent inutilement le CPU et la RAM.
Si vous ne voulez pas d'IA dans votre navigateur, vous n'aurez plus besoin de passer par des versions modifiées comme LibreWolf.
Mozilla prouve qu'on peut innover sans imposer de nouvelles technologies gourmandes. C'est une victoire pour la clarté et la performance du logiciel libre.
7. Vivaldi 7.8 : Pas d'IA mais plein de nouveautés
Mon navigateur personnel, Vivaldi, a sorti sa version 7.8 avec un slogan très clair : "aucune foutaise d'IA".
Le PDG, Jon von Tetzchner, préfère se concentrer sur des fonctionnalités de productivité demandées par les utilisateurs. La nouveauté phare est l'amélioration de la juxtaposition d'onglets par glisser-déposer, rendant la navigation multitâche encore plus fluide.
Vivaldi reste un logiciel "presque libre" (basé sur Chromium mais avec une interface propriétaire), mais il est souverain et européen.
Dans le live, on m'a posé la question sur son modèle économique : il est transparent, reposant sur des partenariats avec les moteurs de recherche et des commissions sur les favoris, sans collecter vos données.
On m'a questionné sur mon usage et j'utilise énormément la navigation à la souris et la juxtaposition d'onglets, des fonctions que je ne retrouve nulle part ailleurs. Je l'utilise aussi sur mobile, avec la synchronisation des données (favoris, mots de passe) de manière chiffrée avec sa propre phrase de passe.
Le navigateur intègre aussi un client mail et un lecteur de flux RSS très performants.
C'est le choix idéal pour ceux qui veulent un outil puissant, sans télémétrie abusive ni gadgets à la mode.
8. Un dépôt RPM pour Firefox : Un pied de nez aux paquets universels ?
Mozilla continue de s'émanciper des distributions en proposant son propre dépôt RPM officiel, après l'avoir fait pour les paquets DEB.
C'est une annonce intéressante puisque Red Hat Enterprise Linux (RHEL) 10 ne propose plus Firefox dans ses dépôts de base, poussant uniquement vers Flatpak.
Ce dépôt permet d'installer Firefox Nightly dès maintenant, et les versions stables d'ici la fin de l'année, sur les distributions RPM
L'avantage est majeur : vous recevez les mises à jour directement de Mozilla avec des optimisations de performance liées à leurs propres compilateurs. De plus, les binaires sont durcis avec des FLAG de sécurité activés dès la compilation.
Cela permet déviter la version ESR (Extended Support Release) souvent imposée par les distributions comme Rocky, Alma ou Mageia par exemple, qui peut être trop ancienne pour certains usages.
On n'a pas besoin de créer manuellement son fichier .desktop pour avoir Firefox dane le menu des applications comme on devait le faire si on récupérait l'archive tar.gz, et tout est intégré proprement au gestionnaire de paquets.
C'est une solution de confiance qui garantit la fraîcheur du logiciel sans dépendre des cycles de maintenance des distributions.
9. Sécurité : L'infra de Notepad++ vulnérable : danger pour les utilisateurs
Un incident de sécurité sérieux a touché le mécanisme de mise à jour de Notepad++ entre juin et décembre 2025.
Ce n'est pas le code du logiciel lui-même qui a été piraté, mais l'infrastructure de son ancien hébergeur. Des attaquants ont détourné le trafic pour proposer des versions infectées de l'application à certains utilisateurs ciblés.
C'est ce qu'on appelle une "supply chain attack" très fourbe, car l'utilisateur pense télécharger une mise à jour officielle.
Le problème a été corrigé avec la version 8.8.9, qui vérifie désormais systématiquement les certificats et signatures numériques.
J'ai souligné pendant le live que sous Linux, ce genre de problème est "quasi" impossible, car nos distributions compilent le code source récupéré de github ou tout autre dépôt de code avant de le distribuer.
Sous Windows, chaque logiciel gère ses propres mises à jour via des mécanismes différents, ce qui peut créer des failles potentielles comme vu dans cet exemple.
Si vous utilisez encore Notepad++ sous Windows, désinstallez-le et repartez sur une installation propre de la dernière version. Pour les utilisateurs sous Linux, il existe des alternatives comme Notepadqq, et j'ai indiqué que j'ai contribué initier la traduction en françaisen 2014 par là avec mon amis David, packageur chez Mageia.
10. KDE 6.6 : Testez l'intégration dans Fedora Linux !
On termine sur une sensibilisation à la contribution pour les utilisateurs de Fedora.
Des journées de test (Test Days) sont organisées pour valider l'intégration de KDE Plasma 6.6 avant sa sortie stable en février.
C'est le moment de tester des fonctions critiques comme l'audio, le tableau de bord ou le nouveau gestionnaire de fenêtres.
Une nouveauté importante à surveiller est le Plasma Login Manager, qui vient remplacer l'historique SDDM pour la gestion de la connexion.
Participer à ces tests permet de remonter des bugs d'intégration en signalant via un coche verte ou rouge suivant le résultat des tests effectués.
On m'a demandé mon avis sur le chat sur la lourdeur de KDE, qui pour moi est un peu plus léger que GNOME ces derniers temps, ce qui le rend très attractif pour les configurations moyennes.
Si vous avez une machine de test ou une machine virtuelle, votre aide est précieuse pour valider la bonne intégration de l'environnement.
Merci d'avoir lu ce résumé complet !
N'hésitez pas à me dire ce que vous avez pensé de ce format pour savoir si je poursuis ce type de résumé post-live.
Voici un billet récapitulatif du CKOIKIDI #99, mon émission en direct du 4 mars 2026.
Le replay est dispo ici : https://youtube.com/live/1psEg-2KLvQ
Vous avez bien aimé le premier résumé, alors je continue sur ma lancée.
Voici le résumé complet, avec mes analyses et mes remarques :
1. Ubuntu 24.04.4 est là avec un kernel 6.17...
On commence avec la sortie de la version 24.04.4 LTS d'Ubuntu, qui fait office de gros "Service Pack" regroupant toutes les mises à jour depuis le lancement. Le point central est l'arrivée du noyau 6.17 via la pile HWE (Hardware Enablement), permettant de supporter les processeurs et cartes graphiques les plus récents. Les pilotes graphiques Mesa sont également mis à jour, ce qui est une excellente nouvelle pour les performances en jeu sur Linux. Les images ISO ont été régénérées pour vous éviter de récupérer toutes les MàJ depuis 2024.
Cependant, tout n'est pas rose : cette version provoque un Kernel Panic au démarrage si vous utilisez VirtualBox, un bug déjà identifié sur la version 25.10 mais poussé quand même en LTS.
Si vous n'avez pas besoin spécifiquement de VirtualBox, privilégiez Gnome Boxes pour la virtualisation.
On a fait un sondage et sur Twitch, il a montré que vous êtes une majorité à utiliser une base Ubuntu ou une version LTS. Je trouve dommage que Canonical se disperse parfois au lieu de stabiliser ces points critiques. En résumé, c'est une mise à jour solide pour le matériel récent, malgré ce raté sur VirtualBox.
Liens : https://lists.ubuntu.com/archives/ubuntu-announce/2026-February/000321.html
2. Le freeze d'Ubuntu 26.04 LTS a commencé
Quelques infos sur la prochaine version majeure, la 26.04 LTS, dont le nom de code est Resolute Raccoon (le Raton Laveur Déterminé). Le "Feature Freeze" a commencé, ce qui signifie qu'on ne rajoute plus de nouvelles fonctionnalités pour se concentrer sur la chasse aux bugs. C'est une phase importante un mois et demi avant la sortie finale prévue le 23 avril. Elle sera supportée 5 ans par défaut, et jusqu'à 10 ou 12 ans avec un compte Ubuntu Pro gratuit pour particulier.
Attention toutefois, les variantes comme Kubuntu ou Xubuntu ne bénéficient que de 3 ans de support car leurs paquets sont dans le dépôt "Universe". Cette version devrait embarquer Gnome 50 et surtout le futur noyau Linux 7.0.
J'attends la bêta avec impatience pour voir ce que ce raton laveur a dans le ventre et préparer la vidéo de présentation qu'on sortira le jour J comme vous aimez bien.
Liens : https://www.phoronix.com/news/Ubuntu-26.04-Feature-Freeze
3. Primtux 9 est disponible !
C’est une actualité qui me tient à cœur : la sortie de PrimTux 9, une distribution française dédiée aux écoles primaires. Elle est désormais basée sur Linux Mint 22.3, ce qui lui assure une stabilité et un support jusqu'en 2029. L'interface est géniale car elle propose des sessions par tranches d'âge (cycles 1, 2 et 3) avec des applications adaptées à chaque niveau.
On y trouve des logiciels comme Tux Paint, TuxMath ou des outils d'orthographe accessibles hors ligne. Cette version intègre aussi Duck AI pour une initiation à l'IA respectueuse de la vie privée via DuckDuckGo. Le filtrage DNS et le contrôle parental sont inclus par défaut pour protéger nos bambins.
Le navigateur pointe directement sur Qwant Junior, ce qui est parfait pour la sécurité des recherches.
Je trouve ce projet admirable car il montre qu'on peut faire du très bon libre en France pour nos services publics.
J'aimerais beaucoup faire un reportage dans une école près de Dole (Sampans dans le Jura) qui utilise cette distribution pour montrer concrètement son usage. C'est une alternative sérieuse et souveraine face aux solutions propriétaires de Microsoft. N'hésitez pas à l'installer sur un vieux PC pour vos enfants, elle redonne vie au matériel dès 2 Go de RAM.
Liens : https://www.linkedin.com/posts/primtux_primtux-9-est-disponible-apr%C3%A8s-plusieurs-activity-7433511550470172672-fFRn/
4. Gentoo migre ses dépôts sur Codeberg
La distribution Gentoo a annoncé son départ progressif de GitHub pour rejoindre Codeberg, une plateforme allemande à but non lucratif. Historiquement, Gentoo hébergeait ses "ebuilds" (les recettes de compilation) sur GitHub, mais le rachat par Microsoft pose des problèmes éthiques. L'une des raisons majeures est la volonté d'éviter que leur code source ne serve à alimenter Microsoft Copilot sans leur consentement.
Codeberg s'appuie sur Forgejo, un outil libre et souverain et Codeberg est hébergé en Europe.
Pour l'instant, Codeberg servira de miroir pour faciliter les contributions externes via des "Pull Requests". Pour l'utilisateur final de Gentoo, cela ne change absolument rien aux mises à jour quotidiennes.
J'ai indiqué dans le live que je comprenais tout à fait ce choix politique et souverain, même si je reste sur GitHub pour mes propres projets par commodité.
C'est un signal fort envoyé par un grand projet Linux.
Liens : https://www.gentoo.org/news/2026/02/16/codeberg.html
5. Alma Linux propulse plus de 2 million de serveurs !
En tant que contributeur à AlmaLinux, je suis fier de vous partager des actus sur le projet.
Niveau usage, Alma Linux a franchi la barre des 2 millions de serveurs actifs.
La progression est impressionnante: on est passé de 1 million à 2 millions en seulement un an. La distribution s'est émancipée de son rôle de clone "bug-for-bug" de Red Hat pour proposer des améliorations concrètes.
Par exemple, Alma a réintroduit le support de BTRFS et des processeurs X86-64-v2 que Red Hat avait abandonnés. Elle fourni aussi des pilotes Nvidia signés pour le Secure Boot directement dans ses dépôts, ce qui est un gain de temps énorme pour les serveurs tout en ne dégradant pas la sécurité.
Le projet Elevate permet désormais de migrer facilement d'Alma 9 vers Alma 10 (normal ou Kitten).
Je considère que c'est aujourd'hui la meilleure distribution serveur, alliant stabilité de 10 ans et pragmatisme technique (OK je ne suis peut être pas neutre dans l'avis).
Les statistiques montrent une adoption massive, probablement au détriment de CentOS plus maintenues ou de Red Hat EL trop coûteux.
Même si on n'aime pas la télémétrie dans le monde du libre, ces chiffres confirment que le projet a une place centrale dans l'écosystème.
Liens : https://almalinux.org/blog/2026-02-25-almalinux-2025-recap/
6. Linux 6.19 est là avec des améliorations !
Le noyau Linux 6.19 est sorti le 10 février avec son lot d'améliorations habituelles. On note un nouveau pilote pour les cartes réseau Intel qui réduit la latence et booste les débits.
Côté graphisme, les possesseurs de vieilles cartes AMD bénéficient d'un boost de performance de 30 % grâce à la bascule vers le pilote AMDGPU.
C’est aussi le début du support du HDR pour le bureau Linux, une excellente nouvelle pour les créateurs de contenu.
Le système de fichiers BTRFS reçoit également des patchs pour améliorer la résilience des données.
Linus Torvalds a qualifié cette version de standard, sans révolution majeure, mais toujours efficace. Si vous êtes sur une rolling release comme Arch ou sur des distributions stables actives comme Fedora, vous l'avez probablement déjà reçu.
On voit que le noyau continue de s'adapter au matériel le plus récent, notamment les processeurs ARM.
Je l'utilise actuellement sur ma machine et tout fonctionne parfaitement.
Liens : https://linux.developpez.com/actu/380109/Linus-Torvalds-a-publie-la-version-finale-du-noyau-Linux-6-19-avec-de-meilleures-capacites-reseau-pour-les-cartes-reseau-Intel-et-des-ameliorations-au-niveau-des-GPU-pour-les-cartes-graphiques-AMD/
7. Le kernel 7.0 arrive !
Ne vous attendez pas à une révolution, la version 7.0 du noyau arrive simplement parce que Linus Torvalds n'aime pas compter au-delà de 20
C’est une évolution qui se concentre sur la gestion de la mémoire pour les processeurs possédant des centaines de cœurs. L'intelligence artificielle est aussi à l'honneur avec des pilotes dédiés aux NPU (Neural Processing Units) intégrés dans les nouveaux PC. On y retrouvera également un meilleur support pour l'USB 4.0 et les écrans à très haute fréquence de rafraîchissement.
Ce sera le noyau par défaut de la prochaine Ubuntu 26.04 LTS.
Linus lui-même dit que c'est une "évolution, pas une révolution", il ne faut donc pas fantasmer sur ce numéro de version. On reste sur une base stable avec quelques ajouts pour le matériel futuriste.
C'est surtout une étape symbolique qui marque la fin du cycle 6.x.
Liens : https://www.linuxjournal.com/content/linux-70-coming-what-expect-next-major-kernel-release
8. Extension du support Linux 6.18 LTS / 6.12 LTS / 6.6 LTS
Excellente nouvelle de la part de Greg Kroah-Hartman : le support de plusieurs noyaux LTS est prolongé.
Le noyau 6.18 voit sa fin de vie passer de 2027 à 2028, tandis que le 6.6 gagne également un an. C’est une décision importante pour rendre Linux viable sur les déploiements critiques de long terme.
Cela va grandement aider des distributions comme Debian 13 qui s'appuient sur le noyau 6.12. Les mainteneurs de Debian auront moins de travail de rétroportage des correctifs de sécurité sur les dernières années.
Canonical et Red Hat continuent de toute façon de maintenir leurs propres noyaux, mais pour la communauté, c'est intéressant.
Pour rappel, le noyau LTS est traditionnellement le dernier sorti dans l'année.
Liens : https://kernel.org/https://git.kernel.org/pub/scm/docs/kernel/website.git/commit/?id=d04587da86a3464881e0c97aabddd2c271105698
9. sudo : le colosse aux pieds d'argile a besoin d'aide !
C’est le "coup de gueule" du mois : Todd Miller, le mainteneur unique de Sudo depuis 30 ans, manque de moyens.
Il fait face à une baisse de financement de ses sponsors, ce qui ralentit le rythme des correctifs pour cet outil critique.
C'est incroyable de se dire qu'un logiciel présent sur tous les serveurs du monde repose sur les épaules d'un seul homme bénévole.
Todd refuse de confier le projet à n'importe qui, rappelez-vous l'affaire de la backdoor XZ.
Des entreprises comme Canonical développent Sudo-RS en Rust, mais cela n'aide pas le projet original. D'ailleurs la réécriture de sudo en rust a eu déjà 2 CVE en 2025 donc ...
Je pense que des géants comme Red Hat ou Google devraient allouer du temps de leurs développeurs pour aider Todd. On utilise tous Sudo sans se poser de questions mais il est temps que l'écosystème open source prenne ses responsabilités financières.
Sudo est indispensable, et le laisser péricliter serait une catastrophe, il est d'ailleurs recommandé dans le guide de l'ANSSI.
Liens : https://www.millert.dev/
10. VIM 9.2 est là !
Mon éditeur de texte préféré, Vim, passe en version 9.2 avec des nouveautés très particulières.
Le langage de script maison a été optimisé, ce qui rend les plugins (coloration, Rust, etc.) bien plus rapides.
Un support pour Wayland natif sans passer par la couche XWayland. Cela règle enfin les problèmes de copier-coller capricieux entre le terminal et le bureau graphique.
Autre point : Vim respecte enfin le standard XDG, on peut donc ranger son fichier de configuration dans .config/vim/ et plus à la racine du dossier personnel !
C'est un logiciel qui se bonifie avec le temps, comme du bon vin (à une lettre près !).
Le mode "diff" a également été amélioré.
Même si beaucoup utilisent Nano par défaut, Vim reste assez incontournable.
Vim prouve qu'un logiciel de 30 ans peut encore innover et s'adapter aux technologies modernes.
Liens : https://www.vim.org/vim-9.2-released.php
11. GrapheneOS s'associe à Motorola
GrapheneOS, considéré comme l'OS mobile le plus sécurisé au monde, s'émancipe des Google Pixel. Un partenariat historique a été annoncé avec Motorola pour porter ce système durci sur leur matériel. Jusqu'ici, seuls les Pixel offraient les puces de sécurité (comme la Titan M) exigées par le projet.
Motorola a accepté de modifier son matériel pour répondre aux critères de sécurité drastiques de GrapheneOS.
C'est une excellente nouvelle pour les journalistes qui veulent pouvoir communiquer en sécurité par exemple et les utilisateurs soucieux de leur vie privée. On pourra enfin avoir un téléphone "dégooglisé" et durci sans rester dans l'écosystème Google.
GrapheneOS restera toutefois contraignant, car certaines applications bancaires refusent de fonctionner sans les services Google. Mais pour un usage sécurisé et privé, c'est une option qui devient enfin accessible sur plus de modèles. On attend de voir quels smartphones Motorola seront les premiers compatibles.
Liens : https://motorolanews.com/motorola-three-new-b2b-solutions-at-mwc-2026/
12. L'ANSSI met à jour sa politique opensource !
On a terminé le live avec une nouvelle réjouissante : l'ANSSI a publié sa nouvelle politique en faveur du logiciel libre. L'agence s'engage sur quatre axes, dont la publication de ses propres outils de cybersécurité en open source. Elle privilégiera désormais la contribution aux projets existants plutôt que de réinventer la roue dans son coin. L'objectif est d'utiliser le libre comme un standard de transparence et de maîtrise de nos environnements numériques.
C'est un cercle vertueux : nos impôts financent des améliorations qui profitent à tout l'écosystème.
Cela rejoint ce qu'on disait sur PrimTux : l'État français commence enfin à comprendre l'intérêt stratégique du libre. L'ANSSI ne s'interdit pas le propriétaire mais considère le libre comme un gage de fiabilité auditable.
C'est une bonne nouvelle pour le libre et un pas de plus vers la souveraineté nationale.
Liens : https://cyber.gouv.fr/actualites/lanssi-met-a-jour-sa-politique-open-source/
Shuffle
, c'est un outil qui vous propose de redesigner votre site web avec 4 modèles d'IA différents. Vous collez votre URL, vous décrivez ce que vous voulez... et boom, Claude Opus 4.6, GPT-5.2, Gemini 3 Pro et Kimi K2.5 vous pondent chacun leur version. J'ai testé sur ma home. Verdict : c'est moche de fou !
Vous arrivez sur la page, vous entrez l'adresse de votre site, vous tapez un petit prompt du genre "modernise mon blog tech" et vous lancez la machine. Les 4 modèles bossent alors en parallèle et au bout de 30 secondes environ, vous avez 4 propositions de redesign à comparer côte à côte.
Je trouvais le concept cool, sauf que dans la pratique, c'est une autre histoire. Comme je vous le disais en intro, j'ai testé sur korben.info, et les 4 IA ont eu exactement la même idée lumineuse : tout foutre en thème sombre. QUATRE sur QUATRE ! Pas un seul n'a osé proposer autre chose qu'un fond #1a1a2e dégeu avec des accents néon bleu-vert. Original, hein !!
Les 4 propositions de redesign de korben.info... toutes en dark mode. Désolé si votre site ressemble à ça.
On dirait que pour les IA, "blog tech" = "dark mode obligatoire"... et du coup ça ressemble à tous les médias tech génériques qu'on retrouve partout. Sauf si vous précisez "fond clair" dans le prompt, mais même là, c'est pas garanti.
Claude Opus a pondu une esthétique "hacker" avec du code Matrix en fond vert (carrément, on se laaache). GPT-5.2 a carrément rebaptisé le site "KORBEN NEXT" avec une baseline inventée de toute pièce, "La veille tech qui va droit au but"... euh, merci mais non merci j'aime pas le foot. Gemini 3 Pro a opté pour un style magazine éditorial et Kimi K2.5 (le modèle chinois de Moonshot AI) a sorti le gradient hero classique, propre... ou plutôt fade.
Bah ouais, les IA analysent la structure, les catégories, les images... mais le résultat c'est finalement toujours le même template sombre "tech media 2024" qu'on a vu un million de fois. Alors que pour moi, Korben.info c'est pas du tout cette ambiance.
Mais l'outil a quand même des qualités puisque l'éditeur visuel permet de modifier le résultat en drag-and-drop sans toucher au CSS, et vous pouvez même exporter le code dans 4 formats : Next.js, Laravel, WordPress ou HTML classique. En fait, ça peut servir de très bon point de départ si vous avez la flemme de partir d'une page blanche et si votre webdesigner est devenu injoignable depuis qu'il est parti à Punta Cana.
Côté prix, y'a une version gratuite mais limitée à quelques générations, et après puis c'est 24 dollars par mois...etc.
Ça aurait pu être un excellent outil mais malheureusement, les modèles sont formatés sur les mêmes tendances, les mêmes palettes, les mêmes layouts. C'est dommage je trouve. Voilà, après je pourrais vous faire une conclusion bien neuneu genre "C'est pas demain qu'une IA remplacera un vrai directeur artistique qui comprend l'identité d'une marque." mais la réalité, c'est que un humain moyen motivé qui sait ce qu'il veut peut avoir un truc incroyablement bien généré par IA s'il prend le temps le temps de se former et qu'il ne lâche rien ! Tenez par exemple, 100% du template graphique de mon site a été généré à l'aide de l'IA et moi derrière pour la fouetter...
Voilà, si vous voulez rigoler un peu, allez tester votre site sur Shuffle mais ne vous attendez pas à un miracle !
Mickadoule vient de mettre en ligne une vidéo dans laquelle il découvre et prend en main Strudel, une librairie JavaScript qui permet de créer de la musique en temps réel, directement dans ton navigateur :
Je ne sais pas vous, mais à la fin de la vidéo j'ai presque envie de m'y mettre alors que je n'y connais rien en musique
Plutôt que de chercher des musiques libres de droits pour accompagner du contenu (vidéo par exemple) cela peut être une très bonne alternative.