Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 23 février 2026Korben

osxphotos - Sauvegardez automatiquement votre photothèque Apple

Par : Korben
23 février 2026 à 13:39

Vos photos dans iCloud, c'est une synchronisation, et pas un backup et même si la nuance est mince, quand on s'en rend compte, il est souvent trop tard... C'est pourquoi même si vous avez une confiance aveugle en Apple, si demain votre compte est supprimé pour une raison ou une autre, vous perdrez l'accès à vos précieuses photos. Et ça, on ne le veut pas ! Alors aujourd'hui, on va apprendre à en faire une sauvegarde.

Pour cela, on va utiliser osxphotos , une bibliothèque Python open source (MIT) qui lit directement la base SQLite de Photos.app pour en exporter tout le contenu. Ça tourne sur macOS de Sierra à Sequoia, et même sur Linux.

L'installation :

brew tap RhetTbull/osxphotos
brew install osxphotos

Et pour exporter tout votre catalogue de photos vers un disque externe il suffit d'entrer la commande suivante :

osxphotos export /Volumes/MonDisque/Photos --download-missing --update

--download-missing forcera le téléchargement depuis iCloud des photos pas encore présentes en local et --update fera le boulot incrémental, ne retraitant que les nouvelles photos ou celles modifiées depuis le dernier lancement.

Du coup, le premier export peut prendre des heures, et les suivants quelques secondes. L'outil génère d'ailleurs un .osxphotos_export.db dans le dossier de destination pour tracker ce qui a déjà été exporté. Je trouve ça un peu plus simple que d'exporter toute la grosse photothèque .photoslibrary à chaque coup.

Ensuite, pour automatiser, un cron suffit (vérifiez votre chemin avec which osxphotos - /opt/homebrew/bin/ sur Apple Silicon, /usr/local/bin/ sur Intel) :

0 3 * * * /opt/homebrew/bin/osxphotos export /Volumes/MonDisque/Photos --download-missing --update

Moi je l'ai mis tous les jours à 3h du mat ! Mais attention, disque non monté = 0 export, 0 erreur visible. Donc à moins que vous ayez un script de vérification du montage, vérifiez les logs de temps en temps. Pour une gestion plus propre des conditions de montage, launchd est quand même préférable, mais pour commencer, le cron fera très bien l'affaire.

Après si vous n'utilisez pas Photos.app mais juste iCloud depuis votre iPhone, regardez plutôt du côté de la sauvegarde iPhone sur disque externe . Et si vous voulez aussi mettre en sécurité vos données Apple Notes , ou les migrer sur Obsidian, c'est possible aussi.

LocalProse - L'atelier d'écriture boosté à l'IA locale

Par : Korben
23 février 2026 à 12:37

Si vous écrivez de la fiction et que l'idée de savoir que vos brouillons dorment sur des serveurs américains AWS ça vous donne des boutons, je pense que LocalProse va vous intéresser.

Cet outil c'est un atelier d'écriture créative façon Scrivener , sauf que l'IA générative intégrée tourne entièrement en local sur votre CPU ou votre GPU. Le logiciel est développé en Flutter par Alexandre, un dev indé basé à Montauban qui est un lecteur de korben.info et aussi auteur de roman .

Dans l'outil vous retrouverez pèle mêle un éditeur sans distraction avec timer Pomodoro, de la dictée vocale ou plutôt un mode de capture d'idées mains-libres, un système de gestion d'univers pour organiser vos personnages et décors avec des fiches relationnelles et une fonction d'audit de cohérence narrative.

Comme ça, si votre héros change de couleur de yeux entre le chapitre 3 et le 12, l'outil peut le repérer et vous avertir. C'est hyper pratique ! Côté export, vous avez du DOCX, TXT et PDF en version gratuite, et l'EPUB en plus avec le mode Pro.

Car oui, l'app est gratuite mais les fonctions IA sont dispo en mode Pro (9,90 €/mois ou 99 €/an, après 7 jours d'essai). Elle fonctionne aussi sous Linux et vient aussi d'être publiée sur le Microsoft Store. Par contre, attention, la version macOS exige un Apple Silicon (M1+).

Et côté ressources, comptez entre 8 et 13 Go de stockage pour les modèles IA locaux, plus 16 Go de RAM (à moins que vous soyez sur Apple Silicon, qui gère ça nativement), et idéalement une NVIDIA RTX 8 Go de VRAM pour que ça tourne vraiment bien.

Bref, si vous cherchez un Scrivener avec IA 100% locale, c'est sur localprose.com que ça se passe !

Voilà.

Merci à Alexandre !

Vates VMS - L'alternative française open source à VMware qui cartonne

Par : Korben
23 février 2026 à 10:41
-- Article en partenariat avec VATES --

Vous avez vu le bazar chez VMware depuis que Broadcom a racheté la boîte ? Les prix qui flambent, les licences qui changent tous les quatre matins, les clients historiques qui reçoivent des factures multipliées par je sais pas combien... C'est la panique générale dans les DSI !

Et pendant ce temps-là, y'a une boîte française basée à Grenoble qui se frotte les mains. Pas par schadenfreude hein, mais parce qu'ils bossent depuis 2012 sur une alternative open source à VMware. Vous l'aurez compris, je parle de Vates et de leur stack complète baptisée Vates VMS.

J'ai donc eu l'occasion de mettre les mains dans le cambouis avec leur lab de test la semaine dernière. Ils m'ont prêté 3 serveurs HPE Moonshot rien que pour moi, avec accès VPN, et carte blanche pour faire mumuse. J'avoue, au début je pensais galérer avec la config réseau... Eh bah non. J'installe XCP-ng en une dizaine de minutes, je configure le VLAN qui va bien, et c'est parti.

Mais avant, je vous propose de poser un peu les bases pour ceux qui débarquent. Vates VMS, c'est une suite complète qui comprend XCP-ng (l'hyperviseur bare-metal de Type 1, basé sur Xen... oui oui, le même Xen qui fait tourner AWS depuis des lustres) et Xen Orchestra (l'interface web pour tout gérer). Le tout en 100% open source, hébergé par la Linux Foundation.

Et là vous allez me dire "ouais mais open source, c'est souvent la version bridée avec les vraies features payantes". Eh bien non, chez Vates c'est différent ! En fait, tout est dispo gratos sur GitHub. Leur modèle économique repose sur le support et l'accompagnement, et pas sur des licences à la c*n facturées au core ou au socket. Un prix fixe par serveur physique, point barre. Comme ça y'a pas de surprise sur la facture, ni de calculette à sortir quand vous ajoutez de la RAM.

D'ailleurs, ils viennent de sortir Xen Orchestra 6, entièrement réécrit en Vue.js. Et pour l'avoir testé, je peux vous dire que l'interface est vraiment fluide, moderne, et surtout pensée pour qu'on s'y retrouve sans avoir besoin d'un doctorat en VMwarologie. Vous gérez vos VMs, vos backups, vos migrations, votre monitoring... tout ça depuis un navigateur sur n'importe quel OS.

Et y'a même XO Lite, une version ultra-légère embarquée directement dans XCP-ng pour les opérations de base. Bon, faut pas s'attendre à tout gérer avec ça car c'est vraiment pour le dépannage quand vous n'avez pas accès au serveur principal. Mais c'est pratique quand vous êtes en déplacement et qu'il faut redémarrer une VM en urgence.

Pour les boîtes qui veulent se barrer de VMware, ils ont également développé des outils de migration V2V. Ça fonctionne pour 90% des usages VMware existants (attention quand même aux configs exotiques avec du vSAN ou des plugins proprio, là faut prévoir un peu plus de boulot). Et l'architecture est suffisamment proche de VMware pour que la transition se fasse sans tout réinstaller from scratch.

Côté fonctionnalités avancées, y'a également XOSTOR pour ceux qui veulent faire de l'hyperconvergence. C'est leur SAN virtuel basé sur DRBD qui transforme vos disques locaux en stockage partagé avec réplication et haute disponibilité. Comme ça, plus besoin de SAN externe hors de prix, puisque vos serveurs XCP-ng deviennent un cluster de stockage distribué.

Pour les DevOps, c'est aussi la fête ! Terraform, Pulumi, Ansible, API REST, CLI... tout y est. J'ai pas eu le temps de tester Terraform en profondeur, mais le provider XO existe bien sur le registry HashiCorp. Ils ont même un projet Pyrgos pour déployer Kubernetes directement depuis Xen Orchestra. Bref, c'est cloud-native ready.

Perso, ce qui m'a vraiment convaincu durant mes tests, c'est qu'on n'a pas 15 outils différents avec lesquels jongler. J'ai bien sûr testé la création de VM, les snapshots, les backups incrémentaux... tout passe par la même interface. Un seul éditeur qui maîtrise toute la stack, de l'hyperviseur jusqu'aux sauvegardes, c'est quand même le kiff. Sans oublier la doc qui est claire comme de l'eau de roche et le support répond vraiment (enfin pour ceux qui prennent un contrat, sinon y'a la communauté qui est plutôt active sur le forum).

Côté références, ils ont plus d'un millier de clients dans le monde entier. Même la NASA utilise les outils de Vates (hé ouais quand même, c'est la classe !), sans oublier des universités, des hôpitaux, l'ANSSI... C'est du sérieux !

Et pour les administrations françaises qui doivent passer par les marchés publics, Vates est référencé chez CAIH, CANUT et UGAP. Du coup pas besoin de monter un appel d'offres complexe, vous pouvez commander directement via les catalogues. Et si vous vous demandez comment ça se compare à ESXi ou à Proxmox , sachez que l'architecture est vraiment proche de VMware (donc migration facilitée), mais avec la philosophie open source en plus.

Alors oui, c'est un article sponsorisé, mais sincèrement si vous êtes sur VMware et que vous regardez vos factures arriver avec des sueurs froides depuis le rachat par Broadcom, ça vaut vraiment le coup de jeter un œil. C'est français, c'est open source, c'est maintenu par une équipe d'une centaine de personnes et ça fait très bien le taf.

Y'a même un essai d'un mois pour tester avant de se décider, histoire de ne pas acheter chat en poche (oui c'est une vraie expression du XVe siècle que je viens de découvrir alors je vous la transmets, faites en bon usage).

Bref, si la souveraineté numérique et l'indépendance technologique c'est votre truc (ou si vous en avez juste marre de vous faire racketter), allez voir ce qu'ils proposent , c'est top !

Tunnelto - Exposez votre serveur local avec inspection du trafic

Par : Korben
23 février 2026 à 10:25

Si vous avez déjà eu besoin de montrer une app en dev à un client ou de tester un webhook Stripe sans vous farcir une config nginx, y'a de fortes chances que vous connaissiez ngrok .

Hé bien Tunnelto fait sensiblement la même chose, mais en Rust et avec un truc en plus qui fait la différence : un dashboard d'introspection pour voir tout ce qui passe dans le tunnel.

Du coup, vous lancez une commande, vous récupérez une URL publique genre votresite.tunnelto.dev, et hop, votre localhost devient accessible depuis n'importe où. Et surtout, vous pouvez inspecter toutes les requêtes HTTP qui transitent. Super utile quand vous débuguez une API ou que vous essayez de comprendre pourquoi ce foutu webhook ne se déclenche pas.

Pour l'installer, plusieurs options s'offrent à vous :

Sur macOS via Homebrew :

brew install agrinman/tap/tunnelto

Via Cargo :

cargo install tunnelto

Et pour exposer votre app qui tourne sur le port 8000 :

tunnelto --port 8000

C'est tout ! Le service vous file une URL avec un sous-domaine aléatoire. Mais si vous voulez quelque chose de plus mémorable, vous pouvez demander un sous-domaine custom :

tunnelto --port 8000 --subdomain monprojet

Et vous obtenez monprojet.tunnelto.dev. Pas mal pour une démo client, non ?

Bon, si vous avez suivi mes articles sur Bore ou Tunnl.gg , vous vous demandez peut-être la différence. Bore est ultra-minimaliste, Tunnl.gg ne nécessite même pas de client à installer... Tunnelto se situe entre les deux : plus complet que Bore avec son dashboard d'introspection, mais plus léger que ngrok avec son approche open source.

D'ailleurs, y'a un truc cool avec Tunnelto c'est que vous pouvez héberger votre propre serveur si vous ne voulez pas dépendre d'un service tiers. Pratique pour les entreprises qui veulent garder le contrôle sur leurs tunnels. Sous le capot, ça utilise également tokio pour l'async Rust, donc c'est rapide et ça consomme que dalle en ressources.

Bref, si ngrok vous paraît trop usine à gaz et que Bore manque de fonctionnalités pour vous, Tunnelto fera bien le taf surtout avec son module d'inspection du trafic HTTP, qui fait la diff quand on débugue des intégrations...

Source

Automatisez vos repos GitHub avec .github

Par : Korben
22 février 2026 à 10:30

Le dossier .github est un petit répertoire magique que vous avez sûrement déjà croisé à la racine de vos dépôts préférés. Il est là, non pas pour faire joli ou pour planquer vos secrets de fabrication (pour ça, y'a les secrets GitHub, hein), mais plutôt pour centraliser plusieurs fichiers de configuration reconnus nativement par la plateforme.

C'est un peu le centre de commande de votre repo. Et le truc qui est fort, c'est que si vous avez une organisation avec 50 projets, vous pouvez même créer un dépôt public spécial nommé .github qui servira à fournir des fichiers de santé communautaire et des templates par défaut pour tous les dépôts de votre organisation qui n'ont pas déjà leurs propres fichiers équivalents.

Et comme ça, dès qu'un dépôt a quoi que ce soit dans son propre .github/ISSUE_TEMPLATE/, il ne prendra plus les templates par défaut de l'orga.

Pratique pour les grosses flemmasses comme vous quoi !

Les templates d'Issues et de PR pour structurer les échanges

On a tous reçu une issue qui dit juste "ça marche pas". C'est relou, ça fait perdre du temps et on a envie de répondre par un gif de chat qui boude.

Alors pour éviter ça, créez un dossier .github/ISSUE_TEMPLATE/. Vous pouvez y coller des fichiers Markdown ou YAML pour encourager les gens à donner les infos de base (version de l'OS, étapes pour reproduire, etc.). Et faites pareil pour les Pull Requests avec un fichier PULL_REQUEST_TEMPLATE.md (à la racine, dans docs/, ou dans .github/, selon votre tambouille).

En gros, ça vous permet de guider vos contributeurs pour qu'ils ne fassent pas n'importe quoi.

GitHub Actions pour détecter les régressions

C'est LE grand classique !

Dans .github/workflows/, vous balancez vos fichiers YAML pour automatiser vos tests, votre linting ou vos déploiements. Bien sûr, pour vraiment ne pas "casser la prod", il faudra coupler ça à des règles de protection de branche (status checks requis) pour bloquer les merges si les tests échouent.

D'ailleurs, si vous voulez tester vos actions sans attendre la file d'attente des runners GitHub, je vous avais parlé de Wrkflw pour tester ça en local . C'est un outil tiers bien pratique pour valider vos workflows sur votre machine.

Les fichiers de "Santé Communautaire"

Si vous voulez que votre projet open source ressemble à autre chose qu'un champ de bataille au petit matin, il faut poser des règles.

GitHub reconnaît automatiquement des fichiers comme CODE_OF_CONDUCT.md, CONTRIBUTING.md ou même FUNDING.yml pour gratter quelques pièces pour votre café ;). Ce sont des fichiers qui aident à dire aux gens comment se comporter et comment vous aider efficacement sans avoir à surveiller votre voisin.

Guider Copilot avec des instructions sur mesure

C'est la petite nouveauté qui vous permet d'ajouter un fichier .github/copilot-instructions.md avec à l'intérieur, une liste de vos standards de code, vos libs préférées ou vos conventions de nommage.

Comme ça, hop, Copilot tiendra compte de ces instructions pour ses suggestions (même s'il garde parfois son petit caractère, hihi). Et vous pouvez même aller plus loin avec des fichiers NAME.instructions.md dans .github/instructions/ qui ciblent des dossiers specifiques via des patterns glob... à condition de mettre un frontmatter applyTo: au début, sinon Copilot les ignorera gentiment...

C'est parfait pour garder un code propre.

CODEOWNERS et Dependabot

Enfin, pour les projets qui commencent à prendre de l'ampleur, le fichier CODEOWNERS (placé dans .github/, ou à la racine, ou dans docs/... GitHub prend celui de .github/ en premier s'il y en a plusieurs) permet de définir qui est responsable de quelle partie du code. Dès qu'une PR touche à un fichier sensible, GitHub demande automatiquement la review aux bonnes personnes.

Et n'oubliez pas .github/dependabot.yml pour que l'outil vous ouvre des pull requests dès qu'une dépendance est à la bourre.

On automatise le bien relou pour ne garder que du criss de fun !

Voilà les amis, si vous aimez bidouiller vos dépôts pour qu'ils tournent tout seuls ou presque et garder un semblant d'organisation, ce dossier .github sera votre meilleur poto !

Source

Un site gratuit pour savoir si vous contribuez bénévolement à un botnet

Par : Korben
21 février 2026 à 10:28

On s'imagine souvent que les botnets, c'est un truc réservé aux PC vérolés de gamers qui téléchargent n'importe quoi. Sauf que non ! Votre box, votre routeur, ou n'importe quel appareil connecté de votre réseau domestique peut très bien faire partie d'un réseau de machines zombies sans que vous le sachiez.

C'est pour lutter contre ça que les gens de chez GreyNoise (une boîte spécialisée dans l'analyse des menaces réseau) ont lancé un outil gratuit pour vérifier en quelques secondes si votre IP a été repérée dans des activités de scanning suspectes. Ça s'appelle IP Check , vous allez sur le site, vous cliquez, et hop, le verdict est immédiat.

Quatre verdicts sont alors possibles. Soit votre IP est "Benign" et vous pouvez dormir tranquille. Soit elle est marquée "Malicious" ou "Suspicious", ce qui signifie qu'elle a été repérée en train de scanner Internet ou de participer à des activités louches. Soit c'est "Unknown", ce qui veut dire qu'elle n'a tout simplement jamais été vue par leurs sondes. L'outil indique aussi si votre IP appartient à un service connu (VPN, cloud, entreprise) grâce à leur base de données RIOT.

Le truc c'est que si votre IP est flaguée, l'outil vous affichera une timeline sur 90 jours, soit de quoi faire un petit diagnostic pour voir depuis quand une activité suspecte a été observée sur votre connexion. Parce que oui, le risque c'est que des botnets peuvent utiliser les connexions de particuliers comme relais pour leurs saloperies, et votre IP peut alors se retrouver sur des listes de réputation douteuse. Du coup vous vous tapez des CAPTCHA à répétition, des refus d'accès sur certains sites, ou des restrictions bizarres sur les services de streaming.

Et pour les amateurs de ligne de commande, y'a même une API JSON qui renvoie le statut de l'IP appelante !

curl -s https://check.labs.greynoise.io/api/v1/check | jq

Après si le résultat n'est pas glorieux, les recommandations dépendront du type d'appareil. Pour vos PC et mobiles, il faudra lancer un bon scan anti-malware et pour votre routeur et vos objets connectés, faudra mettre à jour le firmware (celui que personne ne met jamais à jour ^^), changer les identifiants admin par défaut, et désactiver l'accès distant si vous ne l'utilisez pas. Enfin, pour ceux qui veulent sécuriser automatiquement leurs téléchargements , c'est aussi le moment d'y penser.

C'est gratuit, ça prend quelques secondes, et ça peut vous permettre de découvrir que votre Freebox fait partie d'une armée de cyber zombies.

À vous de vérifier maintenant !

À partir d’avant-hierKorben

Marre des clients mail lourds ? Passez à Himalaya !

Par : Korben
20 février 2026 à 10:25

Envie de gérer vos emails sans sortir de votre terminal ? Si vous êtes du genre à passer votre vie dans une console (genre pour les mecs comme moi quoi...), vous savez que les clients mails classiques sont souvent des usines à gaz qui mangent de la RAM pour rien.

C'est là qu'intervient Himalaya CLI .

C'est un client email écrit en Rust, donc autant vous dire que ça envoie du bois niveau rapidité et sécurité. L'idée, c'est de proposer un outil qui fait une seule chose mais qui la fait bien à savoir gérer vos courriers électroniques directement en ligne de commande, sans chichi.

Le truc cool, c'est qu'il est super polyvalent. Il gère le multi-compte sans broncher (Gmail, Outlook, iCloud, Protonmail...), supporte l'IMAP et le SMTP, mais peut aussi bosser avec des boîtes locales au format Maildir ou Notmuch. Pour les paranoïaques de la sécurité, le support PGP est de la partie pour chiffrer vos échanges, et il s'intègre même avec le trousseau de clés de votre OS pour stocker vos mots de passe proprement.

Pour l'installer en tant que user, c'est archi-simple :

curl -sSL https://raw.githubusercontent.com/pimalaya/himalaya/master/install.sh | PREFIX=~/.local sh

Et une fois en place, je vous conseille de lancer l'assistant de configuration qui va vous guider pas à pas (sans vous prendre la tête). Pour cela, lancez simplement :

himalaya

Vous pourrez ensuite lister vos messages, les lire, ajouter des pièces jointes et même composer vos réponses dans votre éditeur de texte préféré (Vim, Emacs, ou même Nano si vous n'avez pas encore vu la lumière). Et si vous voulez automatiser des trucs, sachez qu'il peut cracher du JSON, ce qui est parfait pour faire de la bidouille terminal avec d'autres scripts.

D'ailleurs, si vous kiffez les outils en Rust pour votre console, je vous avais déjà parlé de Doxx pour lire des fichiers Word ou de Geary si vous préférez quand même une petite interface légère .

Bref, encore un excellent outil pour reprendre le contrôle de sa boîte mail tout en restant dans son environnement préféré.

Source

Vos ados sont accros aux réseaux sociaux ? Mark Zuckerberg est justement au tribunal pour ça !

Par : Korben
19 février 2026 à 15:26
– Article invité, rédigé par Vincent Lautier

Mark Zuckerberg a témoigné devant un tribunal de Los Angeles dans un procès important. Le sujet ? Les effets d'Instagram et Facebook sur la santé mentale des adolescents, avec près de 1 600 plaintes de familles et de districts scolaires américains regroupées dans cette affaire. Des documents internes accablants ont été dévoilés à l'audience.

Un procès hors norme

C'est devant la Cour supérieure de Los Angeles que le patron de Meta s'est présenté pour répondre aux accusations. Ce procès test doit déterminer si Instagram et Facebook ont contribué à dégrader la santé mentale des adolescents qui les utilisent. L'audience a démarré avec le témoignage de Kaley, une jeune femme de 20 ans qui a commencé à utiliser YouTube à 6 ans et Instagram à 9 ans. Son avocat, Mark Lanier, a déroulé devant le jury un collage de plus de 10 mètres composé de centaines de selfies qu'elle avait postés sur la plateforme. Dépression, dysmorphie corporelle, idées suicidaires : la jeune femme a décrit un parcours que des milliers d'autres familles affirment avoir vécu.

Des documents internes chocs

Et des preuves, il y en a : les avocats des plaignants ont sorti des documents internes de Meta qui datent de 2015. On y apprend qu'Instagram comptait à l'époque quatre millions d'utilisateurs de moins de 13 ans, soit environ 30 % des enfants américains de 10 à 12 ans. Un mémo de 2018 est encore plus direct : « Si on veut gagner gros avec les ados, il faut les attraper quand ils sont pré-ados ». Difficile d'être plus explicite.

Un autre document interne, daté de 2020, montre que les enfants de 11 ans avaient quatre fois plus de chances de revenir sur Facebook que les autres tranches d'âge. Zuckerberg a reconnu que les outils de protection avaient mis du temps à arriver. Il a même déclaré : « j'aurais aimé qu'on y arrive plus tôt » devant le tribunal. Sur les filtres de beauté, il a évoqué un compromis : les laisser disponibles sans les recommander.

Mais quelle défense pour Meta ?

Meta et Google, aussi visés dans cette procédure, défendent la même ligne : les réseaux sociaux ne causent pas directement de troubles psychologiques chez les jeunes. Probablement un peu embarrassés, les avocats de Meta expliquent que des dizaines de protections ont été mises en place ces dernières années, et aussi que la responsabilité incombe surtout aux parents. Le procès devrait durer six semaines, et d'autres dirigeants seront appelés à témoigner. L'enjeu dépasse clairement cette salle d'audience : si les plaignants obtiennent gain de cause, ça pourrait déclencher des milliers d'autres procédures à travers les États-Unis.

On a tous en tête un gosse qui passe ses journées sur TikTok ou Instagram, et ce procès met des visages et des chiffres sur ce problème qu'il est compliqué d'ignorer désormais. Le mémo « attrapez-les quand ils sont pré-ados » fait vraiment froid dans le dos. Reste à voir si ce procès changera quoi que ce soit, ou si dans cinq ans on en sera encore au même point, à regarder nos gamins scroller à l'infini en se disant que quelqu'un devrait faire quelque chose.

Article invité publié par Vincent Lautier .
Vous pouvez aussi me lire sur mon blog , sur Mac4ever , ou lire tous les tests que je publie ici, comme cette Webcam 4K , ou ce dock Thunderbolt 5 .

ESPHome - Transformez un ESP32 à 5 euros en capteur domotique sans dépendre du cloud

Par : Korben
19 février 2026 à 10:15

Aujourd'hui j'aimerais vous parler un peu de bidouille et plus particulièrement de domotique . Hé oui, si comme moi, vous en avez marre que tous vos objets connectés passent par des serveurs chinois (souvent à la sécurité douteuse) ou américains (souvent directement connecté à la NSA) pour vous dire qu'il fait 22°C dans votre salon, on va voir comment ensemble créer ses propres capteurs 100% locaux avec ESPHome .

ESPHome, c'est un framework open source qui transforme n'importe quel ESP32 ou ESP8266 en appareil connecté intelligent sans vous prendre la tête. Vous écrivez un petit fichier YAML, vous flashez la puce, et hop, vous avez un capteur qui cause directement avec Home Assistant. Comme ça y'a pas de cloud et encore moins de données qui partent on ne sait où.

Et c'est hyper accessible... Suffit de savoir remplir un fichier texte avec quelques indentations (le fameux YAML), et voilà vous savez utiliser ESPHome.

ESPHome fait partie de l'Open Home Foundation ( Source )

Ce qu'il vous faut

  • Un ESP32 (genre un Wemos D1 Mini ou un NodeMCU)
  • Un capteur DHT22 (température et humidité)
  • Quelques fils Dupont
  • Temps estimé : 30 minutes

Niveau branchement, c'est pas sorcier. Le DHT22 a 3 broches utiles : VCC sur le 3.3V de l'ESP, GND sur GND, et DATA sur un GPIO de votre choix (le GPIO4 marche nickel). Pensez aussi à ajouter une résistance de 4.7kΩ entre DATA et VCC si vous voulez des lectures béton (beaucoup de modules l'ont déjà intégrée, mais vérifiez bien).

source

Ensuite, pour installer ESPHome sur votre ordi, ça se passe avec pip :

pip install esphome

Une fois l'outil en place, vous créez votre configuration YAML. Voici un exemple tout simple pour notre capteur :

esphome:
 name: capteur_salon

esp32:
 board: esp32dev

sensor:
 - platform: dht
 pin: GPIO4
 temperature:
 name: "Température Salon"
 humidity:
 name: "Humidité Salon"
 update_interval: 60s

Hé voilà ! Ce fichier suffit à tout configurer. Ensuite, pour flasher, branchez votre ESP en USB et lancez la commande :

esphome run capteur_salon.yaml

La première fois, ça compile tout le firmware et ça flashe. Une fois que c'est fait, l'ESP apparaît automatiquement dans Home Assistant si vous avez activé l'intégration. Et le top du top, c'est que les prochaines mises à jour se feront en WiFi (OTA), ce qui est super pratique quand le truc est planqué derrière un meuble.

Et si vous voulez aller plus loin dans l'intégration domotique locale, je vous conseille aussi de voir comment utiliser le GPIO directement sur Home Assistant .

Et voilà comment, avec dix balles et un peu de curiosité, vous avez un capteur qui n'espionne plus votre vie. Youuhouuu !

Recalbox 10 débarque avec le support du Raspberry Pi 5 et du Steam Deck

Par : Korben
18 février 2026 à 11:01
– Article invité, rédigé par Vincent Lautier

Recalbox vient de publier la version 10 de sa distribution open-source française dédiée au rétrogaming. Au programme, le support du Raspberry Pi 5 et du Pi 500, l'arrivée sur Steam Deck en version LCD et OLED, de nouvelles émulations dont la Xbox originale et la GameCube, une interface entièrement revue, et du matériel dédié pour les fans de CRT et de bornes d'arcade. Que du bon.

Du Raspberry Pi 5 au Steam Deck

La version 10 de Recalbox élargit donc son catalogue de matériel compatible, et pas qu'un peu. Le Raspberry Pi 5 est désormais pris en charge, y compris dans sa version 2 Go de RAM, tout comme le Raspberry Pi 500. Mais surtout, la distribution débarque sur les consoles portables PC. Le Steam Deck, en version LCD comme OLED, profite d'une intégration qui gère la luminosité et le mode veille directement depuis l'interface. La très bonne Asus ROG Ally et le Lenovo Legion Go débarquent aussi, même si le support reste expérimental pour le moment. On passe quand même d'un projet pensé pour Raspberry Pi à une distribution qui tourne sur une tonne de machines différentes.

Une interface repensée

Côté émulation, la version 10 ajoute la Xbox originale exclusivement sur PC et Steam Deck (sous réserve de puissance suffisante). Sur Raspberry Pi 5, ce sont la GameCube, la Wii, la Nintendo DS et le Sega Model 3 qui font leur entrée. Si ces systèmes tournent de manière fluide dans la majorité des cas (environ 80 %), on atteint ici les limites matérielles du Pi 5 : certains titres très gourmands pourront donc montrer quelques signes de ralentissement.

Du matériel pour les fans de rétro

Pour ceux qui veulent aller plus loin que le logiciel, Recalbox continue de proposer du matériel dédié de qualité. Le RGB DUAL 2 et le RGB JAMMA 2 permettent de brancher des écrans CRT et des bornes d'arcade avec une gestion dynamique des résolutions. Le projet pousse le concept encore plus loin avec le Recalbox Card Reader et ses RecalCards, des cartouches physiques qui lancent un jeu quand on les insère, à l'ancienne. Et si vous cherchez du clé en main, la boutique propose des kits RecalTower préinstallés avec Raspberry Pi 5, et ça on aime.

J'ai toujours un Raspberry Pi avec Recalbox chez moi, et tout ceci me donne bien sûr très envie de tout mettre à jour !

Article invité publié par Vincent Lautier .
Vous pouvez aussi me lire sur mon blog , sur Mac4ever , ou lire tous les tests que je publie ici, comme cette Webcam 4K , ou ce dock Thunderbolt 5 .

Quand votre télécommande était une manette - L'époque oubliée des jeux sur DVD

Par : Korben
18 février 2026 à 10:45

Si vous avez grandi dans les années 90 ou 2000 , il y a de fortes chances que vous ayez connu cette époque un peu étrange où le DVD tentait de devenir le centre de divertissement ultime. On achetait nos films en boite, on les collectionnait fièrement sur nos étagères, et on passait parfois pas mal de temps à naviguer dans des menus (souvent en 4/3) avec notre télécommande.

Mais est-ce que vous vous souvenez de ces fameux "jeux" planqués dans les bonus ?

C'était un truc de fou quand on y repense. Certains éditeurs voulaient absolument exploiter le côté "Digital Versatile Disc" et nous pondaient des mini-jeux interactifs. C'était un peu l'équivalent informatique du bouclier de Captain America, ça protégeait l'intérêt du disque en rajoutant une couche de fun (ou de frustration, c'est selon). Un peu comme ces émissions télé des années 80/90 qui nous faisaient rêver de futur interactif.

Dans cette vidéo géniale de la chaîne memoria.exe , on suit une exploration de ces pépites dénichées chez Goodwill. Le concept est de tester des jeux sur des DVD de films que l'on n'a même pas vus, juste pour l'expérience "gaming". Et le moins qu'on puisse dire, c'est que c'est souvent techniquement pété.

Vous utilisiez les flèches de votre télécommande de salon pour déplacer un curseur ou faire des choix. C'était poussif, avec une latence perceptible due aux limites de l' authoring DVD et aux accès mécaniques du lecteur (le fameux bruit de moulin à café au moindre clic), mais on s'en foutait, c'était "interactif" !

On y découvre des trucs lunaires comme le "sentient minecart" dans Voyage au Centre de la Terre (un jeu de rythme pété à la télécommande), ou encore un portrait surréaliste du jeune Josh Hutcherson (alors âgé de 12 ans) qui semble être une vidéo sponsorisée par Billabong avant l'heure. Entre les jeux de cuisine de Kronk dans Kuzco, les trivia impossibles de Ecole paternelle et les mini-jeux de Shrek ou Nos voisins, les hommes, y'avait de quoi faire.

Perso, ça me fait penser aux expériences interactives que Netflix a tenté de populariser récemment avec des titres comme Bandersnatch (même si ce dernier a fini par quitter le catalogue en 2025). Sauf qu'à l'époque, si vous vous plantiez, fallait parfois se retaper un loooong chargement bruyant. C'est raté comme votre dernière coupe de cheveux, mais ça avait un charme fou.

C'était surtout une période d'expérimentation où certains espéraient que le DVD puisse même concurrencer les consoles de jeu familiales mais bon, l'histoire a montré que jouer à la télécommande, c'était quand même une idée de merde, même si ça reste l'une de ces madeleines de notre jeunesse.

Bref, si vous voulez vous payer une bonne tranche de nostalgie et voir à quel point on était patients à l'époque, allez jeter un œil à cette exploration. Ça envoie du bois et ça rappelle des souvenirs de soirées pluvieuses à essayer de finir un mini-jeu de labyrinthe ou de "mix master" sur nos premiers disques. On insère le DVD et on croise les doigts pour que ça ne plante pas !

Aux chiottes les jeux triple A en 4K ray-tracing, et vive le gaming qui lague en 480p !

Test de la Webcam FineCam Pro 4K de chez UGREEN

Par : Korben
17 février 2026 à 13:59

– Article invité, rédigé par Vincent Lautier , contient des liens affiliés Amazon –

UGREEN nous a envoyé en test sa WebCam haut de gamme FineCam Pro 4K , une webcam équipée d'un capteur CMOS 1/2 pouce de 8 mégapixels, bien plus grand que ce qu'on trouve habituellement à ce prix. Avec un autofocus PDAF, des contrôles gestuels et un tarif correct, c’est un produit franchement sympa pour ceux qui veulent améliorer leur image en visio sans se ruiner.

Un vrai bon capteur

C'est le gros argument de cette FineCam Pro 4K : son capteur CMOS de 1/2 pouce, capable de capturer 8 mégapixels. Pour une webcam, c'est franchement pas mal. Là où la plupart des modèles se contentent de capteurs minuscules qui galèrent dès que la lumière baisse, celui-ci capte bien plus de lumière et produit une image nettement plus propre, même dans un bureau mal éclairé. En 4K à 30 images par seconde, le niveau de détail est très bon, et le mode 1080p à 60 fps assure une fluidité confortable pour les visios où vous bougez beaucoup, même si ça reste assez gadget de passer à une telle vitesse.

Autofocus, gestes et double micro

Pour ce qui est de la mise au point, la marque a intégré un système qui ajuste la netteté automatiquement en temps réel, que vous soyez à 10 centimètres de la caméra, ou à 5 mètres. Vous bougez la tête, vous vous levez pour montrer un truc, la caméra suit la mise au point sans problème. Pour aller plus loin il y a des contrôles gestuels pour activer le zoom ou le recentrage, sans installer quoi que ce soit, tout est intégré dans la caméra. Vous avez aussi deux micros avec réduction de bruit active pour isoler votre voix du bordel ambiant autour de vous, ça fonctionne très bien. Un petit bouton permet aussi de choisir des filtres de couleur directement au niveau de la caméra, donc sans installer de logiciel là aussi, c'est rigolo.

(Beau gosse)

Bien équipée, bien placée

La webcam dispose d'un cache de confidentialité physique, et c'est un vrai bon point si vous êtes un peu parano. Elle est livrée avec un support magnétique et un adaptateur USB, et elle fonctionne sous Windows, macOS et Linux sans installer quoi que ce soit. Côté prix, elle est affichée aux alentours de 120 euros, mais une promo la fait passer sous la barre des 100 euros en ce moment. Il y a un autre accessoire qui est livré avec et qui change tout pour moi, c’est le petit trépied qui permet de poser, si on le souhaite, la Webcam sur le bureau, plutôt que sur l’écran. Parce que oui, moi je ne peux pas mettre de Webcam sur mon écran, parce que j’ai déjà une barre lumineuse de chez BenQ ( que j’ai testée ici ).

Bref, cette FineCam Pro 4K a pas mal d'atouts. Le capteur 1/2 pouce est clairement top, surtout dans cette gamme de prix, et ça se voit à l'usage. Les contrôles gestuels sont un plus sympa (même si on ne s'en sert pas tous les jours), et le bundle d'accessoires est nickel. Pour 120 euros, on est sur un bon rapport qualité-prix pour les visioconférences et le streaming. C’est un super choix pour qui veut passer un cran au-dessus de la webcam intégrée dégueulasse de son Mac ou de son PC portable. En tout cas moi je valide.

Notez qu’en ce moment elle est même à moins de 100 euros, il vous suffit de cocher un coupon sur Amazon au moment de la commander ! Dispo ici .

Article invité publié par Vincent Lautier .
Vous pouvez aussi me lire sur mon blog , sur Mac4ever , ou lire tous les tests que je publie ici, comme ce dock Thunderbolt 5 ou ce chargeur Anker Prime 250W .

FFmpeg - Comment normaliser le volume audio proprement avec loudnorm

Par : Korben
17 février 2026 à 10:25

Vous avez déjà remarqué comment le volume varie d'une vidéo à l'autre sur YouTube, ou pire, comment certaines pubs sont 10 fois plus fortes que le contenu ? Bah c'est parce que tout le monde n'utilise pas la même norme de volume. Et si vous produisez du contenu audio/vidéo, c'est le genre de détail qui fait la différence entre un truc amateur et un rendu pro.

La bonne nouvelle, c'est que FFmpeg intègre déjà un filtre qui s'appelle loudnorm et qui gère tout ça automatiquement. La norme utilisée, c'est le LUFS (Loudness Units Full Scale), qui est devenue le standard de l'industrie, et YouTube, Spotify, les TV... tout le monde utilise ça maintenant pour mesurer et normaliser le volume audio.

D'ailleurs, si vous débutez complètement avec cet outil, je vous conseille de jeter un œil à mon guide FFmpeg pour les nuls pour bien piger les bases de la ligne de commande.

Allez, c'est partiii ! Temps estimé : 2-5 minutes par fichier (selon la méthode choisie)

Mais, avant de se lancer dans les commandes, un petit point sur les paramètres qu'on va manipuler. Le filtre loudnorm utilise trois valeurs principales. D'abord I (Integrated loudness), c'est le volume moyen global mesuré en LUFS. La valeur standard pour le streaming, c'est -16 LUFS pour YouTube et Spotify, ou -23 LUFS pour la diffusion broadcast. Ensuite TP (True Peak), le niveau maximal que le signal ne doit jamais dépasser. On met généralement -1.5 dB pour avoir une marge de sécurité. Et enfin LRA (Loudness Range), qui définit la plage dynamique autorisée, généralement autour de 11 dB.

Méthode 1 : Normalisation simple (single-pass)

C'est la méthode la plus rapide, parfaite pour du traitement à la volée :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11 -ar 48000 sortie.wav

Pourquoi ces valeurs : -16 LUFS c'est le standard YouTube/Spotify, -1.5 dB de true peak évite le clipping, et 11 dB de range dynamique garde un son naturel.

Le truc c'est que cette méthode fait une analyse en temps réel et ajuste à la volée. C'est bien, mais pas parfait. Pour un résultat vraiment précis, y'a mieux.

Méthode 2 : Normalisation en deux passes (dual-pass)

Cette méthode analyse d'abord le fichier complet, puis applique les corrections exactes. C'est plus long mais beaucoup plus précis.

Première passe, on analyse :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11:print_format=json -f null -

FFmpeg va vous sortir un bloc JSON avec les mesures du fichier (input_i, input_tp, input_lra, input_thresh). Notez-les bien, car vous allez les injecter dans la deuxième passe.

Deuxième passe, on applique avec les valeurs mesurées (remplacez les chiffres par ceux obtenus à l'étape précédente) :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11:measured_I=-24.35:measured_TP=-2.15:measured_LRA=8.54:measured_thresh=-35.21:offset=0:linear=true -ar 48000 sortie.wav

Pourquoi cette méthode ? En fait, en passant les valeurs mesurées, FFmpeg sait exactement de combien ajuster. L'option linear=true force une normalisation linéaire plutôt que dynamique, ce qui préserve mieux la dynamique originale.

Pour les fichiers vidéo

Le principe est le même, on ajoute juste -c:v copy pour garder la vidéo intacte sans la ré-encoder :

ffmpeg -i video.mp4 -c:v copy -af loudnorm=I=-16:TP=-1.5:LRA=11 -ar 48000 video_normalise.mp4

D'ailleurs, pour ceux qui veulent automatiser ça à l'extrême, j'avais parlé de FFmpegfs , un système de fichiers qui transcode automatiquement ce que vous déposez dessus. C'est pratique si vous avez une grosse bibliothèque à gérer.

Traitement par lots avec ffmpeg-normalize

Si vous avez plein de fichiers à traiter, y'a un outil Python qui automatise la méthode dual-pass :

pip install ffmpeg-normalize
ffmpeg-normalize *.wav -o output_folder/ -c:a pcm_s16le

Cet outil fait automatiquement les deux passes et supporte le traitement parallèle. Pratique pour normaliser une bibliothèque entière.

Et en cas de problème ?

Erreur "No such filter: loudnorm" : Votre version de FFmpeg est trop ancienne (il faut la 3.1 minimum). Mettez à jour votre binaire.

Le son est distordu après normalisation : Le fichier source était probablement déjà saturé. Essayez de baisser le target (-18 LUFS au lieu de -16) ou augmentez le headroom du true peak (-2 dB au lieu de -1.5).

Voilà, maintenant vous n'avez plus d'excuse pour avoir des niveaux audio qui varient dans tous les sens. Le LUFS c'est le standard, FFmpeg gère ça nativement, et ça prend 30 secondes.

Vos auditeurs vous remercieront.

Source

Le CNRS victime d'une fuite de données, avec numéros de sécu et RIB dans la nature

Par : Korben
16 février 2026 à 18:16
– Article invité, rédigé par Vincent Lautier –

Le CNRS vient de confirmer un incident de cybersécurité qui a mené au téléchargement non autorisé de fichiers contenant des données personnelles d'anciens agents. Noms, adresses, numéros de sécurité sociale, RIB : la totale donc. L'organisme a déposé plainte et prévenu la CNIL.

Des données très sensibles

C'est ce lundi 16 février que le CNRS a informé ses agents d'une fuite de données sur un de ses serveurs. Des fichiers contenant des informations de ressources humaines ont été téléchargés sans autorisation. Et on ne parle pas de données anodines : noms, prénoms, dates de naissance, adresses postales, numéros de sécurité sociale et RIB. Le tout accompagné du statut de l'agent, du type de contrat et de la structure d'affectation. Le serveur a été isolé et arrêté dès la découverte de l'incident, et l'organisme assure que la fuite ne s'est pas propagée au reste de ses infrastructures.

Qui est concerné ?

Seuls les personnels recrutés avant le 1er janvier 2007 sont touchés, qu'ils aient été titulaires ou non. Si vous avez travaillé au CNRS après cette date, vous n'êtes pas concerné. Le nombre exact de victimes n'a pas été communiqué, mais vu la taille de l'organisme, on parle potentiellement de plusieurs milliers de personnes. Le CNRS recommande de prévenir sa banque, de surveiller ses comptes, de vérifier si ses données circulent sur haveibeenpwned.com, et de rester vigilant face aux tentatives de phishing ou d'usurpation d'identité. La CNIL et l'ANSSI ont été prévenues, et une plainte a été déposée auprès de la section cybercriminalité du parquet de Paris.

Les institutions françaises en ligne de mire

On n'est pas vraiment sur une première niveau cyberattaques sur des services de l'état. Le ministère de l'Intérieur, celui des Sports, et d'autres organismes avaient été visés. L'URSSAF a aussi confirmé une fuite touchant les données de 12 millions de salariés. Le CNRS lui-même avait été la cible d'un défacement de plusieurs de ses sous-domaines fin janvier. Deux incidents distincts, mais la tendance est claire, et c'est franchement moche.

On va quand même saluer le fait que le CNRS a communiqué rapidement, avec un communiqué officiel et une FAQ pour les personnes concernées. C'est loin d'être toujours le cas. Mais on va quand même se questionner sur le fait que des RIB et des numéros de sécu trainent sur un serveur, alors qu'on parle de données parfois veilles depuis presque 20 ans... Pourquoi ces informations étaient-elles encore accessibles ? La question du stockage prolongé de données sensibles revient sur la table, et visiblement, personne n'a encore de bonne réponse. En attendant, si vous avez porté la blouse du CNRS avant 2007, un petit tour sur votre relevé bancaire ne serait pas du luxe.

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Systemd-analyze - L'outil indispensable pour accélérer son boot Linux

Par : Korben
16 février 2026 à 10:46

Vous trouvez que votre Linux met 3 plombes à démarrer et vous regardez l'écran de boot défiler en vous demandant ce qui peut bien prendre autant de temps ?

Hé bien bonne nouvelle los amigos del manchos, si vous utilisez une distribution basée sur systemd (comme Debian, Ubuntu, Fedora, Arch, et compagnie), il existe un outil natif déjà installé qui permet de diagnostiquer tout ça : systemd-analyze

Ce truc c'est un peu le médecin légiste de votre démarrage système. Il dissèque chaque étape, identifie les unités qui traînent la patte, et vous permet de comprendre où part votre précieux temps. Pour ceux qui débarquent, systemd est le système d'initialisation adopté par la plupart des distributions modernes, et il permet justement de lancer plein de trucs en parallèle pour gagner du temps.

Pour commencer, la commande de base c'est tout simplement :

systemd-analyze time

Elle vous sort un récapitulatif du temps passé dans chaque phase, généralement le kernel, l'initrd (le RAM disk initial), et l'espace utilisateur. Selon votre configuration, vous pourriez aussi voir passer le firmware ou le bootloader. Ça donne un truc du genre "Startup finished in 2.5s (kernel) + 19s (initrd) + 47s (userspace)". Déjà là, vous savez si le problème vient de votre noyau ou de vos services.

Mais le truc vraiment cool pour fouiller un peu plus dans le détail, c'est :

systemd-analyze blame

Cette commande vous balance la liste des unités systemd, triées par le temps qu'elles ont mis à s'initialiser. C'est un peu comme un classement des cancres de la Ve République. Vous voyez direct qui sont les boulets qui ralentissent tout le monde. Genre ce service réseau qui attend 20 secondes une connexion qui n'arrivera jamais, ou ce truc de logs qui prend son temps pour se réveiller.

Attention quand même, y'a un petit piège car un service qui met 10 secondes à démarrer ne signifie pas forcément que votre boot est rallongé de 10 secondes. Pourquoi me diriez-vous ? Hé bien parce que systemd lance plein de trucs en parallèle. Un service peut donc prendre son temps tranquille pendant que d'autres bossent en même temps sans bloquer personne.

Pour vraiment piger ce qui coince sur le chemin critique, lancez plutôt :

systemd-analyze critical-chain

Ça, c'est le top car ça vous montre la chaîne critique, c'est-à-dire la séquence exacte d'événements qui détermine vraiment votre temps de démarrage final. Vous voyez exactement quelles unités sont sur le chemin et lesquelles attendent les autres. Le temps après le "@" indique quand l'unité est devenue active, et le temps après le "+" montre combien de temps elle a pris pour démarrer. C'est bien plus fiable que blame pour identifier les vrais goulots d'étranglement.

Et si vous êtes du genre visuel, y'a même :

systemd-analyze plot > boot.svg

Et avec ça, hop, ça génèrera un magnifique graphique SVG qui représentera la chronologie de votre séquence de boot. Vous pourrez ensuite l'ouvrir dans votre navigateur et voir en un coup d'oeil ce qui démarre quand et combien de temps ça dure. C'est super pratique pour épater la galerie ou juste visualiser l'ordre de lancement.

Maintenant, une fois que vous avez identifié les coupables, comment on fait pour accélérer tout ça ?

Déjà, vous pouvez désactiver les services dont vous n'avez pas besoin avec :

sudo systemctl disable nom-du-service

Gardez en tête que disable supprime seulement le lancement automatique au boot, mais n'empêche pas une activation indirecte via une dépendance ou un socket. Si vous voulez vraiment qu'un service ne démarre plus jamais, utilisez mask. Et surtout, ne désactivez pas n'importe quoi comme un bourrin, hein ! Je vous connais ! Non, non, avant de toucher à un service, vérifiez d'abord ce qui en dépend :

systemctl list-dependencies nom-du-service

Car si vous cassez un truc important, votre système risque de ne plus démarrer correctement. Donc si vous n'êtes pas sûr, gardez vos mimines dans vos poches. D'ailleurs, si vous bidouillez vos fichiers d'unité (comme pour automatiser Shiori par exemple), sachez que vous pouvez aussi les vérifier pour débusquer les erreurs avec :

systemd-analyze verify /chemin/vers/unite.service

C'est super pratique pour éviter les mauvaises surprises au prochain redémarrage. Voilà et si vous cherchez d'autres astuces pour optimiser votre machine Linux , n'hésitez pas à jeter un oeil à mon article sur TLP.

Ah j'oubliais, y'a aussi la commande systemd-analyze security qui permet d'analyser le niveau d'exposition sécurité de vos services. Elle attribue un score heuristique d'exposition basé sur les options de durcissement (hardening) actives. Plus le score est bas, mieux le service est protégé contre d'éventuelles failles. C'est donc un excellent point de départ pour identifier les services qui mériteraient un peu plus de love côté isolation.

Bref, cet analyseur de démarrage c'est vraiment l'outil indispensable pour qui veut comprendre et optimiser son boot Linux. C'est natif, c'est puissant, et ça vous évite de passer des heures à chercher pourquoi votre machine met autant de temps que vous à se réveiller le matin ^^.

OpenVAS - Le scanner de vulnérabilités open source qui vous dit la vérité sur votre serveur

Par : Korben
15 février 2026 à 10:47

Vous avez un serveur, un NAS, quelques services qui tournent chez vous ou au boulot, et vous vous demandez si tout ça est bien sécurisé ? Alors plutôt que d'attendre qu'un petit malin vous le fasse savoir de manière désagréable, autant prendre les devants avec un scanner de vulnérabilités.

Attention : si vous scannez le réseau de votre boulot, demandez toujours une autorisation écrite avant car scanner sans permission, c'est illégal et ça peut vous coûter cher. Et ne comptez pas sur moi pour vous apporter des oranges en prison.

OpenVAS (Open Vulnerability Assessment Scanner), c'est l'un des scanners open source les plus connus, maintenu par Greenbone. Une fois en place sur votre réseau, il scanne vos services exposés et vous balance un rapport avec ce qui craint : Ports ouverts, services mal configurés, failles connues, certificats expirés... De quoi repérer une bonne partie de ce qu'un attaquant pourrait exploiter.

L'interface principale d'OpenVAS

Ce qui est cool, c'est que vous restez en mode défensif. C'est pas un outil de pentest offensif ou de hacking pur et dur mais juste un audit de votre propre infra pour savoir où vous en êtes. Et ça tourne avec un feed de vulnérabilités (le Greenbone Community Feed) qui est régulièrement mis à jour, ce qui permet de détecter les failles récentes.

Pour l'installer, une des méthodes c'est de passer par Docker. Greenbone fournit une stack complète avec docker-compose. Après vous cherchez plutôt à analyser spécifiquement vos images de conteneurs, Grype pourrait aussi vous intéresser .

Pour OpenVAS, vous créez un répertoire, vous téléchargez leur fichier de config (jetez toujours un œil dedans avant de l'exécuter, c'est une bonne pratique), et hop :

mkdir -p ~/greenbone-community-container
cd ~/greenbone-community-container
curl -f -O -L https://greenbone.github.io/docs/latest/_static/docker-compose.yml
docker compose pull
docker compose up -d

L'assistant de configuration initiale

Après ça, vous accédez à l'interface web via http://localhost:9392.

Et pour le login, attention, car sur les versions récentes du conteneur communautaire, le mot de passe admin est généré aléatoirement au premier démarrage. Il faut donc aller voir les logs pour le récupérer (docker compose logs -f). Si ça ne marche pas, tentez le classique admin/admin, mais changez-le direct.

La première synchro des feeds peut prendre un moment, le temps que la base de vulnérabilités se télécharge. Vous avez le temps d'aller vous faire un café, c'est pas instantané.

Niveau config machine, la documentation recommande au moins 2 CPU et 4 Go de RAM pour que ça tourne, mais pour scanner un réseau un peu costaud, doublez ça (4 CPU / 8 Go) pour être à l'aise. Et une fois connecté, direction la section scans pour créer une cible avec votre IP ou plage d'adresses. Ensuite vous pouvez lancer un scan avec le profil de votre choix :

Le mode "Discovery" se contente de lister les services et ports ouverts tandis que le mode "Full and Fast" lance une batterie complète de tests de vulnérabilités. Il est conçu pour être "safe" (ne pas planter les services), mais le risque zéro n'existe pas en réseau donc évitez de scanner votre prod en pleine journée sans prévenir.

Les résultats arrivent sous forme de rapport avec un score de criticité comme ça vous avez le détail de ce qui pose problème et souvent des pistes pour corriger. Genre si vous avez un service SSH avec une config un peu lâche ou un serveur web trop bavard, le rapport vous le dira.

Par contre, c'est vrai que l'interface est assez austère comparée à des solutions commerciales comme Nessus mais c'est gratuit, c'est open source, et ça fait le taf pour un audit interne. La version Community a quand même quelques limitations (feed communautaire vs feed entreprise, support, etc.), mais pour surveiller son infra perso ou sa PME, c'est déjà très puissant.

Du coup, si vous voulez savoir ce qui traîne sur votre réseau avant que quelqu'un d'autre le découvre, OpenVAS est un excellent point de départ. Et c'est toujours mieux de découvrir ses failles soi-même que de les lire dans un mail de rançon... enfin, je pense ^^.

A découvrir ici !

TypeToRace - Le jeu qui transforme vos cours de dactylo en Fast & Furious

Par : Korben
14 février 2026 à 10:33

J'sais pas si parmi vous, y'en a qui ont déjà pris des cours de dactylographie genre à l'école où vous deviez taper "asdf jkl;" durant des heures en regardant un écran tristounet mais j'imagine que c'était chiant à mourir ! Hé bien quelqu'un a eu l'idée de transformer ça en jeu de course arcade façon Outrun sous stéroïdes !

TypeToRace, c'est un jeu de course 3D gratuit qui tourne directement dans votre navigateur et où votre vitesse dépend de votre capacité à taper des mots rapidement. Plus vous tapez vite, plus votre voiture accélère et vous vous retrouvez donc à foncer sur une route synthwave avec des néons roses et bleus partout pendant que vous tentez de taper "algorithm" sans faire de faute (oui c'est en anglais).

Le concept mélange TypeRacer (le classique des tests de frappe) avec un gameplay à la Subway Surfers. Et y'a pas juste la vitesse qui compte, puisqu'il faut aussi esquiver des obstacles et gérer des power-ups pour attaquer vos adversaires. Du coup, ça devient un vrai jeu vidéo et pas juste un test de dactylographie déguisé.

Ambiance Tron pour apprendre à taper vite ( Source )

L'esthétique synthwave avec ses couleurs néon et son ambiance rétro-futuriste des années 80 est plutôt cool. En tout cas, moi j'adore et ça change des interfaces austères des outils de typing classiques où on a l'impression d'être revenu en 1995 devant un terminal DOS. D'ailleurs, si vous cherchez d'autres moyens ludiques de vous améliorer, Wordsmash façon Tetris est aussi une excellente option pour bosser sa mémoire musculaire.

Notre jeu du jour vous met face à des adversaires contrôlés par l'IA et vous pouvez grimper dans les classements au fur et à mesure que vous progressez. C'est gratuit, ça ne nécessite aucun téléchargement, vous ouvrez juste le site et c'est parti mon kiki.

Bon après, on va pas se mentir, ce genre de jeu c'est surtout fun les 15 premières minutes avant que ça devienne un peu répétitif. Mais pour s'entraîner à taper plus vite tout en ayant l'impression de jouer plutôt que de bosser, y'a pire. Et puis si vous avez des gamins qui galèrent sur le clavier, ça peut être un bon moyen de les motiver sans les traumatiser avec des exercices barbants.

Puis si vous êtes du genre compétiteur, vous pouvez aussi aller voir du côté de TypeRacer pour vous mesurer à de vrais humains . Mais pour le fun immédiat et l'ambiance visuelle, TypeToRace fait le job.

Voilà, si vous voulez tester votre vitesse de frappe tout en vous prenant pour un pilote de course dans un univers à la Blade Runner, c'est par ici que ça se passe... Et pitié ne pliez pas en deux votre clavier de rage si vous perdez !

Anytype - L'alternative à Notion qui ne vend pas vos données aux GAFAM

Par : Korben
13 février 2026 à 10:37

Je suis complètement passé à côté de ce truc jusqu'à ce que David (merci à lui !) m'envoie un petit message pour me dire : "Hé Korben, t'as vu Anytype ? C'est comme Notion mais en mieux". Du coup, j'ai testé et j'ai vraiment halluciné.

Si vous êtes du genre à noter tout ce qui vous passe par la tête dans Notion ou Evernote, vous connaissez le problème. Vos données sont hébergées on ne sait où, et le jour où la boite décide de changer ses conditions d'utilisation ou de fermer boutique, vous êtes marron.

Hé bien Anytype, c'est la réponse à cette angoisse.

C'est une application local-first et chiffrée de bout en bout qui permet de créer votre propre "internet personnel". Petite nuance importante : Anytype n'est pas "open source" au sens strict de l'OSI. Leurs protocoles (notamment AnySync) sont bien open source sous licence MIT, mais les applications elles-mêmes sont distribuées sous une licence "source available" ( Any Source Available License 1.0 ). Concrètement, le code est consultable et modifiable, mais l'utilisation commerciale est restreinte. C'est pas du tout la même chose, et c'est important de ne pas confondre pour éviter l'openwashing. Cela dit, l'équipe est transparente là-dessus , ce qui est appréciable.

En gros, tout ce que vous créez (notes, tâches, documents, tableaux) est stocké localement sur votre machine. Pas de cloud obscur, pas de tracking, c'est votre disque dur, vos règles.

Leur point fort, c'est leur protocole AnySync car ça permet de synchroniser vos données entre vos appareils (ordi, téléphone, tablette) en peer-to-peer comme ça y'a pas besoin de serveur central. Vos appareils discutent directement entre eux, un peu comme si vous aviez votre propre réseau privé.

Au niveau de l'interface, on retrouve ce système de blocs qu'on aime bien chez la concurrence, mais avec une approche "objet". Dans AnyType comme chez Ikea, tout est un objet : une tâche, une personne, une note, un livre. Et vous pouvez lier tous ces objets entre eux pour créer un véritable graphe de connaissances tel un grand architecte de la matrice du dimanche).

Ce qui est cool aussi, c'est que l'équipe a déjà ajouté une fonction de publication web (vos pages peuvent devenir des pages publiques statiques) et propose une API côté desktop qui tourne en local. Elle travaille aussi sur l'intégration d'une IA locale . Parce que oui, avoir une IA qui vous aide à trier vos notes sans envoyer vos données à l'autre bout du monde, c'est quand même plus rassurant.

Si vous voulez aller encore plus loin, vous pouvez même héberger votre propre "noeud" de sauvegarde sur un serveur à la maison. D'ailleurs si vous aimez ce genre d'outils souverains, jetez un oeil à Local Deep Research pour vos recherches. Comme ça, vous avez une copie de secours chiffrée, accessible 24/7, sans dépendre de personne.

Bref, si vous cherchez une alternative souveraine pour gérer votre vie numérique, foncez voir ça. C'est gratuit jusqu'à 100 MB de stockage, c'est beau, et ça respecte votre vie privée. Que demande le peuple ?

Merci encore à David pour la découverte et à Alexandre pour la précision sur la licence !

Source

GOBLiiNS6 - Le point-and-click culte est de retour

Par : Korben
12 février 2026 à 17:05

Gobliiins, Gobliins 2, Goblins 3... si vous avez connu les point-and-click de Coktel Vision dans les années 90, vous allez kiffer !! Pourquoi ? Hé bien parce que Pierre Gilhodes, le créateur original, vient de lâcher GOBLiiNS6 sur itch.io pour une dizaine de dollars.

On y retrouve Fingus et Winkle, les deux héros de Gobliins 2, partis cette fois à la recherche du Prince Bouffon, fils du roi Angoulafre, dans un monde médiéval en guerre, avec de la magie, et des puzzles complètement tordus à résoudre.

Mais avant, un petit rappel pour les bébés qui me lisent. En fait dans la série des Goblins, le nombre de "i" dans le titre correspond au nombre de personnages jouables. Gobliiins = 3 persos. Gobliins 2 = 2 persos. Goblins 3 = 1 perso. Du coup GOBLiiNS6 avec ses 2 i, c'est donc encore un duo à coordonner intelligemment pour progresser (et oui, je sais compter ^^).

Et c'est pas un fan game ou un énième remake fait à l'arrache, puisque c'est Pierre Gilhodes lui-même qui est aux manettes. Le bonhomme avait déjà sorti GOBLiiiNS5 sur Steam en 2023 (avec 3 i, donc 3 personnages, z'avez capté ??). GOBLiiNS6 c'est donc finalement la suite directe.

Le jeu propose 16 niveaux en 2D au format 16/9, bourrés d'énigmes à résoudre. Chaque personnage gère son propre inventaire, pas de partage entre les deux (Vous allez tellement galérer à vous souvenir qui trimballe quoi ^^) et le système de jeu repose sur la coopération entre les deux compères, car chacun a des capacités différentes pour débloquer les situations.

Le piège et le côté fun de cette série de jeux, c'est donc justement de tester toutes les combinaisons possibles entre les personnages et les objets. Vous utilisez le mauvais perso au mauvais endroit ? Hop, animation comique et retour à la case départ. C'est voulu ! C'est absurde, c'est drôle, et c'est tout l'ADN de la franchise !

C'est un point-and-click qui va certainement vous rappeller l'époque où les jeux d'aventure français tenaient la dragée haute aux LucasArts et Sierra de l'époque. Coktel Vision, c'était quand même Woodruff, Lost in Time, Ween... etc. Quelle époque !!

GOBLiiNS6 est disponible en français et en anglais et vous pourrez le lancer au choix en plein écran ou fenêtré... car oui c'est du Windows pur !! Pas de Mac ni de console pour le moment. Voici une petite vidéo si vous voulez voir à quoi ça ressemble :

Le jeu est dispo ici sur itch.io pour une dizaine de dollars. Vous cliquez, vous payez, et c'est plié ! De quoi occuper vos soirées au lieu de scroller sur Mastodon ou Bsky à la recherche de votre prochain drama préféré.

Allez, bon puzzle à tous !

Source

❌
❌