Vous vous souvenez de l'époque où on s'écroulait comme des merdes dans notre canapé après une grosse journée de boulot et où on regardait juste ce que la télé nous balançait ? Pas de choix à faire sur Netflix, ni de recommandation sur l'Apple TV. On zappait juste en mode no-brain jusqu'à ce qu'on tombe sur une connerie qui réveille notre cerveau reptilien.
Eh bah le dev Chris Benincasa a créé
Tunarr
, un soft open source qui ressuscite ce truc-là en transformant votre Plex ou Jellyfin en chaîne de TV en continue.
Grâce à Tunarr, vous configurez vos chaînes dans une interface web (en glisser-déposer...), le soft émule un tuner HDHomeRun (le standard de la TV réseau aux US), que Plex, Jellyfin ou Emby reconnaissent ensuite comme une vraie source TV. Et voilà comment vous avez maintenant votre propre antenne maison.
Ou alors vous exportez en M3U pour des players IPTV comme Tivimate ou UHF, le tout avec un EPG intégré (c'est le guide des programmes), des bumpers (vous savez ces petites séquences Tchii Tchaaa ou M6 Mhmmmh des chaînes TV), des pubs vintage entre les programmes et même des clips musicaux pour faire authentique.
Bref, du déjà-vu, mais avec votre catalogue d'émissions à vous.
L'histoire de ce projet est d'ailleurs assez marrante car c'est un fork de
dizqueTV
(de vexorian), lui-même fork de pseudotv-plex (de DEFENDORe) et chacun de ces devs contribuent à Tunarr. 3 générations de mainteneurs qui collaborent sur le même projet, ça fait plaisir à voir car dans l'open source et la tech en général, ce genre de filiation c'est souvent rare tant les egos sont groooos.
Et côté fonctionnalités, c'est plutôt pas mal. Vous programmez vos chaînes par créneaux horaires (comme une vraie grille TV), par shuffle aléatoire ou par blocs cycliques. Vous balancez alors du contenu de remplissage entre les épisodes, vous personnalisez les profils de transcodage par chaîne, et vous regardez ça directement dans votre navigateur web ou via votre client Plex préféré.
De son côté, le hardware transcoding gère NVENC, VAAPI, Intel QuickSync et VideoToolbox sur macOS, donc votre GPU ne bosse pas pour rien.
Pour ma part, je me ferais bien une ambiance "C'est dimanche" qui balance des séries TV + vidéo gag et des docs sur la nature toute la journée, ou une "chaîne minuit" uniquement pour les vieux films d'horreur et les clips MTV de ma jeunesse ^^. Aaaah, nostalgie quand tu nous tiens ! Et je mettrais des vrais bumpers vintage entre les programmes, comme ça, ça donnerait l'illusion qu'on est sur une vraie programmation TF1 des années 90. Ce serait chouette non ?
Pour faire tourner ça, un Docker compose suffit (port 8000), avec un FFmpeg 6.1 minimum (7.1.1 recommandé). Vous lancez simplement :
docker run -d -p 8000:8000 -v ./tunarr-data:/config/tunarr chrisbenincasa/tunarr:latest
et c'est en ligne !
Maintenant sauf si votre Pi 3 a 2 Go de RAM, le transcoding 4K ne marchera pas mais sur du x86 récent ou un Pi 5, ça envoie carrément bien.
Et si vous préférez la méthode à l'ancienne, y'a également des binaires Linux, macOS, Windows, et même une image ARM pour
Raspberry Pi
. Le code est en TypeScript à 99,6%, sous license zlib (très permissive) et y'a des nouvelles releases régulières.
Voilà, ce projet n'a aucun sens dans le monde du streaming à la demande et c'est précisément pour ça que je vous en parle ! Si vous voulez retrouver l'ambiance zapping,
c'est par ici
ou sur le
GitHub
.
Ouais, je sais, on est le 1er mai, et je suis pas censé bosser mais que voulez-vous on ne se refait pas ^^. Et si j'ai ouvert l'ordi ce matin, c'est pour vous parler de KULA !
KULA est un binaire tout simple qui permet de monitorer très facilement votre serveur Linux en temps réel, sans aucune dépendance.
c0m4r
, le dev derrière le projet, l'a codé en Go avec une obsession claire : Que ça marche partout sans rien installer à côté !
KULA
veut faire exactement l'inverse ! Parce que si vous avez un VPS à 5 balles, un Raspberry Pi ou trois homelabs qui ronronnent dans le placard, c'est pas la peine de sortir un bazooka quand il y a ce petit binaire qui fait tout aussi bien.
Vous le posez sur la machine, vous lancez ./kula, et c'est plié ! Il y a même un installeur guidé en une commande (nia nia nia lisez le contenu du .sh avant de le lancer, nia nia nia, je me répète, je sais):
Côté technique, le projet va chercher ses infos directement dans /proc et /sys toutes les secondes. Comme ça y'a pas besoin d'un programme "agent" séparé à installer, ni besoin de vous lancer dans du scraping HTTP. C'est juste KULA qui tourne en daemon et qui lit ce qui se passe au niveau du kernel.
Les données passent ensuite dans un moteur de stockage maison : un ring-buffer avec trois niveaux (1 seconde brut, 1 minute agrégé, 5 minutes agrégé), chacun ayant une taille max fixe (250 Mo, 150 Mo, 50 Mo par défaut). Et quand la limite est atteinte, les nouvelles données écrasent les vieilles. Comme ça l'usage disque est maîtrisé, et y'a pas besoin de faire de ménage.
Niveau métriques, c'est plutôt complet je trouve... CPU, GPU (VRAM, charge, conso), mémoire, swap, load average, processus par état, températures CPU/GPU/disque, batteries, entropie système, sync horloge. Le réseau remonte les débits par interface, les paquets par seconde, les erreurs, les drops, les retransmissions TCP, les connexions établies...etc.
Et côté disque c'est par composant : IOPS, lectures/écritures par seconde, octets/s, plus l'usage des systèmes de fichiers. Et bien sûr tout ce qui est containers Docker, podman, et même ces cgroups bruts dont vous êtes si fiers ^^, pour ceux qui font tourner des trucs sans Docker.
Et le truc auquel je ne m'attendais pas mais que j'aurais pu anticiper parce que c'est à la modeuuuuh, c'est l'assistant IA via Ollama. Vous configurez une instance Ollama locale, et le dashboard vous laisse causer à un modèle de votre choix qui peut analyser les courbes en cours, exporter du CSV par graphique, et même faire appel à une fonction get_metrics pour interroger les données en mode agent.
Tout ça en local bien sûr. C'est plutôt sympa pour debugger par exemple un pic de CPU récurrent à 3h du matin sans devoir vous taper des heures de graphes !
Notez le paramètre --pid host et /proc:/proc:ro : car KULA a besoin de voir l'hôte et pas le container.
Bah ouais, c'est logique, sinon il va monitorer juste son propre container, ce qui n'a aucun intérêt, hein...
Notez que si vous êtes sur un VPS LXC mutualisé bas de gamme, certains hébergeurs restreignent l'accès à /proc du host... et là, malheureusement, KULA ne pourra remonter que ce qu'il voit ce qui est souvent pas grand-chose... sniiif.
Pour les puristes, y'a aussi des paquets .deb, .rpm, AUR pour Arch, et du multi-arch (amd64, ARM, RISC-V). Ça couvre à peu près tout ce qui se croise sur un homelab !
Et côté auth, c'est désactivé par défaut (le port par défaut est le 27960, pas le 80), mais quand vous l'activerez vous tomberez sur de l'Argon2id avec des jetons de session hashés en base.
Par contre, même si y'a quelques alertes internes (clock sync, low entropy, overload), vous n'aurez pas de notifications natives (pas de mail, ni Slack, ni webhook...etc). Et pas de support multi-node non plus puisque KULA monitore une machine à la fois.
Donc si vous avez 30 serveurs, faudra vous farcir 30 instances et 30 dashboards séparés. Pas glop ! Et bien sûr, c'est Linux only parce que tout repose sur /proc et /sys.
C'est encore un projet un peu jeune, donc à voir comment ça vieillit mais pour votre petit VPS perso d'amour ou une machine dans un
setup d'auto-hébergement
, c'est top pour esquiver à la fois htop qui est trop minimaliste et Grafana qui est trop usine à gaz.
Si vous voulez voir la démo, y'en a une ici :
demo.kula.ovh
!
A l'origine, je vous avais parlé
d'une extension
mais après analyse plus approfondie, celle-ci n'est pas vraiment nécessaire. Y'a juste deux valeurs à coller dans about:config et le moteur tourne. Merci donc à François qui m'a indiqué cette méthode directe.
Étape 1 : Activer le moteur
Dans la barre d'adresse, tapez about:config et acceptez l'avertissement. Cherchez la préférence suivante :
Ça couvre 8 listes : EasyList, EasyPrivacy, Fanboy Cookie Monster, uBO Annoyances (les 4 de base), plus uBO Filters, AdGuard Base, AdGuard Tracking et Peter Lowe. Si vous voulez un profil plus léger, vous pouvez supprimer des URLs avant de coller.
Petite note : le préfixe test_ dans le nom de cette pref indique que la feature est encore expérimentale dans Firefox 149. Les noms peuvent donc changer dans une version future.
Désactiver ETP (optionnel mais recommandé)
La protection contre le pistage intégrée de Firefox (ETP) et adblock-rust filtrent chacun de leur côté. C'est redondant. Pour désactiver ETP, allez dans about:preferences → Confidentialité et sécurité → Protection renforcée contre le pistage → cochez "Personnalisée", puis décochez tout ce que vous voulez confier à adblock-rust.
Limitation actuelle : adblock-rust ne gère pas encore les sélecteurs CSS de masquage d'éléments, les règles ## du style uBlock Origin. Brave les supporte déjà, Firefox devrait suivre. En attendant, quelques pubs que uBO cachait via CSS resteront visibles.
Felix "FX" Lindner est mort le 1er mars 2026 à l'âge de seulement 49 ans. Et si ce nom ne vous dit rien, c'est normal, car FX n'a jamais cherché les projecteurs. Par contre, ceux qui bossent dans la cybersécurité, eux, savent parfaitement qui il était.
Fondateur de Recurity Labs à Berlin, leader du groupe Phenoelit, co-auteur de "The Shellcoder's Handbook", et lauréat du Pwnie Award Lifetime Achievement 2017, Félix avait plusieurs casquettes. Et c'est également celui qui a forcé Huawei à créer une équipe de sécurité dédiée, tout ça grâce à une seule présentation de 45 minutes.
Felix "FX" Lindner, fondateur de Recurity Labs (CCS 2013)
Son pseudo sur Twitter/X c'était @41414141 car en hexadécimal, 0x41 c'est le caractère ASCII 65, la lettre "A". Car 4 "A" d'affilée, c'est le padding classique qu'on balance dans un buffer overflow pour écraser la mémoire. Hé oui même son pseudo était un exploit ! Petit détail au passage : ne le confondez pas avec "fefe", Felix von Leitner, l'autre Felix célèbre de la scène sécu germanophone. La confusion est fréquente, même dans les hommages post-mortem que j'ai pu voir.
Pour comprendre FX, faut remonter à 1977, à Berlin-Est, le côté soviétique du Mur. Gamin, il met les mains sur son premier ordinateur à 6 ans, lors d'une visite à l'Université de Sofia en Bulgarie puis à 10 ans, il programme en BASIC sur un Robotron Z9001 (un CPU U880 à 2.5 MHz, 16 Ko de RAM), qui était à l'époque la machine phare de la RDA (en fait c'était un des rares ordinateurs personnels fabriqués en Allemagne de l'Est). Pas exactement un Commodore 64 donc, mais bon... on fait avec ce qu'on a quand on grandit derrière le Rideau de fer.
Le Robotron Z9001, ordinateur est-allemand sur lequel FX a fait ses premières armes (Wikimedia Commons)
Et puis le Mur tombe.
En novembre 1989, FX a 12 ans et dans les décombres institutionnels de l'Allemagne de l'Est, il découvre un truc improbable : un club informatique rattaché à l'Organisation des Pionniers Ernst Thälmann, le mouvement de jeunesse du régime est-allemand (dissous quelques mois plus tard). C'est là qu'il croise ses premiers hackers, des gamins comme lui, curieux, qui bidouillent sur du matériel en voie de disparition.
Faut dire que Berlin dans les années 90, c'est un sacré terrain de jeu. Le
Chaos Computer Club
est déjà une institution, les loyers sont bas, l'énergie est dingue. Du coup, FX baigne là dedans tel un enfant de la Réunification, en quelque sorte.
Et c'est au tournant des années 2000, qu'il fonde Phenoelit, un groupe de recherche en sécurité basé à Berlin. Leur spécialité ? Les trucs que personne ne pense à auditer, parce que tout le monde part du principe que c'est sécurisé. Routeurs Cisco, imprimantes HP, systèmes SAP, BlackBerry RIM... tout y passe. Phenoelit, c'est de la recherche bas niveau et du reverse engineering pur et dur.
FX publie alors des outils qui deviennent des classiques. cd00r.c d'abord, une backdoor furtive qui n'ouvre AUCUN port en écoute. Le concept est trop fort puisque la machine écoute discrètement tout le trafic réseau qui passe et ne déclenche un /bin/sh que si elle voit passer un paquet "magique" porteur d'une signature codée en dur. Pas de port ouvert, pas de service à scanner, mais juste un guetteur silencieux qui réagit au bon mot de passe. Le concept inspirera plus tard le port knocking grand public.
Ensuite IRPAS (Internetwork Routing Protocol Attack Suite), un kit complet pour tester les protocoles de routage réseau. CDP, IRDP, HSRP... ces langages que les routeurs utilisent pour se causer entre eux et que personne n'avait sérieusement attaqués avant lui. Tellement utile que la suite finit intégrée dans Debian et Kali Linux. Et puis Ultima Ratio, un exploit remote code execution (RCE) pour Cisco IOS, présenté à la DEFCON.
FX avait un vrai don pour trouver les failles là où personne ne regardait.
Mais l'outil le plus connu du grand public, c'est la Default Password List. Une base de données des mots de passe par défaut de la quasi-totalité des équipements réseau du marché. Routeurs, switchs, imprimantes, caméras... pratiquement tous les pentesteurs de la planète l'ont utilisée au moins une fois. Elle a même fini dans SecLists, la bible du domaine.
Mais FX ne se contentait pas d'attaquer.
En 2010, il développe Blitzableiter (littéralement "paratonnerre" en allemand), un outil anti-exploitation Flash. En gros, ça analyse et reconstruit les fichiers .swf pour neutraliser les malwares, sans se baser sur des signatures CVE. Lors de sa démo à Black Hat USA et DEFCON 18, il balance alors 20 malwares Flash en live et 20 sur 20 bloqués. A une époque où Flash était LE vecteur d'attaque sur le web, c'était du lourd.
Quelque part avant 2007, FX lance Recurity Labs à Berlin. Audit de code C/C++, ingénierie inverse ARM et x86, architecture sécurisée... Il est rejoint par 12 consultants, chacun avec au moins dix ans d'expérience. Pas de marketing flashy, pas de bullshit corporate mais du boulot bien technique, et c'est tout.
FX décroche même un titre de Technicien Informatique Agréé et une certification CISSP, mais bon... c'est pas vraiment pour les diplômes qu'on le connaissait. C'était plutôt pour sa capacité à démonter n'importe quel système et expliquer clairement ce qui merdait dedans.
À partir de 2001, il enchaîne alors les conférences. DEFCON 9, puis 10, 11, 12, 14, 16, 17, 18... Black Hat USA, Abu Dhabi, HITB en Malaisie, PacSec, CanSecWest, Hashdays. Bref, chaque année un nouveau sujet, un nouveau système disséqué. En 2008, c'est le BlackBerry et en 2011, c'est Stuxnet et les systèmes industriels. Il n'est jamais à court de cibles.
Nous sommes maintenant le 11 octobre 2012, à Hack in the Box, Kuala Lumpur. Il y fait une chaleur étouffante, et les hackers du monde entier sont entassés dans l'InterContinental pour une conf qui attire le genre de types qui ne peuvent pas présenter leurs travaux ailleurs (car certains risquent l'extradition).
FX monte alors sur scène avec son sujet : "Hacking
Huawei
VRP".
VRP, c'est Versatile Routing Platform, le firmware des routeurs Huawei AR et NE. En gros, l'équivalent de Cisco IOS 12.x côté chinois et FX l'a bien sûr totalement disséqué.
Ce qu'il montre alors est accablant. Les routeurs Huawei utilisent des mots de passe statiques par défaut et un seul équipement compromis donne accès à TOUT le réseau. Y'a de quoi s'arracher les cheveux. Ce qu'il dit lors de sa conf résume tout : "Je ne sais pas s'il y a des backdoors, mais ça n'a aucune importance vu le nombre de vulnérabilités."
Et la réaction de Huawei ?
Hé bien pour une fois, plutôt correcte. John Suffolk, leur chef cybersécurité mondial, envoie une équipe d'ingénieurs rencontrer FX directement. Le géant chinois renforce alors son Product Security Incident Response Team (PSIRT, qui existait depuis 2005 mais restait peu visible) et publie des procédures de contact lisibles pour les chercheurs externes. FX racontera plus tard qu'ils ont tenu parole. C'est sa présentation qui a recalibré les pratiques de sécurité d'un des plus gros équipementiers télécoms de la planète.
Puis le 29 décembre 2013, 23h15, Saal 1 du 30e Chaos Communication Congress à Hambourg, FX est dans son élément et cette fois son sujet c'est "CounterStrike: Lawful Interception".
Le 30e Chaos Communication Congress, Hambourg, décembre 2013 (Wikimedia Commons)
L'interception légale, c'est cette fonctionnalité imposée aux fournisseurs d'accès Internet pour permettre la surveillance judiciaire. En clair... une backdoor officielle implantée dans les routeurs. Alors lors de sa conf, FX démontre que ce mécanisme viole le principe fondamental d'un routeur, à savoir transférer les paquets sans fouiller dans leur contenu, et crée ainsi une surface d'attaque massive.
Sa conclusion c'est que contourner la surveillance légale, c'est aussi facile que de tromper un antivirus. Pour lui, les backdoors "légales" ne protègent personne et fragilisent tout le monde. On est 6 mois après les révélations Snowden, et ce que FX démontre techniquement donne encore plus de poids au débat.
Snowden avait sorti les documents. FX en explique la mécanique.
Dans une interview au magazine Ethik und Militär en 2014, FX livrait surtout des opinions tranchées. Il est favorable aux capacités offensives étatiques comme complément aux défenses, mais également hyper critique du manque de responsabilité des éditeurs de logiciels, et pessimiste sur la place de l'Allemagne dans le secteur informatique. C'est pas le genre à tourner autour du pot.
Ceux qui l'ont côtoyé se souviennent également des soirées tardives, après les talks. À l'Alexis Park de Las Vegas, dans les bars de Kuala Lumpur, ou dans les clubs de Berlin, FX était de ceux qui restaient jusqu'au bout.
En 2007, il co-écrit "The Shellcoder's Handbook: Discovering and Exploiting Security Holes" avec Chris Anley, John Heasman et Gerardo Richarte. Un bouquin devenu référence pour quiconque s'intéresse à l'exploitation de vulnérabilités. Dans le milieu, c'est un classique.
Et en 2017, ses pairs lui décernent le Pwnie Award for Lifetime Achievement à la Black Hat de Las Vegas. Les Pwnie Awards, c'est un peu les Oscars du hacking, attribués par un jury de pointures (Travis Goodspeed, Charlie Miller, Katie Moussouris...). Recevoir le Lifetime Achievement, c'est la reconnaissance ultime de la communauté... Du beau monde, pour un prix super mérité.
Puis le 2 mars 2026, Nico Lindner et l'équipe de Recurity Labs publient un court message sur
recurity-labs.com
: "With heavy hearts, we announce that Felix 'FX' Lindner, a cherished friend, and the founder and owner of Recurity Labs, passed away on 2026-03-01."
FX nous a quittés.
Les hommages affluent alors immédiatement. Daniel Cuthbert, figure historique de l'infosec, écrit sur X : "Everyone today is a hacker in a sense but there are very few OG hackers on which shoulders we stand. Oh dude, Felix 'FX' Lindner you were so much a hackers hacker and you will be missed. RIP my friend and thank you."
Andrea Barisani, Federico Kirschbaum, des dizaines d'autres... Tous disent la même chose. FX était un vrai, quoi. Pas un influenceur sécu sur LinkedIn, pas un conférencier professionnel qui récite des slides. Mais un vrai type qui comprenait les systèmes en profondeur et qui partageait ce qu'il savait.
Felix "FX" Lindner laisse derrière lui des outils que les pentesteurs connaissent et utilisent encore, un livre que les étudiants en sécu continuent de lire, et une boîte qui continue de tourner...
Hier soir, je suis tombé sur GameDate et ça m'a carrément fait remonter 20 ans en arrière, à cette époque bénie l'époque où on passait toutes nos nuits sur des jeux comme Wolfenstein: Enemy Territory ou Tribes 2 sans que personne ne nous juge bizarrement. Ce site pour le moins original permet d'organiser des sessions multijoueurs pour tous les jeux que tout le monde a oubliés.
D'abord vous arrivez sur le site, ensuite vous voyez les sessions programmées par d'autres joueurs, vous cliquez sur "interested" pour celles qui vous tentent, et le jour J vous lancez le jeu pour rejoindre les autres. Chaque session affiche 2 compteurs, le nombre d'intéressés et un "expected" pondéré, histoire d'avoir une vraie idée de la fréquentation au lieu d'arriver dans un serveur fantôme.
Et si rien ne vous convient, vous pouvez créer votre propre session en quelques clics sans avoir besoin de vous créer un compte. C'est très appréciable et en parcourant le catalogue, je suis tombé sur des pépites que je croyais définitivement enterrées.
Je pense à Halo 2, Phantasy Star Online, Tribes: Ascend, Rainbow Six: Raven Shield, Total Annihilation, Worms Armageddon, GoldenEye: Source, NEOTOKYO ou Sven Co-op...etc.
La liste tourne autour de 90 jeux et continue de grandir (qui a dit CMB ?). Y'a même du Mario Kart Wii et du Mario Party en netplay pour les nostalgiques de Nintendo, du F.E.A.R. Combat pour les fans de tir tactique et toute une section pour les mods Source comme Hidden: Source ou Eternal Silence.
Après, certaines sessions du catalogue affichent "no interest" parce que personne n'a cliqué dessus, donc n'oubliez pas de vérifier les compteurs avant de poser un RTT, sinon vous risquez de débarquer dans un serveur fantôme.
Côté vie privée, le site assure puisque votre IP est transformée en hash irréversible pour empêcher les abus de vote sans permettre de remonter à vous, et la protection anti-bot passe par Cloudflare Turnstile (donc pas de captcha pénible à résoudre). Aucun cookie de tracking mais juste un localStorage pour vos préférences. Et vous pouvez en option lier un compte Discord ou Steam pour recevoir des rappels avant vos sessions.
Un site qui vous fout la paix en somme...
Même l'interface tape carrément dans la nostalgie avec un look qui nous ramène pile aux menus Steam de l'époque Half-Life 2, grâce à
vgui.css
, un projet open source qui réplique l'esthétique des jeux Source.
Y'a six thèmes au choix dont un "Legacy" qui pue les années 2000 à plein nez (perso je suis resté dessus, forcément). Vous pouvez alors filtrer par région (NA, EU, OCE, SAM), par tags (PvP, co-op, casual, ranked, modded, newbie-friendly...) et trier par sessions qui démarrent bientôt ou par popularité.
Je trouve que GameDate est vraiment une bonne idée parce que ça participe à 100% à ce mouvement de préservation du jeu vidéo, totalement dans la lignée de projets comme
EmuOS
ou des trackers communautaires qui maintiennent les serveurs en vie depuis 15 ans. Je me dis que tant que des passionnés trouvent le moyen de se retrouver pour relancer un vieux serveur Tribes 2 ou autre, ces jeux ne sont jamais vraiment morts. Ils ont juste besoin qu'on les ressorte du placard de temps en temps...
Depuis qu'Amazon a coupé le téléchargement USB de nos ebooks Kindle (sniiiif), héberger sa propre bibliothèque est passé du statut de bricolage du dimanche aprem au geste héroïque de préservation de notre souveraineté !
Alors si vous voulez vous lancer, sachez que
Kavita
, le serveur de lecture auto-hébergé développé depuis 2020, est l'un des candidats les plus solides du moment. C'est un lecteur web qui gère EPUB, PDF, comics CBZ/CBR et manga avec mode de lecture droite-à-gauche pour les aficionados et grâce lui, nos ebooks peuvent reprendre leur indépendance.
Ce truc, ça se déploie en Docker ou via Scoop pour Windows en 4 lignes de PowerShell.
De mon côté, j'ai installé Kavita sur mon NAS Synology alors voici la marche à suivre si vous voulez faire pareil.
Installation sur NAS Synology (Container Manager)
Testé sur DSM 7.2 avec Container Manager. Pour QNAP via Container Station ou TrueNAS, la logique est la même puisque c'est du Docker standard.
Étape 1 - Préparer les dossiers
Sur votre NAS, créez deux dossiers via Panneau de configuration > Dossier partagé :
docker/kavita/config pour la config et la base SQLite de Kavita
data/library/books pour votre bibliothèque (pointez où vous stockez déjà vos EPUB et CBZ)
Étape 2 - Le docker-compose.yml
Ouvrez ensuite Container Manager > Projet > Créer, donnez-lui le nom kavita, et collez ce docker-compose :
L'image jvmilazz0/kavita:latest est celle référencée dans la doc officielle. Côté container, les chemins sont /kavita/config et /manga (peu importe que ce soit du manga ou des romans, c'est juste le nom historique du point de montage).
Étape 3 - Lancer le conteneur
Validez le projet. L'image se télécharge (environ 200 Mo), puis le conteneur démarre. Si le port 5000 est déjà pris sur votre NAS, changez le mapping en 5001:5000 par exemple.
Étape 4 - Premier lancement
Dans votre navigateur, allez sur http://IP-DU-NAS:5000. L'écran d'accueil vous demande alors de vous créer un compte admin.
Validez, puis allez dans les préférences pour passer l'interface en français et rafraichissez la page.
Ensuite, dans les paramètres du serveur > Bibliothèques, ajoutez une bibliothèque : Type "Livre" pour les EPUB/PDF ou "Manga"/"Comic" selon le contenu, le choix du dossier pointant vers /manga. Le scan démarre automatiquement.
Étape 5 - Organisation des dossiers
Attention, Kavita est sensible à la structure des dossiers donc pour qu'il identifie correctement les séries, organisez vos dossiers comme ça :
/manga
├── Asterix/
│ ├── Asterix - Tome 01.cbz
│ └── Asterix - Tome 02.cbz
├── Stephen King/
│ ├── Ça.epub
│ └── Shining.epub
Un sous-dossier par série ou par auteur, pas tout en vrac dans un dossier unique.
Étape 6 - Accès distant (optionnel)
Maintenant, pour accéder à Kavita depuis l'extérieur, le plus propre c'est un reverse proxy avec HTTPS. Sur Synology, soit via DSM > Portail web > Proxy inversé, soit via
Nginx Proxy Manager
. Pointez votre sous-domaine sur IP-NAS:5000 et activez Let's Encrypt.
Ou alors, moi ce que j'aime bien faire aussi, c'est rien du tout et passer par
Tailscale
!
Côté fonctionnalités
Côté ergonomie, franchement ils n'ont pas chômé puisqu'on y retrouve le lecteur intégré avec modes single page, double page, webtoon ou même mode immersif plein écran. Des thèmes light, dark, sepia, + un mode personnalisé en CSS si vous voulez.
Y'a aussi de la synchro de progression de lecture entre tous vos appareils, du coup vous pouvez commencer un chapitre sur le laptop pendant votre pause café et le finir sur le téléphone dans le métro. C'est appréciable au quotidien.
Y'a aussi de la gestion multi-utilisateur avec authentification OIDC pour ceux qui aiment faire les choses bien (et ratings + listes individuels par compte, donc votre meilleur pote peut lire ses romans de Tom Clancy à côté de votre collection de docs techniques sans qu'on les mélange).
Il y a également une surveillance automatique des dossiers pour tout ce qui est import auto et de la recherche full-text avec filtres par métadonnées (titre, auteur, série, genre, langue).
Et si vous avez des enfants, il est possible de mettre en place des restrictions par classification d'âge pour éviter qu'ils ne fouillent dans vos comics de Manara. Et le clou du spectacle spécial barbu, c'est l'export d'annotations vers Obsidian via le plugin officiel pour les nerds du second cerveau.
Kavita propose même une fonction "Send to Kindle" pour balancer un EPUB vers votre liseuse Amazon. Sur Windows, vous pouvez aussi le transformer en service système avec
Shawl
pour qu'il démarre tout seul au boot, et côté Linux, un docker-compose suffira largement.
Voilà, dans cette jungle bordélique des outils ebooks auto-hébergeables, Kavita se positionne comme une option moderne et stable. Je préfère Kavita à Calibre car l'interface web est carrément plus moderne et hyper fluide à l'usage.
Vous l'aurez compris, côté concurrence, Kavita est historiquement plus orientée mixte ebooks-comics que Komga (qui supporte aussi les EPUB et PDF mais reste très ancré culture comics). Alors si vous hésitez entre les outils du moment, mon
tour d'horizon des outils ebooks self-hosted
devrait vous éclairer (avec notamment le drame Booklore !!).
Ah et y'a aussi Kavita+, la version premium à 4 $ par mois (2 $ le premier mois avec le code FIRSTTIME) qui ajoutera la sync AniList, des recommandations personnalisées, des collections intelligentes et l'enrichissement de métadonnées automatique. Après, perso, pour un usage classique, je trouve que la version gratuite fait déjà largement le job, mais si vous gérez +50 000 fichiers et que vous voulez pas passer la soirée à taguer des séries entières, là ça peut carrément valoir le coup.
L'actualité de la tech ces derniers mois donne des sueurs froides. Entre les rebondissements autour du CLOUD Act, la section 702 de FISA qui permet aux agences US d'accéder aux données des non-américains sans mandat, et les tensions diplomatiques internationales, la question de la souveraineté numérique n'est plus un débat de geeks. C'est un enjeu concret pour quiconque stocke, communique ou navigue en ligne.
Dans ce contexte, choisir ses outils, c'est faire un acte politique. Pas besoin de militer avec un mégaphone. Parfois, il suffit de changer de fournisseur et c'est là que Proton (lancé en 2014) entre en piste.
La localisation de vos données est importante
Si vous utilisez encore des services gratuits basés aux États-Unis (coucou Google, Meta & co), sachez que vos données sont, juridiquement, à portée de main du FBI, de la NSA ou de n'importe quelle agence fédérale disposant d'une subpoena (en gros l'équivalent d'une assignation à comparaître). Le CLOUD Act (pour Clarifying Lawful Overseas Use of Data) permet aux autorités américaines d'exiger l'accès aux données détenues par des entreprises US, même si ces données sont stockées sur des serveurs en Europe. Pepouze, ont fait comme chez nous quoi.
La Suisse, par contre, n'est pas membre de l'UE ni de l'EEE. Elle dispose de lois strictes sur la protection des données (LPD) et n'est donc pas soumise au CLOUD Act. Proton, basé à Genève, opère donc sous un cadre juridique qui privilégie la vie privée des utilisateurs. Ce n'est pas mon opinion, c'est un fait juridique.
Ajoutez à cela que tous les produits Proton sont open source, régulièrement audités par des tiers indépendants, qu'ils appliquent une politique de no-logs vérifiée et vous obtenez une stack technique qui résiste.
Proton VPN : la porte d'entrée idéale (à 1 €/mois)
Commençons par le produit phare de la suite : Proton VPN. Pourquoi un VPN ? Pas seulement pour contourner des géoblocages (même si bah ... accéder à un catalogue Netflix étranger a son charme). Un VPN sérieux chiffre votre trafic, masque votre trafic aux yeux de votre FAI, et vous protège sur les réseaux Wi-Fi publics crades. Comme tous les VPN sérieux, il restaure une couche de confidentialité dans un internet de plus en plus surveillé.
D'ailleurs si Proton coche la plupart des cases techniques essentielles, il va même plus loin avec des fonctionnalités pensées pour les usages exigeants :
**VPN Accelerator : la vitesse sans compromis
**Oubliez le mythe du « VPN qui ralentit tout ». Grâce au VPN Accelerator (une techno propriétaire qui optimise le traitement des protocoles et réduit la latence), Proton améliore les performances jusqu'à 400 % sur les connexions longue distance. Couplé à un réseau de serveurs 10 Gbps (plus de 20 000 serveurs dans 140+ pays), le résultat est plutôt pas mal du tout. Streaming fluide, téléchargements rapides, navigation réactive, ça poutre bien.
**Stealth : contourner la censure avancée
**Vous voyagez dans un pays restrictif ? Le protocole Stealth, basé sur un WireGuard tunnellisé via TLS, rend votre trafic VPN indiscernable d'une connexion HTTPS classique. Du coup il passe à travers la plupart des pare-feux et méthodes de blocage sophistiquées. Idéal pour les journalistes, les activistes, ou simplement les voyageurs qui veulent accéder à leurs services habituels sans friction.
**Secure Core : la double protection
**Pour les scénarios à haut risque, Secure Core route votre trafic via au moins deux serveurs. D'abord il passera par un nœud d'entrée situé dans un pays à forte protection des données (Suisse, Islande, Suède), puis par un serveur de sortie. Cette architecture en « double VPN » protège contre les attaques par corrélation de trafic et les compromissions de nœud de sortie. Les serveurs Secure Core sont hébergés dans des data centers durcis (anciennes bases militaires, installations souterraines, accès biométriques) et exploités sur des réseaux dédiés.
Ajoutez à ça des fonctionnalités comme :
NetShield : un bloqueur DNS intégré qui filtre pubs, trackers et malwares avant qu'ils n'atteignent votre appareil.
Kill Switch & Always-on VPN : coupe automatiquement le trafic si la connexion VPN tombe, pour éviter toute fuite d'IP.
Tor over VPN : accédez au réseau Tor en un clic, sans configuration complexe.
Split Tunneling : choisissez quelles applications passent par le VPN, et lesquelles utilisent votre connexion directe.
Chiffrement de bout en bout : AES-256, ChaCha20, clés 4096-bit RSA.
Pour le prix d'un café serré, vous testez un VPN sérieux, sans engagement long terme, et vous soutenez une entreprise qui se bat pour la vie privée en ligne. C'est un point d'entrée à très faible risque.
L'offre est visible directement sur leur site, sans code promo alambiqué. Si l'expérience vous convainc, vous pourrez toujours migrer vers une formule plus complète plus tard.
La cohérence d'une stack privacy
Un VPN protège votre navigation. Mais vos emails dans tout ça ? Et vos fichiers stockés dans le cloud ? Hé bien c'est là que la vision de Proton prend tout son sens puisqu'ils proposent un écosystème unifié plutôt que des outils disparates.
**Proton Mail : l'email chiffré de bout en bout
**Finis les scans publicitaires de vos messages (coucou Gmail). Proton Mail chiffre vos emails avant même qu'ils ne quittent votre appareil. Seul le destinataire possédant la clé privée peut les lire. Même Proton ne peut pas accéder au contenu de vos messages. L'interface est épurée, les applications mobiles sont fluides, et l'intégration avec un client email tiers (via IMAP/SMTP) est possible sur les formules payantes.
**Proton Drive : le stockage cloud qui respecte votre vie privée
**Lancé plus récemment, Proton Drive permet de stocker vos fichiers avec un chiffrement de bout en bout. Fini les analyses automatiques de vos photos ou documents. Vous gardez le contrôle total. L'intégration avec Proton Mail permet d'envoyer des fichiers volumineux de manière sécurisée, directement depuis votre boîte de réception.
**Le tout-en-un : Proton Unlimited
**Si vous commencez à voir l'intérêt d'avoir VPN + Mail + Drive sous le même toit, sachez que Proton propose l'offre Proton Unlimited. Elle regroupe :
Proton VPN (accès complet à tous les serveurs, dont Secure Core et Stealth)
Proton Mail (avec adresse personnalisée, alias illimités et 500 Go de stockage partagé)
Le tout pour un tarif unique, souvent plus avantageux que l'addition des services séparés. Et bonne nouvelle c'est que l'offre découverte à 1 €/mois peut parfois s'appliquer à Proton Unlimited selon les promotions en cours (à vérifier sur leur page dédiée). C'est l'occasion idéale pour tester l'écosystème complet sans se ruiner.
La souveraineté numérique, ça se construit pas à pas
Basculer vers une stack privacy européenne, ce n'est pas un geste magique qui résoudra tous les problèmes de surveillance en ligne. Mais c'est un pas concret, mesurable, pour reprendre le contrôle sur vos données. C'est un projet aligné avec des valeurs de protection de la vie privée.
Proton n'est pas parfait. L'écosystème est encore jeune comparé aux géants du secteur, certaines fonctionnalités avancées arrivent progressivement, et le prix (même avec l'offre d'appel) reste un investissement supérieur au zéro pratiqué par le "tout gratuit". L'abonnement couvre jusqu'à 10 machines, ce qui est assez large pour la plupart des familles, mais c'est pas de l'illimité non plus.
Si vous hésitez encore, rappelez-vous : 1 euro. C'est le prix d'un café (demi café bientôt), soit un coût marginal pour un test sans risque. Si l'expérience ne vous satisfait pas, vous aurez perdu l'équivalent d'un sucre en poudre. Mais si c'est le cas, vous aurez fait un pas significatif vers la reprise de contrôle de votre vie numérique.
Et, si le cœur vous en dit, explorez l'offre Proton Unlimited pour embrasser toute la stack d'un coup. Parce que la souveraineté numérique, ça commence par un choix. Ce choix, c'est toujours le vôtre, vous avez encore les clés du bonheuuuur dans vos mains. Et comme d'hab, naviguez sûr et gardez le contrôle.
FAQ rapide (oui vous vous êtes posé l'une d'entre elles, je sais)
*- Proton VPN conserve-t-il des logs de navigation ?
*Non. Proton VPN applique une politique stricte de no-logs, vérifiée par des audits indépendants. Aucune adresse IP, aucun historique de navigation, aucune donnée de session n'est conservée. Sous droit suisse, Proton ne peut même pas être contraint de commencer à logger.
*- Puis-je utiliser Proton VPN pour regarder du streaming étranger ?
*Oui, Proton VPN propose des serveurs optimisés pour le streaming (Netflix, Disney+, Prime Video, etc.) sur ses formules payantes. La performance est au rendez-vous grâce au protocole WireGuard et au VPN Accelerator.
*- Le protocole Stealth fonctionne-t-il partout ?
*Stealth est conçu pour contourner la censure avancée (Chine, Iran, Russie, etc.). Il n'est pas infaillible à 100 %, mais il représente l'une des solutions les plus robustes du marché, régulièrement mise à jour face aux nouvelles techniques de blocage.
*- La Suisse est-elle vraiment un havre de confidentialité ?
*Sans être complète, la législation suisse (LPD) reste l'une des plus protectrices au monde. La Suisse n'est pas membre des alliances de surveillance Five Eyes, Nine Eyes ou Fourteen Eyes. Cela ne garantit pas une immunité absolue, mais cela crée un cadre juridique nettement plus favorable que bien d'autres juridictions.
*- L'offre à 1 €/mois est-elle limitée dans le temps ?
*Il s'agit d'une offre promotionnelle ponctuelle. Si vous lisez ces lignes et qu'elle est toujours active, n'attendez pas ! Vous pourrez toujours annuler ou modifier votre abonnement plus tard.
*- Proton est-il compatible avec mes appareils ?
*Sauf cas exceptionnel, la réponse devrait être : oui. Les applications Proton sont disponibles pour Windows, macOS, Linux, iOS, Android, Android TV, Chromebook, et via extensions navigateur (Chrome, Firefox). Un seul abonnement couvre jusqu'à 10 appareils simultanément.
732 octets, c'est tout ce qu'il faut pour passer de simple utilisateur à root sur n'importe quel Linux non patché compilé depuis 2017, soit la quasi-totalité des kernels. Cette faille béante s'appelle
Copy Fail
(CVE-2026-31431), elle a été dénichée par Taeyang Lee de chez Theori avec leur outil d'audit IA Xint Code. Et comme elle vient d'être divulguée hier sur la liste oss-security et qu'en plus, ils ont fait un joli petit site qui explique tout comme ça fonctionne, je vais essayer de tout vous expliquer !
La faille elle-même est moche mais surtout, c'est un agent IA qui l'a sorti en une heure environ. C'est un bug que la communauté kernel a laissé passer durant près de 9 ans et qui se trouve dans le sous-système crypto.
En gros, le noyau Linux expose une interface réseau spéciale pour accéder aux opérations de chiffrement depuis un programme normal, sans droits particuliers.
Et depuis 2017, une optimisation dans ce mécanisme a créé une situation bizarre : un fichier en lecture seule sur le disque, disons un binaire système, peut se retrouver dans la zone de sortie d'une opération de chiffrement .C'est la zone que votre programme a le droit de modifier.
Il suffit alors d'enchaîner un appel système particulier (splice) pour écrire 4 octets au bon endroit, on répète ça en boucle, et on modifie progressivement un binaire système de votre choix comme par exemple /usr/bin/su.
Et voilà, vous êtes root !
Maintenant, si vous administrez un serveur, le plus propre reste de patcher le kernel via votre distro. En attendant le patch, la mitigation dépend de comment votre distro a compilé le module algif_aead, et là il y a deux situations bien distinctes.
Cas 1 - Distros où le module est chargeable dynamiquement (Ubuntu, Debian, Arch, etc.). Vous le bloquez avec :
Cas 2 - Distros entreprise où le module est compilé en dur dans le kernel (RHEL, Rocky Linux, AlmaLinux, Oracle Linux, SUSE Enterprise...). Là, attention au piège : lsmod | grep algif_aead ne renvoie rien, mais ça ne signifie PAS que c'est désactivé. Le code est embarqué directement dans le vmlinuz, donc rmmod et la blacklist via /etc/modprobe.d/ sont sans effet (vous aurez "Module algif_aead is builtin"). La vraie mitigation passe par la kernel command line au boot :
Ça empêche l'init_call du module de tourner au démarrage. Vous vérifiez ensuite avec cat /proc/cmdline que le paramètre est bien pris en compte. Si vous voulez aller encore plus loin, il est aussi possible de bloquer toute la surface d'attaque AF_ALG via
seccomp
au niveau de chaque service exposé.
Le PoC est également trouvable. C'est un script Python (Python 3.10+ obligatoire pour os.splice) capable de faire tomber Ubuntu 24.04 LTS, Amazon Linux 2023, RHEL 10.1 et SUSE 16 avec exactement le même code.
Dans une première version j'avais écrit que SELinux en mode enforcing par défaut bloquait l'exploit sur Fedora et RHEL. C'est inexact, et je remercie le lecteur qui m'a fait corriger. La policy SELinux par défaut de Fedora et RHEL autorise les contextes utilisateurs à créer des sockets AF_ALG, et l'exploit écrit directement dans le page cache kernel sans déclencher les hooks LSM file-based.
Donc SELinux enforcing ne bloque pas Copy Fail tel que livré par défaut. Le seul OS immune via SELinux est
GrapheneOS
, qui durcit la policy AOSP en réservant AF_ALG au seul process dumpstate. Ceux qui veulent tester sans Python peuvent aussi regarder du côté du
port C indépendant
, un exécutable statique de 1,7 Ko sans dépendance externe.
Les comparaisons avec
Dirty COW
et Dirty Pipe pleuvent, sauf que là où Dirty COW exigeait du timing précis et où Dirty Pipe demandait une manipulation spécifique du pipe-buffer, Copy Fail tape tout pareil sur 4 distribs majeures sans rien avoir à ajuster.
Et côté sévérité officielle, c'est du 7.8/10 donc c'est assez élevé !
Pour trouver cette faille, Xint Code, l'agent IA de Theori, n'a pas tâtonné à l'aveugle. Taeyang Lee lui a surtout glissé un prompt très précis qui lui demandait d'examiner tous les chemins accessibles depuis un programme utilisateur dans le sous-système crypto, en insistant sur le fait que splice() peut faire atterrir des fichiers en lecture seule dans des zones modifiables.
Une heure plus tard, Copy Fail sortait comme trouvaille critique ! Theori précise que le même scan a aussi remonté d'autres vulnérabilités encore sous embargo. Brrrrrr.... Tremblez simples mortel !
Ouais donc ouais, l'IA n'a pas remplacé l'expertise humaine, mais elle l'a démultipliée. Car Lee savait où regarder, et Xint Code a juste fait ce qu'il aurait fait mais en plus rapide ! C'est pas magique donc... Mais ça fait gagner du temps !
L'exploit est dispo ici sur
le GitHub de Theori
et côté impact, c'est costaud sur les hôtes multi-users et tout ce qui est environnements partagés. Je pense aux conteneurs Docker, aux clusters Kubernetes, aux pipelines CI/CD...etc.
Après si y'a que vous qui avez accès à votre serveur, c'est un peu moins critique car il faut forcément un accès local pour l'exploiter. C'est la même logique de chaînage que
BlueHammer côté Windows
, sauf qu'ici la marche jusqu'à root est encore plus petite.
Comment tester le PoC sur une machine de test ?
Si vous avez une VM sous Ubuntu 22.04 non patchée (kernel 5.15.x), voilà exactement ce qui se passe, testé en conditions réelles. Ne faites ça que sur une machine dont vous êtes propriétaire et où vous avez l'autorisation explicite.
Étape 1 - Cloner le PoC et vérifier le hash
manu@ubuntu:~$ git clone https://github.com/theori-io/copy-fail-CVE-2026-31431
Cloning into 'copy-fail-CVE-2026-31431'...
remote: Enumerating objects: 9, done.
Resolving deltas: 100% (1/1), done.
manu@ubuntu:~$ cd copy-fail-CVE-2026-31431 && sha256sum copy_fail_exp.py
a567d09b15f6e4440e70c9f2aa8edec8ed59f53301952df05c719aa3911687f9 copy_fail_exp.py
manu@ubuntu:~/copy-fail-CVE-2026-31431$ id
uid=1000(manu) gid=1000(manu) groups=1000(manu) ← utilisateur normal, pas root
Theori ne publie pas de hash officiel dans leur README, mais le SHA256 ci-dessus est celui du PoC tel qu'il est actuellement sur le repo. Si votre hash diffère, ne lancez pas le script.
Étape 2 - Lancer l'exploit
manu@ubuntu:~/copy-fail-CVE-2026-31431$ python3 copy_fail_exp.py
# L'exploit écrit 4 octets à la fois dans le page cache de /usr/bin/su
# via l'interface AF_ALG du kernel (authencesn + splice)
# Aucune race condition, aucun timing précis requis.
Mot de passe :
Le script utilise AF_ALG (l'interface crypto du kernel) combiné à splice() pour écrire un shellcode de 160 octets directement dans le page cache de /usr/bin/su, sans jamais toucher le disque. Il remplace ensuite le binaire patché pour exécuter un shell root.
/etc/shadow est normalement illisible pour un utilisateur standard. Là, avec notre PoC en Python et zéro interaction supplémentaire, on y accède comme si de rien n'était. Sur un serveur multi-utilisateurs, c'est game over pour tous les comptes présents.
Sur un système patché, le script échoue proprement à l'étape 2 avec un message d'erreur. C'est aussi simple que ça pour vérifier votre exposition.
Bref, mettez à jour vos kernels ou désactivez le module fautif rapidement !
Starcraft2.ai débarque en force pour les joueurs de StarCraft 2 et de Brood War qui voudraient disséquer leurs replays sans bouger de leur navigateur. Le créateur de ce site, qui se présente sous le pseudo de Tomkit, a sorti un analyseur gratuit qui combine un moteur de rendu isométrique et un coach IA.
Vous balancez un fichier .SC2Replay (ou .rep pour Brood War), et chose incroyableuuuh, le site reconstruit votre partie complète en vue isométrique avec mouvement des unités, brouillard de guerre activable / désactivable et heatmaps. Comme ça plus besoin de relancer le client pour mater une partie.
Et le truc qui tue, c'est que vous pouvez aussi partager n'importe quel replay via une simple URL.
L'outil derrière ce projet, c'est
sc2reader
(la bibliothèque Python de référence pour Starcraft) qui parse intégralement les binaires des replays : Position détaillée des unités, séquence des ordres de construction, économie, kills, tout est extrait du fichier directement.
Le truc cool, c'est évidemment le coach IA. L'outil envoie le contexte de la partie (courbe d'éco, build order, échanges d'unités, résultat des batailles) à Claude, qui sort alors un debrief avec des conseils actionnables. Par exemple, le LLM identifie le type de stratégie déployée (timing attack, macro, all-in, cheese) et balance des recommandations basées sur les standards pro. C'est quand même bien plus utile que tous ces guides génériques qu'on retrouve en ligne.
Puis ce qui est cool avec ce logiciel, c'est aussi le support de Brood War et à où j'écris ces lignes, c'est l'un des seuls analyseurs encore maintenus pour le vieux
premier StarCraft
. Donc pour ceux qui parmi vous ont encore des replays archivés depuis l'ère du modem 56k, c'est carrément une bonne nouvelle !
Bref, si vous jouez encore à SC2 ou si vous voulez juste mater de beaux replays sans lancer le jeu, c'est
par ici
.
Monter un serveur HTTPS local pour bosser sur du Next.js ou du Vite, ça reste étrangement chiant. Faut mkcert pour générer les certifs, faut éditer le /etc/hosts à la mimine, installer caddy ou nginx en reverse proxy par-dessus... bref, vous voyez le diiiiliiiire ! Heureusement,
Kamran Ahmed
, le mec derrière roadmap.sh, vient de balancer
Slim
, un binaire Go standalone qui fait tout ça d'un coup.
Et tant qu'à faire, il rajoute aussi des tunnels publics à la ngrok au cas où vous voudriez présenter votre travail de dev payé au lance pierre, à un client pressé.
L'idée c'est donc de taper : slim start myapp --port 3000 et hop, votre app tourne OKLM en local sur le port 3000 et devient accessible via https://myapp.test avec un certif totalement valide reconnu à 100% par votre navigateur.
Ça permet d'esquiver tout config manuelle, puisque le binaire crée une autorité de certification locale (CA) dès le premier lancement, signe ensuite les certifs par domaine, et met à jour /etc/hosts tout seul, sans oublier de rediriger les ports 80/443 sur 10080/10443 sans même avoir besoin de root.
Et cette CA est ajoutée au trousseau du système, donc votre Chrome, Safari ou Firefox (ze best !!) la considèrent immédiatement comme légitime, sans alerte de sécurité. Du tout-en-un comme je l'aime quoi !
L'install se fait en une ligne (pensez à regarder comme d'hab le contenu du fichier .sh avant de le lancer, je ne le répéterais jamais assez) :
curl -sL https://slim.sh/install.sh | sh
Ensuite, pour les domaines, vous avez le choix entre .test (par défaut), .loc ou .dev. Notez que Kamran a explicitement banni le .local parce que ce TLD est réservé à mDNS et que ça fout en l'air toute la résolution DNS sur macOS et Linux. Ouf !
Le routing par chemin est aussi de la partie. Si vous bossez sur une app Next.js qui tourne sur le port 3000 et une API séparée sur le 8080, vous pouvez tout router en 1 seule commande :
Tout tape alors sur https://myapp.test, et c'est slim qui fait le découpage. Et si vous avez plusieurs services à orchestrer, un fichier .slim.yaml à la racine du projet permet de tout déclarer d'un coup et de lancer le bouzin avec slim up.
WebSocket et HMR sont également gérés nativement, donc ça marche direct avec Vite et Next.
Maintenant, l'autre moitié de l'outil c'est slim share --port 3000 --subdomain demo qui vous délivre une URL publique sur slim.show pour exposer votre localhost sur le net. Vous pouvez ainsi ajouter un mot de passe, un TTL d'expiration, voir les logs en direct... bref, c'est du ngrok-like classique mais déjà inclus dans le même binaire ce qui évite d'aller vous créer un compte séparé. Suffit de lancer un slim login pour activer le partage public.
Alors Slim c'est cool mais y'a pas de support Windows officiel pour l'instant... ce sera donc macOS ou Linux uniquement.
Et si vous êtes sur des stacks où vous avez déjà investi dans
Tunnelto
pour son dashboard d'introspection HTTP ou dans
Tunnl.gg
pour son approche zéro-client, slim n'apportera pas forcément de quoi migrer. Mais si vous galérez à empiler mkcert + caddy + ngrok à chaque nouveau projet, c'est pil poil ce qu'il vous faut.
Le code est sur
GitHub
et un grand merci à Philobois pour le partage !
Datadog Labs vient de sortir
pup, un outil CLI codé en Rust qui donne à vos agents IA un accès complet à leur plateforme. L'idée c'est que pendant que Vercel et AWS galèrent de ouf à rendre leurs trucs « agent-friendly », Datadog, lui, dégaine un outil dédié qui expose +200 commandes sur plus de 33 de leurs produits, du monitoring aux SLOs en passant par la sécurité et les incidents.
Côté install c'est du classique, brew tap datadog-labs/pack && brew install pup, puis pup auth login pour le flow OAuth2 avec PKCE.
Plus besoin comme ça de balader vos clés API à vie dans des variables d'env, même si le fallback DD_API_KEY reste là quand même pour d'éventuels cas "headless". Une fois loggué, vous tapez alors par exemple :
et l'agent récupère du JSON 100% clean, prêt à être bouffé et digéré par Claude Code, Cursor ou peu importe ce que vous utilisez.
Pour détecter le mode agent, Pup regarde les variables d'environnement type CLAUDE_CODE ou CURSOR_AGENT, et bascule tout seul en sortie machine, avec tout ce qui va bien, genre les metadonnées, les hints et autres auto-approbation des prompts destructifs (oui, c'est à utiliser avec prudence, mais je vous fais confiance, vous êtes des pro).
Les commandes sont aussi auto-découvrables via pup --help ou pup agent schema, donc l'agent peut introspecter ce qu'il a à disposition sans que vous lui mâchiez le travail.
Y'a même un moteur de runbooks en YAML pour chaîner des étapes (commandes pup, shell, HTTP, workflows Datadog) avec interpolation de variables, conditions et polling. Pratique donc pour scripter un triage d'incident ou un déploiement, sans sortir un Argo ou un Temporal pour ça. Et pour les setups un peu plus velus, pup se compile aussi en WASM, donc vous pouvez le faire tourner dans Wasmtime ou un Cloudflare Worker.
À noter, le projet est encore en Preview, et que certaines API ne sont pas implémentées (Session Replay, Powerpacks, IP Allowlist).
Une IA qui pense que 2026 ressemble à un monde fait de bateaux à vapeur et de vastes réseaux ferroviaires, et qui considère qu'une seconde guerre mondiale est très peu probable... voilà Talkie-1930, le nouveau modèle de langage à 13 milliards de paramètres lancé par Nick Levine, David Duvenaud et Alec Radford (l'un des architectes de GPT-2 chez OpenAI).
LE truc avec ce modèle d'un nouveau genre, c'est qu'il n'a JAMAIS lu un mot écrit après le 31 décembre 1930. Pas de Wikipedia, pas de Reddit, pas de GitHub....et j'en passe.
Si ça vous branche, vous pouvez tester la démo direct sur
talkie-lm.com/chat
, et les poids sont dispos sur
HuggingFace
sous licence Apache 2.0 !
Alors pourquoi 1930 et pas 1950 ou 1900 ?
Hé bien tout simplement parce que c'est la date précise à laquelle les œuvres tombent dans le domaine public aux États-Unis. L'équipe a donc pu aspirer 260 milliards de tokens de livres, journaux, périodiques, revues scientifiques, brevets et jurisprudence antérieurs à cette date sans risquer la moindre poursuite légale.
Et c'est là que ça devient amusant parce que quand on demande à Talkie-1930 de décrire le futur, il imagine comme je vous le disais en intro, un monde dominé par les bateaux à vapeur et les trains et c'est logique car c'était l'horizon technologique de son corpus à l'époque. Le modèle considère aussi qu'une seconde guerre mondiale est improbable (il ne connaît évidemment que la Première) et du coup, ça donne un terrain d'expérimentation fascinant pour étudier le raisonnement temporel et la généralisation hors distribution moderne.
L'équipe a publié trois checkpoints : talkie-1930-13b-base (modèle brut), talkie-1930-13b-it (pour le chat) et talkie-web-13b-base (un jumeau d'architecture identique mais entraîné sur
FineWeb
à titre de comparaison). Cette approche "modèle jumeau" permet par exemple de mesurer précisément ce qui vient de l'architecture vs ce qui vient des données.
Pour la phase de post-training, l'équipe a utilisé Claude Sonnet 4.6 comme juge dans une procédure DPO (Direct Preference Optimization). Ils ont également généré des conversations synthétiques entre Claude Opus 4.6 et Talkie pour le fine-tuning supervisé. Bref, c'est un modèle ultra-vintage entraîné à l'aide de modèles ultra-modernes.
L'équipe travaille déjà sur un système OCR custom pour les documents historiques (les OCR conventionnels n'atteignent que 30% de l'efficacité d'apprentissage face à du texte transcrit manuellement) et vise un modèle de niveau GPT-3 pour l'été 2026, avec un corpus pouvant atteindre plus d'un trillion de tokens.
Bref, Talkie-1930 c'est un projet de recherche assez chouette pour tous ceux qui aiment creuser les LLMs. Le code est sur
GitHub
sous Apache 2.0, et la démo en ligne marche très bien si vous voulez juste tester sans installer.
"GitHub n'est plus un endroit pour faire du travail sérieux."
C'est signé Mitchell Hashimoto, le créateur de HashiCorp, de Vagrant ou plus récemment de Ghostty, et l'utilisateur numéro 1299 de la plateforme depuis février 2008.
Et quand un mec qui a passé 18 ans à pousser du code presque tous les jours sur Github annonce qu'il se casse, bah ça vaut clairement le coup de comprendre pourquoi.
L'annonce est tombée hier :
Ghostty
, le terminal en Zig pour macOS et Linux va quitter la plateforme. Pas tout de suite, pas brutalement, mais la décision est prise. Hashimoto précise qu'il discute "avec plusieurs fournisseurs (commerciaux comme FOSS)" pour choisir la nouvelle maison pour son code, et qu'un miroir en lecture seule restera accessible sur l'URL GitHub actuelle pour ne pas casser les liens des PRs et des issues. La migration sera, je cite, "aussi incrémentale que possible" pour les contributeurs.
Mais alors, qu'est-ce qui a déclenché cette situation ? Hé bien la semaine du 20 avril a été vraiment catastrophique ! Tout d'abord, le 22 avril, l'agent Copilot et le traitement des commentaires de PR sont tombés une demi-journée à cause d'une erreur de sérialisation. Le 23 avril, c'était encore pire puisqu'un bug dans la merge queue a produit des merges incorrects pour les PRs fusionnées en mode squash quand le groupe contenait plus d'une PR.
Cette situation a même été carrément reconnue officiellement par GitHub, puisque
2092 pull requests ont été affectées
... du coup des changements précédemment mergés se sont retrouvés involontairement annulés par les merges suivants. Ensuite, le 27 avril, rebelote sur les Github Actions.
Bref, comme le dit Hashimoto dans
The Register
: "je ne peux plus coder avec GitHub".
Hashimoto fait état d'un attachement quasi sentimental avec la plateforme. Il a lancé Vagrant en partie pour impressionner GitHub, en espérant secrètement décrocher une embauche un jour. Embauche qui n'est jamais venue, mais l'attachement est resté. "J'aime GitHub plus qu'on devrait aimer une chose", écrit-il, "et je suis en colère contre lui".
C'est pas de la posture donc puisqu'il a vécu depuis 2008 toute l'histoire de la plateforme en passant par le rachat par Microsoft en 2018 jusqu'à l'âge Copilot. Et c'est ce qui rend sa décision vachement intéressante car c'est pas un libriste hardcore qui crachait déjà sur GitHub avant le rachat. Non, c'est un vrai fidèle de la première heure !
Pour vous la faire courte, c'est OUI ! Mais ma réponse longue mérite un peu de nuance quand même, parce que c'est jamais aussi simple.
Côté faits, son constat est vraiment étayé. GitHub a publiquement reconnu sur son
blog officiel
que ses récentes pannes sont dues à "une croissance rapide, un couplage architectural et des limitations de gestion de charge". Pas de complot donc mais un aveu honnête.
Quand votre infra ne tient plus la charge et que vos services principaux tombent quasi quotidiennement, vendre du cloud computing devient trèèèès compliqué. Alors pour un projet open source qui dépend des Actions pour ses tests automatiques, des PRs pour les contributions extérieures, ou des Issues pour son support... 2 heures de blocage par jour, c'est franchement énorme et ça casse bien les couilles.
C'est l'équivalent d'un quart de la journée de travail balayé et sur un trimestre, ça commence à coûter super cher en énergie mentale...
Maintenant, Hashimoto souhaite quand même conserver ses projets personnels sur GitHub. Seul Ghostty migre, donc ce n'est pas non plus un boycott idéologique de Microsoft, ni une croisade contre la centralisation. C'est surtout une décision pragmatique pour un projet collectif qui doit fonctionner H24.
Un dépôt perso peut se permettre une heure de downtime sans drama. Je le précise pour éviter de transformer le sujet en guerre culturelle prêt à penser. C'est plus un divorce avec négociation qu'une révolution sanguinaire.
Après y'a des alternatives... De leur côté,
Codeberg
et
Forgejo
tournent super bien sans oublier GitLab pour ceux qui préfèrent du commercial all-in-one, ou tout simplement Gitea ou Forgejo en version auto-hébergée pour ceux qui veulent vraiment garder la main.
L'auto-hébergement n'a jamais été aussi accessible
. Un VPS Linux à 5 balles par mois, un Forgejo en Docker compose, un fournisseur de CI externe ou des runners locaux... et vous avez une forge équivalente à un GitHub des années 2015. Le hic, c'est surtout l'effet réseau car un mainteneur peut migrer son repo, mais comment ramener ses contributeurs qui ont toutes leurs notifs, leurs follows, leur réputation accumulée sur GitHub ?
C'est pas si simple...
Car c'est là que ça coince vraiment. En fait, le verrou n'est pas technique, il est social, et c'est pas demain matin qu'on le fera sauter. Ghostty peut se permettre de quitter GitHub précisément parce que le projet a atteint la masse critique où les contributeurs viennent même quand on déménage mais la plupart des projets open source n'ont pas ce luxe.
Pour eux, partir de GitHub c'est risquer de perdre 90 pourcent de leur visibilité du jour au lendemain. Et sans visibilité, pas de contributeurs et pas de PRs... du coup le projet se plante avant même de démarrer. C'est dommage !
Notez quand même que Forgejo travaille d'ailleurs activement sur
la fédération via ActivityPub
, et à terme, ça pourrait permettre une vraie décentralisation des forges sur le modèle de Mastodon. Mais à condition que l'écosystème suive...
Maintenant, pour les mainteneurs qui se reconnaissent dans la frustration de Hashimoto, le moment est plutôt favorable, je trouve, pour aller tester Codeberg sur un projet secondaire avant de peut-être déménager votre projet principal.
Tout ça est faisable en un week-end ou deux. Certes, il y a un petit coût à cette migration, mais disons que c'est un investissement pour la sérénité de demain.
Bref, un gros big up à Hashimoto pour son courage !
Si vous avez décidé de passer au dumbphone notamment après avoir lu mon merveilleux article sur
le débat dumbphone vs smartphone
qui agite le monde en ce moment, vous êtes tombé peut-être démuni sur le choix de votre futur doudou tech.
Heureusement,
Jose Briones
, le type qui modère
r/dumbphones
et qui anime la chaîne YouTube de référence sur le sujet, maintient depuis un petit moment un site baptisé
Dumbphone Finder
qui recense 89 modèles avec une trentaine de critères filtrables.
**Mais avant tout ça, pourquoi en acheter un neuf et ne pas recycler un vieux dumbphone de votre jeunesse ? **
Hé bien avec la fermeture de la 2G qui a commencé chez Orange le 31 mars dernier (et chez Free aussi par effet domino, vu que Free roame sur Orange et n'a jamais eu sa 2G en propre), une bonne partie des vieux Nokia trouvés sur Le Bon Coin ne passe déjà plus d'appels dans les zones où la 2G a été coupée, et le périmètre s'élargit chaque mois.
Et les François le Français qui voulaient donc un truc simple se retrouvent donc coincés entre des modèles incompatibles, des flip phones US qui ne fonctionnent pas chez nous, et des "smart feature phones" qui sont en fait des smartphones déguisés.
Je vous propose donc de vous aider à choisir le dumbphone qui vous conviendra le mieux !
Le critère qui ne se discute pas en France : 4G + VoLTE
C'est la première chose à vérifier, et ça élimine direct la moitié du catalogue. Avec l'extinction progressive de la 2G, les appels en voix passent désormais par le protocole VoLTE (Voice over LTE) sur le réseau 4G. Un téléphone simplement "4G" sans VoLTE ne pourra donc plus passer d'appels dans les zones où la 2G a été coupée et où la 3G ne sert plus que de repli temporaire... ce qui est plutôt chiant pour un téléphone, vous en conviendrez.
Et la 3G partira aussi au paradis en 2028 / 2029 selon l'opérateur (Free n'a même pas encore annoncé sa date), donc inutile de viser un modèle 3G en pensant gagner du temps... vous gagnerez surtout deux à trois ans d'usage avant de l'amener à la déchetterie.
Côté bandes 4G, en France les opérateurs utilisent principalement le B1 (2100 MHz), B3 (1800 MHz), B7 (2600 MHz), B20 (800 MHz) et B28 (700 MHz). Le B20 et le B28 sont les bandes sub-1GHz qui couvrent les zones rurales, et le B28 est surtout utilisé par Free et Bouygues.
Donc si une bande sub-1GHz manque sur votre dumbphone, vous aurez une couverture dégradée à la campagne, surtout chez ces deux opérateurs. Les modèles européens (comme le Punkt MP02, Mudita Kompakt, Light Phone 3) couvrent les principales bandes mais attention, le Punkt MP02 et la Mudita Kompakt n'embarquent pas le B28. C'est OK en zone urbaine ou si vous êtes chez Orange/SFR, mais à savoir si vous comptez l'utiliser en pleine cambrousse chez Free.
Le Punkt MP02, dessiné par Jasper Morrison. Un dumbphone qui assume son minimalisme.
Les flips américains type Kyocera DuraXV, TCL Flip Pro et les Sonim XP3 vendus aux US sont également à fuir car leurs bandes 4G sont calibrées AT&T/Verizon, donc pas du tout faits pour l'Europe. Sonim sort quand même une version "ROW" (Rest of World) compatible Europe pour son XP3plus, donc si vous tenez vraiment à du téléphone robuste, vérifiez bien que vous prenez cette variante et pas la version US.
Définir votre profil d'usage avant de filtrer
Alors avant de cocher des cases au pif sur le site, posez-vous ces 3 questions.
Première question : Est-ce que vous voulez juste appeler et envoyer des SMS, ou vous avez besoin de cartes, podcasts, WhatsApp ?
Car le site Dumbphone Finder distingue 4 catégories : Dumbphone (lifestyle change radical, zéro app), Smart Feature Phone (quelques apps essentielles), Feature Phone (un peu d'apps, KaiOS souvent), et Smartphone (auquel cas vous n'êtes pas au bon endroit, retournez sur Frandroid).
Deuxième question : Quelle est votre tolérance à la frustration ?
Un
Nokia 3210 4G
à environ 65 euros sur Amazon vous redonnera la nostalgie du T9, mais vous allez galérer pour taper un long SMS. Une
Mudita Kompakt
à 439 euros sur le store officiel a un écran e-ink et une UI léchée, mais vous payez le luxe du minimalisme premium. Quant au Sunbeam F1 Pro, oubliez tout de suite : Sunbeam confirme noir sur blanc sur sa page produit que les bandes 4G sont calibrées pour les Amériques uniquement, donc même en se le faisant expédier d'outre-Atlantique, il ne tiendra pas un appel chez nous.
Donc pour moi, la vraie zone de confort pour les ex-utilisateurs de smartphone qui ne veulent plus vivre comme en 1998, c'est le combo Mudita Kompakt ou Punkt MP02, avec quelques apps essentielles intégrées sans dérapage sur un navigateur web.
La Mudita Kompakt et son écran e-ink. Pas de scroll infini, pas d'algo, juste l'essentiel.
Troisième question maintenant : la sécurité et la durée de support.
Jose Briones a sur son site une grille de notation à trois axes que je trouve plutôt bien foutue : une note globale, une note sécurité (qui mesure la confidentialité et le suivi des MAJ), et une note simplicité.
Parmi les mieux notés sur les trois axes pour la France, vous tomberez encore une fois sur le
Punkt MP02
(environ 320 euros) et la
Mudita Kompakt
, le successeur de la Mudita Pure que je vous déconseille même si elle a 5/5/5 sur le finder, parce que côté MAJ et VoLTE elle est en train d'être abandonnée par le constructeur.
Bref, pour le top sans réfléchir, partez sur du Punkt ou du Kompakt.
Trois shortlists selon votre budget
Pour les serrés du budget (sous 100 euros), regardez les
Nokia 3210 4G
(~65 euros sur Amazon) ou
Nokia 8210 4G
(~50 euros, encore plus rétro), ou le
Nokia 225 4G en version 2024
(~70 euros). Tous en versions globales/européennes, donc compatibles LTE (vérifiez juste que la VoLTE est activée chez votre opérateur, c'est généralement le cas chez les MVNO français mais à confirmer), et avec un design qui vous rappellera l'âge d'or de Nokia.
Évitez par contre le Nokia 2780 qui est une variante US uniquement, car ses bandes ne couvriront pas la France.
Le Nokia 3210 4G version 2024 (HMD Global). Encore plus jaune que dans vos souvenirs.
Le 8210 4G tourne sur S30+ (donc pas de KaiOS, pas d'apps modernes), mais l'autonomie est insolente sur ce genre d'OS minimaliste.
Et pour le milieu de gamme (entre 250 et 400 euros), vous avez le Light Phone 2 d'occase (autour de 280 euros, à chasser sur
Swappa
ou Le Bon Coin) et encore une fois le
Punkt MP02
.
Le Light Phone 2 est franchement joli mais commence à dater (le 3 est sorti en mars 2025 et coûte plus cher) et le Punkt MP02 a, du coup, l'avantage d'être conçu en Suisse pour le marché européen et de couvrir les principales bandes françaises (B1, B3, B7, B20), même s'il manque le B28 mentionné plus haut.
Pour le haut de gamme (au-dessus de 400 euros), c'est
Light Phone 3
(Environ 740 euros), le
Mudita Kompakt
, le
Sleke Phone
(entre 410 et 490 euros selon le batch Pixel utilisé). Vous payez surtout pour l'écosystème complet, le SAV, les MAJ régulières et un design qui ne ressemble pas à un téléphone d'urgence pour personne âgée.
Les pièges à éviter
Premier piège : les modèles "kosher" (type Xiaomi Qin F30 Kosher) qui sont taillés pour certaines communautés religieuses et qui bloquent les apps mais avec des restrictions parfois trop sévères pour un usage normal en France (genre vidéos limitées à 2 minutes, pas de hotspot, pas d'app store). Donc si vous n'êtes pas dans la cible, ça peut vite vous frustrer.
Deuxième piège : les Sonim et Kyocera rugged en version US qui sont positionnés "outdoor pro" mais qui ont des bandes 4G US-only. Sur le Dumbphone Finder, ils ont 5 étoiles côté solidité mais ils ne marcheront pas chez vous. Vérifiez donc toujours la variante avant d'acheter.
Troisième piège : penser que le filtre "Sold Unlocked" suffit. En effet, un téléphone unlocked acheté aux US peut quand même être incompatible bandes France. Donc pensez à toujours croiser avec les specs officielles du fabricant ou un revendeur français.
Quatrième piège : croire que passer au dumbphone résoudra tous vos problèmes d'attention mes petits TDAH en mousse ! Si c'est ça votre objectif, regardez d'abord
cette app pour transformer votre iPhone en téléphone minimaliste
. Ça coûte rien, c'est réversible, et ça permet de voir si vous êtes vraiment prêt à lâcher l'écosystème Apple ou Android avant de sortir 400 balles pour un Light Phone qui prendrait la poussière au bout de trois semaines.
Bref, ce
Dumbphone Finder
c'est un super outil pour y voir plus clair dans cette jungle du dumbphone mais utilisez le correctement en activant le filtre VoLTE + bandes EU !
DOOM a déjà été porté sur des thermostats, des tests de grossesse, et même un piano ! Manquait donc plus que les chatbots IA !
Et voilà que c'est fait puisque Chris Nager vient de faire tourner DOOM dans ChatGPT et Claude, jouable directement dans la fenêtre du chat.
Le truc tient en deux outils MCP. Pour rappel, MCP (Model Context Protocol), c'est le protocole standard qui permet à une IA d'appeler des outils externes.
Ici donc, create_doom_session lance le jeu inline dans l'application, et get_doom_launch_url renvoie une URL de fallback pour les clients qui ne savent pas afficher d'UI inline.
Sous le capot, c'est cloudflare/doom-wasm qui tourne, avec les assets libres de Freedoom Phase 1, le tout écrit en TypeScript et hébergé sur Netlify. Vous tapez "lance DOOM" dans Claude, ça démarre le rendu canvas directement dans la fenêtre de chat, et hop, les démons sont là !
Pour ceux qui débarquent, DOOM est sorti en décembre 1993, et le running gag "can it run DOOM?" remonte à la fin des années 90, quand id Software a libéré le code source du jeu en 1997. Et depuis 30 ans, DOOM tourne déjà sur tout un tas de matos comme des distributeurs de billets, des oscilloscopes, des frigos, ou même des satellites en orbite... la liste est sans fin !
Y'a même un type qui avait fait
tourner DOOM avec du CSS
dans un navigateur le mois dernier. Alors c'est sûr que ChatGPT et Claude étaient déjà sur la liste des prochaines cibles évidentes.
Alors pourquoi ça devient possible maintenant ? Hé bien parce que la spécification MCP Apps est passée en stable fin janvier. C'est donc l'extension du Model Context Protocol qui permet à un serveur MCP de retourner une UI interactive (HTML, canvas, dashboards) directement intégrée dans la conversation.
Tout ça est sandboxé dans une iframe, ça communique via postMessage, et c'est aussi supporté côté VS Code. On est totalement dans la lignée de ces
outils MCP
qu'on commence à voir partout.
Comme MCP donne déjà à l'app une zone d'affichage dans la conversation (une iframe hôte), le réflexe naturel, c'est d'y caler une page web qui contiendrait elle-même DOOM.
Sauf que ça fait deux fenêtres imbriquées qui se battent avec les règles de sécurité du navigateur (CSP, frame-src, tout ça). Du coup, Chris a eu une idée de génie et a viré la couche du milieu et posé l'écran du jeu directement dans la zone fournie par MCP. Une couche en moins, et tout marche nickel !
Côté limites, faut savoir que c'est une version vraiment épurée. Pas de sauvegarde ni de chargement de partie, pas de screenshots, pas d'état persistant entre les sessions. Tout ça a été coupé volontairement pour gagner en stabilité.
Pour tester chez vous, les amis, le code est dispo sur GitHub via la
PR #54
du repo de Chris, prête à être ajoutée à votre config Claude Desktop ou ChatGPT. Y a de quoi s'amuser.
Bref, DOOM tourne désormais directement dans la fenêtre de chat de votre IA préférée. La question n'est plus "qu'est-ce qui peut faire tourner DOOM ?" mais "qu'est-ce qui ne le fait PAS encore ?".
Andy Nguyen, le security engineer alias theflow0, vient de publier le hack qui transforme une PS5 Phat (les modèles originaux, pas les Slim ni les Pro) en PC 100% Linux. Et le truc cool c'est que ça marche désormais sur les firmwares 3.xx et 4.xx, et pas seulement sur les premières consoles oubliées dans leur boîte !
Pour rappel, en mars dernier,
Andy Nguyen avait fait tourner GTA 5 Enhanced en ray tracing sur sa PS5
, mais l'exploit était limité aux firmwares 1.xx et 2.xx, donc autant dire à des consoles qui n'avaient jamais vu Internet. Mais depuis hier, le projet est officiellement sorti sur
GitHub
avec un guide d'installation complet, et il a élargi son périmètre.
Concrètement, le hack utilise une vulnérabilité patchée de l'hyperviseur PS5 (corrigée dans les firmwares récents, d'où la liste fermée) pour débloquer le hardware. Une fois en place, la PS5 expose son CPU 8 cores (16 threads) à 3.5 GHz max et son GPU à 2.23 GHz max (les fréquences de boost de la console, en pratique ça tape souvent un peu plus bas pour éviter la surchauffe), ce qui suffit largement pour faire tourner Steam et des émulateurs sans que ça rame.
Et surtout, la sortie HDMI 4K à 60 Hz fonctionne, l'audio aussi, et tous les ports USB de la console sont opérationnels !
Côté firmwares supportés, c'est précis, attention ! Les versions 3.00, 3.10, 3.20 et 3.21 fonctionnent, mais sans support M.2. Les versions 4.00, 4.02, 4.03, 4.50 et 4.51, elles, supportent en plus le SSD M.2 dédié à Linux.
Du coup, plus la console est récente dans cette plage, plus on a de flexibilité. Pour les firmwares 5.xx, ça pourrait ensuite arriver plus tard, mais Linux tournera dans un environnement virtualisé restreint à côté de GameOS, donc avec des perfs et des fonctionnalités un peu dégradées.
Maintenant, pour vérifier votre firmware avant de tenter le coup, c'est dans Paramètres > Système > Informations console.
Pour l'install, il vous faudra une clé USB de 64 Go minimum (un SSD externe est recommandé), un clavier/souris USB, un adaptateur Ethernet ou Wi-Fi USB, et en option un dongle Bluetooth si vous voulez utiliser la DualSense. Le Bluetooth interne de la PS5 n'est pas encore supporté par contre.
Les ports recommandés pour booter sont l'USB Type-C en bas à l'avant ou les Type-A à l'arrière.
Pour réussir ce tour de passe-passe, l'exploit passe par
umtx2
, qui simule un faux DNS sur l'URL manuals.playstation.net pour envoyer le payload via socat. Du pur travail de hacker, mais le README est plutôt bien fichu et vous tiendra la main tout au long de l'install.
Évidemment, c'est encore expérimental.... Pas de dual-boot, donc il faut relancer l'exploit à chaque démarrage en mode Linux, le mode standby ne fonctionne pas, le screen saver est buggé, et certains écrans ont du mal avec la sortie HDMI. C'est donc pas pour du grand public et il vaut mieux être à l'aise avec la ligne de commande pour s'y mettre.
Reste que voir Andy Nguyen continuer son bon boulot sur la sécurité de la PlayStation, c'est toujours cool. Le mec est derrière plusieurs jailbreaks PS4 et début PS5, et combiné avec
la fuite des clés BootROM PS5 fin 2025
, l'écosystème commence enfin à respirer un air plus "libre".
Donc si vous avez une PS5 Phat sortie entre 2020 et début 2022 qui traîne avec un firmware d'époque, c'est peut-être le moment de la ressortir du placard.
Adobe vous fourgue du After Effects en abonnement Creative Cloud obligatoire, et CapCut appartient à ByteDance, avec tout ce que ça implique côté collecte de données et juridiction chinoise.
Et dire que pendant ce temps, Clément Cordier, dev solo basé en Normandie, vient de sortir la version 5 de
Pikimov
, son éditeur vidéo qui tourne directement dans le navigateur ! Ce serait vraiment con de passer à côté, non ? Surtout que c'est gratuit et que ça tient la route.
La grosse nouveauté de cette v5, c'est donc l'arrivée d'un 3eme éditeur. En effet, avant, Pikimov avait 2 modes : Un pour le compositing 2D et un pour le compositing 3D, ouvertement inspirés d'After Effects côté workflow et raccourcis. Sympa pour les motion designers donc mais beaucoup moins pour les YouTubeurs qui veulent juste cut un B-roll.
Mais rassurez-vous, il y a aussi un éditeur classique plus simple, qui se positionne face à CapCut pour tout ce qui est montage vidéo classique. Du coup, le même outil couvre à la fois le motion design lourd et les cut/transitions/sous-titres rapides.
Il est pas genre trop super fort, Clément ??
Côté pratique, vous allez donc sur pikimov.com avec Chrome, Edge ou Opera (Pas de Firefox, sniiif), vous lancez un projet, et vous importez vos médias. Images, vidéos, fichiers audio, et même des modèles 3D au format glb si vous bossez en compositing 3D.
Comme tout reste sur votre machine via le stockage local du navigateur, pensez juste à exporter régulièrement votre fichier projet si vous tenez à le garder en cas de nettoyage de cache impromptu. Ensuite, le traitement vidéo se fait en local, dans le navigateur, jusqu'à du 4K en entrée et avec un export en MP4 classique pour YouTube ou en WebM avec canal alpha quand vous avez besoin de transparence sur vos overlays.
L'application repose sur Three.js pour le rendu graphique (la partie compositing et 3D) et Ember.js pour l'interface, le tout couplé aux APIs vidéo modernes du navigateur, ce qui permet de faire tourner du compositing relativement musclé sans installer le moindre binaire.
Le système de keyframes ressemble à s'y méprendre à celui d'After Effects, avec un graph editor pour ajuster l'easing des courbes, et surtout, l'animation par expressions JavaScript reprend une bonne partie de la syntaxe des expressions After Effects. Donc si vous avez déjà tapé du wiggle(2,30) ou du time*100 dans AE, vous serez en terrain connu !
Niveau outils on retrouve donc du motion tracking, rotoscoping (manuel ou automatique), background remover sans écran vert, générateur de sous-titres, blend modes pour mélanger les calques, déformations type bend ou skew, correction colorimétrique, et effets de glitch pour les amateurs d'esthétique cassée.
Screenshot
La durée maximale d'un projet est plafonnée à 30 minutes, ce qui laisse largement de quoi sortir des intros YouTube, des reels, des bumpers ou même des effets visuels propres pour un court-métrage indé !
Avant Pikimov, Clément Cordier développait des logiciels de VJing pour des plateformes complètement WTF, genre Game Boy Advance, PlayStation 2 ou Raspberry Pi donc autant dire que le mec sait faire tourner du temps réel sur des machines ridicules. Alors faire tourner un éditeur vidéo complet dans Chrome, c'est presque un terrain de jeu facile pour lui.
Notez que Pikimov n'est pas non plus seul sur ce créneau, puisque j'avais déjà parlé de
Cutia
qui tente aussi le montage vidéo dans le navigateur, mais avec une approche plus orientée IA et open source.
Et pour ceux qui veulent une version offline, sans dépendance au navigateur (pratique dans le train avec son Wi-Fi pourri), Clément propose une app standalone Windows et macOS via son
Patreon
.
La version web, quant à elle, reste 100% gratuite et complète. A vous de tester maintenant !
Vous avez déjà voulu créer une appli desktop qui tourne sur Linux, Mac et Windows en même temps ? En Rust, c'était un peu compliqué jusqu'ici. Heureusement,
Slint
, créé par la société allemande SixtyFPS GmbH, propose une solution sympa !
L'idée, c'est de décrire votre interface dans des petits fichiers .slint (un genre de mini HTML/CSS pour appli native), et de brancher ça à du Rust, du C++, du JavaScript ou du Python. Comme ça, vous codez le visuel d'un côté, la logique de l'autre.
Et ce qui est encore plus cool c'est que leur runtime tient dans 300 KiB de RAM. A titre de comparaison, une appli Electron type Discord en bouffe plusieurs centaines de mégaoctets. Slint tourne donc aussi bien sur un Raspberry Pi, un microcontrôleur STM32, ou directement dans un navigateur via WebAssembly.
Par exemple, SK Signet, un fabricant sud-coréen leader sur le marché américain des bornes de recharge électrique, anime ses écrans tactiles 15 à 32 pouces avec. OTIV fait tourner ses trains autonomes dessus. WesAudio l'utilise également pour son plugin audio pro.
Donc c'est du sérieux et si vous voulez tester sans rien installer, direction
SlintPad
. Vous tapez du code, et le rendu apparaît dans le navigateur. Ensuite pour débuter un projet Slint en local, faudra faire un cargo install slint-lsp puis utiliser le template slint-rust-template dispo sur GitHub. 2 minutes de compilation plus tard et hop, vous avez votre première fenêtre.
Côté tarif, Slint est gratuit pour les projets open source et gratuit aussi pour les applis desktop, mobile ou web même propriétaires. Seul l'embarqué propriétaire est payant. Donc pour la majorité des gens, c'est gratos.
Le revers de la médaille c'est qu'il faudra apprendre un nouveau langage de description, et la bibliothèque de boutons et menus prêts à l'emploi est moins fournie qu'un Qt qui a 30 ans d'avance derrière lui. Mais ça vaut le coup d'essayer puis vu que tout le monde vibe code de toute façon, ça ne devrait pas vous poser trop de soucis.
Voilà, si vous bricolez vos propres outils sur Raspberry Pi ou que vous voulez juste une appli desktop ultra-légère sans embarquer un navigateur entier avec, c'est à regarder.
Readarr a malheureusement
fermé boutique en juin dernier
et depuis, le créneau Sonarr-pour-bouquins était orphelin. Mais voili que voilà
Shelfmark
qui débarque pour combler ce trou, et c'est signé calibrain. Cet outil c'est l'évolution directe de Calibre-Web-Automated-Book-Downloader (CWA-BD pour les intimes), renommé en début d'année !
Niveau interface, ça se présente comme une seule barre de recherche, façon Spotlight mais pour vos sources de livres, qui sait chercher et télécharger des ebooks (et des audiobooks) depuis toutes vos sources configurées : Web, torrent, usenet, IRC, tout passe par la même barre de recherche.
Comme ça, vous tapez le titre, ça interroge Hardcover, Open Library ou Google Books pour les métadonnées, ça agrège les résultats des sources, et vous cliquez sur le format qui vous arrange. Si le dossier de destination pointe vers l'ingest folder de Calibre-Web-Automated, Grimmory ou Audiobookshelf, l'import est alors automatique ce qui fait que vous n'avez aucun script maison à entretenir.
Côté sources, c'est la souplesse maximale. Prowlarr en backend pour les indexers torrent/usenet, IRC pour les vieilles méthodes qui marchent toujours, et même Cloudflare handling intégré pour les sites protégés.
Pour le contournement Cloudflare, Shelfmark embarque son propre bypasser (un FlareSolverr-like maison). Du coup vous avez 2 variantes Docker au choix : la Standard avec navigateur intégré, et la Lite (sans browser) si vous avez déjà un FlareSolverr ailleurs ou si vos sources n'en ont pas besoin. L'image est dispo sur ghcr.io, et utilise le port 8084 par défaut. Bref, c'est du docker compose up -d classique, j'vais rien vous apprendre à ce sujet.
Ce qui est sympa avec ce logiciel, c'est surtout le système multi-utilisateur avec son système de requêtes, ce qui vous permet de monter votre propre instance, puis de l'ouvrir à votre famille ou à vos potes ces gros noobz ^^ pour qu'ils cherchent leurs bouquins. Et vous, vous validez (ou pas) leurs requêtes en tant qu'admin.
Côté auth ça peut se faire en login basique jusqu'au SSO entreprise via OIDC (Authelia, Authentik, Keycloak), + proxy auth si vous avez un reverse proxy qui vous authentifie en frontal, ou alors faire réutilisation directe de la base utilisateurs de Calibre-Web (Suffit de monter son app.db en read-only et c'est plié).
Les amoureux de Tor peuvent également activer le routage via Tor si ça vous amuse. Shelfmark est donc plus un outil de recherche et de téléchargement qu'un outil de gestion de bibliothèque. Donc c'est plus minimaliste, contrairement à Readarr qui voulait tout faire et s'est cassé les dents sur les métadonnées.
Maintenant, si vous voulez la gestion de bibliothèque, c'est Calibre-Web ou Audiobookshelf qui fera bien le job (Mon
dossier sur l'écosystème ebooks self-hosted
peut vous aider à monter votre stack complète).
Bref, Readarr a fermé, Shelfmark a ouvert et vos étagères de livres numériques vous remercieront !