Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Runtipi : solution open source pour les applications auto-hébergées

Par : Fx
13 octobre 2025 à 07:00
Tuntipi - Runtipi : solution open source pour les applications auto-hébergées

Runtipi est une solution open source permettant de simplifier la gestion d’applications auto-hébergées. Idéale pour monter un homelab sur un Mini-PC, Raspberry Pi ou un NAS, la plate-forme permet de déployer des services sans passer des heures à configurer Docker manuellement. Découvrons ensemble RunTipi…

Tuntipi - Runtipi : solution open source pour les applications auto-hébergées

Runtipi : centralisation & automatisation

Runtipi centralise l’installation, les mises à jour et la sauvegarde de près de 300 applications via une interface Web intuitive. Que vous souhaitiez monter un environnement multimédia ou de productivité, tout se fait en quelques clics, sans écrire de fichiers Compose complexes. Chaque application tourne dans un conteneur isolé derrière un reverse proxy Traefik géré automatiquement, avec des sauvegardes et restaurations guidées pour limiter les risques de perte de données.

La compatibilité avec la plupart des distributions Linux en fait une solution flexible pour un Mini-PC, un Raspberry Pi ou encore une VM légère sur un NAS. Pour les usages multimédias (Jellyfin, Sonarr/Radar) avec quelques utilitaires (AdGuard Home, Authentik, Vaultwarden) il est recommandé d’avoir un processeur Quad Core et 8 à 16 Go de RAM pour un fonctionnement fluide au quotidien. Avec un Raspberry Pi, il faudra donc rester attentif aux performances…

RunTipi Appstore - Runtipi : solution open source pour les applications auto-hébergées

Fonctionnalités clés

RunTipi va simplifier l’installation et l’utilisation au quotidien des outils avec :

  • Catalogue d’applications : environ 300 applications disponibles, allant de l’archivage web aux serveurs multimédias, en passant par les outils IA, l’automatisation et la sécurité ;
  • Tableau de bord moderne : surveillez le statut du système, installez et configurez vos applications, effectuez des sauvegardes et mises à jour, le tout depuis une interface Web unique ;
  • Sécurité par conception : chaque service est isolé dans son conteneur et géré via Traefik…

Installation et première mise en route

Le guide officiel explique comment préparer un serveur Linux minimal sécurisé, lancer l’initialisation de Runtipi et accéder au tableau de bord, sans connaissances approfondies en ligne de commande. En pratique, l’installation se résume à exécuter un script officiel sur une distribution type Debian/Ubuntu pré-installée, puis à terminer la configuration via l’interface web.

Voici la commande à taper pour installer RunTipi : curl -L https://setup.runtipi.io | bash

Déployer et personnaliser des applications

Une fois Runtipi installé, l’App Store permet d’installer vos applications en un clic. Les champs de configuration guidés facilitent la mise en route et les mises à jour se font en un seul clic. Bien sûr, les utilisateurs avancés peuvent personnaliser le compose via un fichier tipi-compose.yml dans user-config pour exposer le tableau de bord Traefik ou ajuster des ports, sans modifier le compose de base régénérée à chaque redémarrage.

En synthèse

Runtipi constitue une base solide pour construire un homelab fiable et facile pour un Mini PC et/ou avec un NAS. Son catalogue riche, ses mises à jour en un clic, ses sauvegardes intégrées et ses fonctionnalités avancées en font une solution complète. Pour démarrer sereinement, on vous recommande de suivre le guide officiel afin d’installer vos premières applications, puis affiner la personnalisation via user-config et Traefik selon vos besoins.

Sachez qu’il est tout à fait possible de tester RunTipi : demo.runtipi.io avec l’identifiant [email protected] et le mode de passe password.

Microsoft continue sa guerre contre les comptes locaux Windows 11...

Par : Korben
7 octobre 2025 à 15:00

Putain, ils sont relous chez Microsoft ! Vous vous souvenez quand Microsoft a supprimé la commande oobe\bypassnro en mars dernier ? Cette petite astuce permettait tout simplement d’installer Windows 11 sans compte Microsoft et sans connexion internet. Les geeks ont alors râlé pendant 48 heures, puis quelqu’un a découvert une nouvelle parade : start ms-cxh:localonly. C’est une commande magique qu’il suffisait de taper pendant l’installation (Shift+F10, vous connaissez la manip..) pour contourner l’obligation d’avoir un compte en ligne.

Eh bien devinez quoi ? Microsoft vient de colmater cette “faille” aussi.

Bref, dans une nouvelle build test de Windows 11 publiée le 6 octobre dernier, Amanda Langowski du Windows Insider Program a annoncé officiellement que toutes les méthodes connues pour créer un compte local pendant l’installation sont en train d’être supprimées. La raison officielle c’est que ces mécanismes contourneraient des étapes critiques de configuration et laisseraient des appareils pas complètement configurés.

Mouais, ça sent un peu le prétexte bidon pour justifier une décision déjà prise depuis longtemps, vous ne trouvez pas ?

Concrètement, si vous essayez maintenant la commande start ms-cxh:localonly sur les nouvelles versions, elle réinitialisera simplement le processus d’installation et vous ramènera au point de départ. Bref, game over, Microsoft a gagné cette bataille.

Après vous allez me dire mais alors pourquoi tant de haine de la part des utilisateurs contre ce fichu compte Microsoft ??

Et bien déjà, il y a cette histoire débile du nom de dossier utilisateur car quand vous créez un compte Microsoft, Windows 11 génère automatiquement un nom de dossier à partir de votre adresse email. Donc c’est jamais ce qu’on veut, même si maintenant avec cette update, on peut d’après ce que j’ai compris régler ça à l’aide d’une commande un peu planquée.

Ensuite, il y a la question de contrôle car un compte Microsoft, c’est la synchronisation automatique de vos paramètres, de vos données, de votre historique. Du coup, c’est Edge qui s’impose, c’est Bing qui devient votre moteur de recherche par défaut, c’est OneDrive qui se synchronise que vous le vouliez ou non. Alors pour quelqu’un qui veut juste installer Windows proprement, sans toute cette couche de services Microsoft, c’est l’enfer !

Et je ne parle même pas des techos qui installent des dizaines de machines pour des clients. Faut se créer un compte Microsoft temporaire à chaque fois, puis le supprimer, puis reconfigurer… C’est du temps perdu pour rien. Le compte local, c’était simple, rapide, et efficace.

Mais bon Microsoft s’en fout royalement. Pour eux, Windows 11 est devenu surtout un portail vers leur écosystème de merde et plus vraiment un OS qui vous appartient vraiment. Vous payez votre licence, certes, mais la vraie valeur pour Microsoft, c’est que vous soyez connecté à leurs services. Tout ce qui est données de télémétrie, habitudes d’utilisation, publicités ciblées dans le menu Démarrer…etc, tout ça ne fonctionne qu’avec un compte en ligne.

Mais bon, rassurez-vous, il reste encore des solutions. Enfin, pour l’instant…

Rufus , l’outil de création de clés USB bootables, propose toujours des options pour créer une installation Windows 11 sans compte Microsoft. Vous pouvez aussi passer par des modifications du registre pendant l’installation, mais c’est un peu plus technique. Et si vous avez Windows 11 Pro ou Enterprise, l’option “Domain join” permet encore de créer un compte local, mais pour combien de temps ?

Pour le moment, Microsoft s’attaque aux méthodes faciles, celles que monsieur et madame tout-le-monde peuvent utiliser en suivant un tuto, mais je ne serais pas surpris que dans 6 mois, Microsoft s’attaque aussi à Rufus, à Flyoobe ou aux ISO modifiées.

C’est dommage je trouve car ce qui faisait le charme de Windows depuis toujours c’était justement de pouvoir le bidouiller jusqu’à l’os. En plus pour une boite qui se présente comme champion de l’open source depuis quelques années, c’est un move un peu bizarre… WSL pour faire tourner Linux sous Windows, VSCode qui est devenu l’éditeur de code préféré de la planète, GitHub racheté et mis à disposition gratuitement… C’est cool, mais côté Windows pur, ils font l’exact l’inverse de tout ça en verrouillant un max !

Rassurez-vous, Microsoft n’est pas le seul à suivre cette mauvaise pente… Apple aussi pousse de plus en plus iCloud sur macOS et je ne vous parle pas de Google qui rend ses services quasi-inutilisables sans compte. Bref, tout devient “service en ligne” même quand ça ne devrait pas l’être et ce PC qu’on possédait vraiment, celui sur lequel on configurait comme on voulait tout ce qu’on voulait est en train de disparaitre.

Bien sûr, vous pourrez toujours compter sur moi pour que je vous partage des astuces ou des outils pour contourner toutes ces limitations techniques à la con mais franchement, c’est fatigant. Je comprends que Linux fasse chavirer de plus en plus de cœurs…

En attendant, vous l’aurez compris, direction Rufus pour installer Windows 11 avec un compte local. Et dépêchez-vous avant que Microsoft décide que ce sera la prochaine cible à abattre !

Source

Open Printer - L'imprimante jet d'encre 100% Open Source

Par : Korben
29 septembre 2025 à 14:09

On connait tous le problème des petites imprimantes pas chères type Canon, HP, Epson…etc. C’est vendu pour une bouchée de pain mais à côté de ça, les cartouches coûtent une couille !! Et on est prisonnier d’un format de cartouches propriétaires avec dessus une puce, qui parfois s’arrange pour bloquer toute impression parce que le niveau d’encre est trop bas alors qu’il en reste dedans de quoi imprimer encore des centaines de feuilles.

Et tout le monde s’en fout !

Tout le monde ? Non, car trois français viennent de dire stop à cette arnaque avec l’Open Printer, une imprimante jet d’encre qui tourne sur Raspberry Pi Zero W et qui fait quelque chose de complètement foufou en 2025 : elle imprime quand vous le voulez, avec l’encre que vous voulez, sans vous bloquer ou exiger un abonnement.

Léonard Hartmann, Nicolas Schurando et Laurent Berthuel de Open Tools ont créé cette machine incroyable qui n’a pas de puce qui compte vos impressions, pas de cartouche qui se désactive après 6 mois, pas de driver propriétaire qui refuse de fonctionner sous Linux. C’est juste une imprimante qui imprime. Point.

Le truc génial avec l’Open Printer, c’est qu’elle accepte les cartouches HP standard (les modèles black et color) mais sans le DRM qui va avec. Vous pouvez donc les recharger avec n’importe quelle encre, autant de fois que vous voulez !

Et comme sur les vieilles imprimantes matricielles des années 80, cette jet d’encre imprime sur des rouleaux de papier et coupe automatiquement les pages. Ça veut dire que vous pouvez imprimer une liste de courses de 3 mètres, un ticket de caisse personnalisé, ou même une bannière “Joyeux anniversaire” sans vous prendre la tête avec les formats A4. Elle accepte aussi les feuilles classiques (letter, tabloid, A4, A3) pour ceux qui préfèrent.

Techniquement, c’est du solide puisque son Raspberry Pi Zero W fait tourner le cerveau, y’a aussi un microcontrôleur STM32 de STMicroelectronics qui gère la mécanique, et CUPS qui assure la compatibilité avec tous les OS. USB, Wi-Fi, Bluetooth, tout y est. Et il y a même un petit écran de 1,47 pouces avec une molette qui permet de contrôler la bête directement.

Et au lieu de vous vendre une imprimante à 50 balles pour vous saigner sur les cartouches à 40 balles, Open Tools met tout en Creative Commons BY-NC-SA 4.0. Plans, firmware, matériaux, tout est libre, vous pouvez donc modifier, améliorer, réparer cette imprimante éternellement…

HP continue de verrouiller ses cartouches avec des DRM de plus en plus vicieux , et les autres fabricants suivent le mouvement. Epson propose bien des modèles EcoTank avec réservoirs rechargeables, mais à 230€ minimum et toujours avec leur écosystème propriétaire. L’Open Printer arrive donc pile poil au bon moment pour ceux qui en ont marre de se faire avoir.

La campagne de financement participatif sur Crowd Supply arrive bientôt. On ne connait pas encore le prix, mais vu que c’est basé sur un Raspberry Pi Zero W (environ 15€) et des composants standards, ça devrait rester raisonnable. Et même si c’était plus cher qu’une imprimante classique, au moins vous payez une fois et c’est fini. Pas d’abonnement “Instant Ink”, pas de cartouches qui expirent, pas de mises à jour qui désactivent les fonctions. Vous êtes peinard.

Et pour les makers, c’est Noël avant l’heure. Imaginez les possibilités d’une telle machine pour vos projets !

Alors oui, c’est un projet de niche et il faudra probablement mettre les mains dans le cambouis pour l’assembler. Mais entre payer 40€ tous les deux mois pour des cartouches DRM ou investir une fois dans une machine que vous contrôlez vraiment, le choix est vite fait.

Source

macOS Tahoe - FileVault enfin déverrouillable à distance

Par : Korben
25 septembre 2025 à 15:56

Bon, on va pouvoir l’avouer maintenant, tous ceux qui se la racontent parce qu’ils peuvent prendre le contrôle à distance de leur joli Mac, ont la même galère depuis que FileVault existe… En effet, après une coupure de courant ou une mise à jour du système, votre super serveur Mac redevient une boite à chaussure jusqu’à ce que quelqu’un déplace son gros cul d’admin sys pour taper le mot de passe sur un clavier tout ça.

Et là, on a Jeff Geerling qui nous annonce l’air de rien qu’Apple vient enfin de “légaliser” la bidouille qu’on utilisait tous en douce à savoir déverrouiller FileVault à distance via SSH dans macOS Tahoe.

Ce qui était donc avant une astuce d’admin système un peu à la one again (script d’autologin / désactiver le chiffrement…etc) devient maintenant une fonctionnalité officielle. Sous macOS 26 Tahoe, si vous activez la “Session à distance” dans les réglages de partage, vous pouvez maintenant vous connecter en SSH avant même que l’utilisateur se soit authentifié. Un admin tape son mot de passe à distance et hop, le Mac démarre complètement. La documentation officielle explique même que le SSH se déconnecte brièvement pendant le montage du volume, puis revient. C’est la classe !

Par contre, petit détail qui tue, c’est censé fonctionner en WiFi mais Jeff Geerling qui a testé l’astuce n’a réussi à se connecter qu’en Ethernet. Il pense qu’en Wifi, ça ne passe pas parce que les clés réseau sont dans le Keychain, qui est lui-même chiffré sur le volume verrouillé. C’est le serpent qui se mord la queue (oui, vous le savez d’expérience, ça fait mal de se mordre la queue)… Du coup, tous ceux qui ont des Mac mini planqués derrière leur télé en mode serveur Plex, vont devoir tirer un petit câble RJ mais bon, vrai bonhomme fait vrai réseau en Ethernet, le Wifi c’est pour les faibles, ouga-ouga !

Cette nouvelle fonction arrive pile poil au moment où Apple change aussi la façon dont FileVault stocke les Recovery Keys. Selon TidBITS , fini le stockage basique dans iCloud, maintenant c’est dans l’iCloud Keychain avec chiffrement de bout en bout.

Quoiqu’il en soit, cette fonction très pratique pour les admins autorise quand même potentiellement de nouvelles attaques pre-auth sur les Mac, car avant, un Mac avec FileVault activé était une forteresse imprenable au démarrage. Mais maintenant, si vous avez activé le SSH distant, il y a une nouvelle surface d’attaque avec laquelle s’amuser. Alors oui, faut toujours le mot de passe admin mais bon, c’est moins sympa qu’une vraie sécurité physique…

En tout cas, tous les vieux de la vieille qui gèrent des fermes de Mac mini pour du CI/CD ou du rendu sont aux anges ! Plus besoin de supplier le stagiaire d’aller dans la salle serveur après chaque reboot, par contre, les puristes de la sécurité font un peu la grimace car cette connexion SSH, c’est du password-only pour l’instant. Apple a encore fait les choses à moitié, comme d’hab.

Source

Bonne nouvelle ! 6% de français utilisent Linux

Par : Korben
24 septembre 2025 à 12:16

C’est fou car pendant que vous êtes encore en train de vous galérer avec votre bon vieux Windows, sachez que 6% de vos voisins sont en train d’utiliser Linux en totale détente. C’est en tout cas ce que remonte cette étude du CNLL et d’Abilian qui explique qu’on est maintenant 2,2 millions d’utilisateurs Linux en France.

D’après les données de Cloudflare Radar analysées par Abilian , l’usage personnel de Linux (4,3%) est deux fois plus élevé que l’usage professionnel (2,15%) ce qui montre bien que les gens font du Linux à la maison par choix, et non pas par obligation. D’ailleurs cette tendance s’accentue encore plus le weekend où l’usage des ordinateurs se fait essentiellement à titre personnel.

Comme le dit Stefane Fermigier, co-président du CNLL, dans son communiqué, “Ces chiffres sont une claque aux préjugés !”. Et il a raison même si on est encore en dessous de la moyenne Européenne. Celle-ci est de 3,7% de part de marché Linux alors que la France est à 3,1%. Les champions c’est la Finlande avec 7,1%, suivie de l’Irlande (5,3%) et de l’Allemagne (5,2%), donc on a encore une petite marge de progression.

Mais rassurez-vous, ce n’est pas qu’une question de compétence technique. C’est culturel car là-bas, utiliser Linux c’est normal, alors qu’ici c’est encore un peu un truc de geekos rebelles. Mais c’est en train de changer vite, et vous savez grâce à quoi ? Les jeux vidéo, pardi !! Avec Proton et Steam qui permettent de faire tourner les jeux Windows sur Linux, plein de gamers ont sauté le pas. C’est un des facteurs majeurs de la croissance mondiale de Linux qui atteint maintenant 4,55%.

Le gaming sous Linux c’est le cheval de Troie parfait car les mecs installent Ubuntu pour jouer et découvrent qu’il peuvent aussi bosser dessus, faire de la création, gérer leur vie numérique sans passer par Microsoft…. C’est une vraie prise de conscience.

Aux États-Unis, par exemple, Linux vient de passer la barre des 5% de parts de marché desktop. C’est une progression de 2 points en 2 ans, ce qui est énorme ! En plus avec la fin annoncée de Windows 10 qui force les gens à jeter à la poubelle leur ordinateur qui fonctionne s’ils veulent passer sous Windows 11, ça va encore augmenter je pense… Car Linux (ou ce logiciel magique ) est une solution anti-obsolescence incroyable !

Du coup, la CNLL milite pour qu’en France, on ait une vraie politique “Open Source & Sovereignty First” dans les marchés publics ce qui n’est pas gagné car l’Etat est gangréné par Microsoft… La CNLL veut notamment qu’on applique enfin l’article 16 de la loi République Numérique qui favorise le logiciel libre. Une pétition européenne propose même de créer un “EU-Linux” pour les administrations publiques. Imaginez toutes les mairies et préfectures sous Linux ! Ce serait cool !

Voilà, avoir Linux sur sa machine perso à la maison, c’est comme avoir un potager bio ou manger moins de viande… on le fait pour soi, par conviction, sans forcément militer. Et que Linux devienne mainstream c’est vraiment mon rêve car on n’en peut plus des zélites à barbes qui se définissent humainement de part leur OS, en regardant de haut les “autres”, les noobs, sans jamais leur tendre la main. Le jour où Monique de la Mairie ou Francis de la médiathèque sauront se démerder seuls sous Linux, je pense que leur égo en prendra un coup. Ils passeront alors sous BSD ou un truc encore plus techy parce que ça c’est un VRAI OS DE BONHOMME… ahahahah.

Puis en vrai, y’a encore plein de machines sous Linux que l’étude n’a probablement pas comptabilisées… On a tous chez nous des Raspberry Pi dans des tiroirs, des vieux PC reconverties en NAS, des petits serveurs perso…etc. Donc le vrai chiffre est sûrement bien plus élevé.

Alors oui, c’est vrai, on est encore loin des 72,5% de Windows, mais la tendance est claire. Linux grandit, doucement mais sûrement. Et surtout, c’est un mouvement très doux, très organique, qui n’est pas poussé par une méga-corpo, mais juste par des gens qui veulent reprendre le contrôle de leur ordinateur (et qui en ont marre de payer pour rien aussi, je pense…)

Voilà, donc la prochaine fois que vous croiserez quelqu’un dans une soirée, demandez-vous s’il fait partie des 6% de Français sous Linux ? Vous vous ferez plein de nouveaux amis ;-)

Source CNLL | Source Abilian

Kali Linux 2025.3 est disponible et accueille de nouveaux outils tournés vers l’IA

24 septembre 2025 à 09:22

Kali Linux 2025.3, la troisième version de l'année 2025 est disponible : quelles sont les nouveautés et les changements ? Voici un résumé.

The post Kali Linux 2025.3 est disponible et accueille de nouveaux outils tournés vers l’IA first appeared on IT-Connect.

SSH Pilot - Un super gestionnaire de connexion SSH pour Linux / macOS

Par : Korben
24 septembre 2025 à 09:21

Et si je vous disais que pendant que vous galérez avec PuTTY et son interface à la Windows 95, ou que vous payez 119 balles pour SecureCRT, il existe un gestionnaire SSH moderne, gratuit et absolument magnifique qui attend tranquillement que quelqu’un le remarque ?

Hé bien c’est exactement ce qui se passe avec SSH Pilot dispo pour Linux et macOS, et je trouve ça vraiment bizarre que personne n’en parle. Quand je suis tombé dessus, c’est vrai que j’ai cru à un énième fork de Terminator ou un wrapper autour de tmux, mais non, c’est un vrai gestionnaire de connexions SSH développé par mfat , avec une interface moderne en libadwaita/GTK4, c’est à dire le truc le plus propre que GNOME ait sorti ces dernières années.

Alors j’ai creusé un peu, je l’ai installé, et là, révélation. Cette appli fait TOUT ce qu’on attend d’un gestionnaire SSH moderne : des onglets pour jongler entre les connexions, un gestionnaire SFTP intégré qui s’ouvre direct dans Nautilus, la génération de paires de clés en deux clics, le port forwarding (local, remote, dynamic), et même le regroupement de serveurs pour ceux qui gèrent des “fermes” entières. Ah et toutes les infos de config sont chiffrées sur votre disque dur.

On peut aussi naviguer entièrement au clavier dans l’appli, ce qui est super pratique. Ctrl+L pour passer de la liste des serveurs au terminal, Ctrl+F4 pour fermer un onglet, Alt+flèches pour switcher entre les tabs. C’est tellement bien pensé que ça en devient suspect ^^.

Car quand on gère plusieurs serveurs, on s’y perd vite si on n’est pas organisé ! On jongle avec des dizaines de connexions SSH, on tape des alias bash à rallonge, on installe des extensions tmux incompréhensibles…

Alors pourquoi SSH Pilot reste si peu connu alors qu’il est trop méga super génial ??? Hé bien j’ai ma petite théorie…

Dans le monde Linux, on a tellement d’alternatives pour chaque truc qu’on finit par se noyer. Quand on cherche un client SSH, on a PuTTY, KiTTY, SuperPuTTY, mTPuTTY, Solar-PuTTY, Bitvise, Tabby, MobaXterm, Termius, SecureCRT… et j’en passe. Trop de choix qui tue le choix !

Bref, jetez un oeil SSH Pilot, ça vous changera des client SSH avec une interface de Minitel.

TernFS - Un système de fichiers distribué capable de gérer des exaoctets

Par : Korben
22 septembre 2025 à 22:14

Et encore un article un peu technique pour finir la journée en beauté ! Si je vous disais que votre serveur Linux pouvait gérer 10 exaoctets de données sans broncher ? Vous ne me croiriez pas je pense… D’ailleurs c’est quoi 10 exaoctets ?? Et bien ça correspond à 10 millions de To. C’est pas mal hein ?

Hé bien c’est exactement ce que permet de gérer TernFS, le système de fichiers qu’XTX Markets vient de libérer après trois ans d’utilisation intensive. XTX Markets est une boîte d’algo-trading qui brasse 250 milliards de dollars par jour et j’avoue que c’est un joli cadeau de presque-Noël qu’elle vient de nous faire…

D’après ce qu’ils expliquent sur leur site , NFS et les autres solutions classiques ne tenaient plus la charge face à leurs 650 pétaoctets de données utilisées leur machine learning. Alors ils ont fait ce que font les vrais geeks, ils ont codé leur propre solution… et après trois ans de production sans perdre “un seul octet”, ils ont tout balancé en en open source sur GitHub .

Le truc génial avec TernFS, c’est qu’il a été pensé pour les fichiers immuables, vous savez, ces gros datasets de plusieurs gigaoctets qu’on écrit une fois et qu’on relit des milliers de fois pour entraîner des modèles. Pas de modification après création, pas de prise de tête avec les locks et la cohérence. C’est simple et efficace.

L’architecture repose sur quatre composants principaux qui bossent ensemble : les metadata shards (256 shards logiques pour gérer les métadonnées), le CDC (Cross-Directory Coordinator) pour les opérations entre répertoires, les block services pour stocker les données, et un registry pour orchestrer tout ce petit monde. Le tout communique en UDP/TCP avec du Reed-Solomon pour l’erasure coding et du CRC32-C pour vérifier l’intégrité. Bref, ça semble être du solide.

Et les chiffres qu’ils donnent sur leur production sont assez dingues. Ils parlent de 500+ pétaoctets répartis sur 30 000 disques durs et 10 000 SSD, dans 3 datacenters différents, avec des débits qui montent à plusieurs téraoctets par seconde en vitesse de pointe. Et leur système gère ça tranquille, avec du multi-région natif et une tolérance aux pannes qui ferait pâlir d’envie n’importe quel admin sys.

Si ça vous chauffe, pour installer TernFS, c’est du classique. Vous clonez le repo, vous lancez ./build.sh alpine ou ./build.sh ubuntu selon votre distrib, et c’est parti. Il y a un module kernel Linux pour gratter les perfs maximales et toucher les étoiles, mais vous pouvez aussi utiliser FUSE si vous préférez rester en userspace. Ils ont même implémenté une API S3 pour ceux qui veulent migrer depuis AWS sans tout réécrire.

git clone https://github.com/XTXMarkets/ternfs
cd ternfs
./build.sh alpine
# Et pour tester en local
./scripts/ternrun

Par contre, attention aux limitations ! Car TernFS n’est pas du tout fait pour les petits fichiers (genre les millions de fichiers de 1KB d’un projet Node.js). C’est vraiment optimisé pour du gros volume du style datasets ML, logs d’applications, archives, ce genre de trucs. Et y’a pas de système de permissions intégré non plus, car ils ont préféré garder ça basique et laisser chacun implémenter sa propre couche de sécurité.

Ils ont mis au point également un système de “block proofs” où chaque bloc de data a une preuve cryptographique qui permet de vérifier que le client n’a pas corrompu les données avant de les écrire. Ça évite qu’un client bugué ou malveillant ne pourrisse tout le filesystem. Ils ont aussi un système de “scrubbing” automatique qui détecte et remplace les secteurs défaillants sur les disques.

Chouette non ?

D’après Bloomberg , XTX Markets investit actuellement 1 milliard d’euros dans de nouveaux datacenters en Finlande. Avec leurs 25 000 GPUs (dont 10 000 A100 et 10 000 V100) et maintenant TernFS en open source, ils montrent surtout qu’ils ne rigolent pas avec l’infrastructure. C’est pas pour rien qu’ils arrivent à traiter un trillion d’enregistrements par jour pour leurs algos de trading.

Leur code est disponible sous double licence à savoir GPLv2+ pour le core et Apache 2.0 avec exception LLVM pour les bibliothèques client et les définitions de protocole. Ça permet d’intégrer TernFS dans à peu près n’importe quel projet, commercial ou non.

Bref, si vous gérez des pétaoctets de données et que ZFS commence à tirer la langue, TernFS vaut vraiment le coup d’œil. Reste à voir si d’autres géants du big data vont l’adopter ou si ça restera un outil de niche pour les vraiment gros volumes, mais avec l’explosion du Machine Learning et des LLMs, je parie qu’on va en entendre parler de plus en plus…

Source

Le Multikernel - La prochaine révolution Linux

Par : Korben
22 septembre 2025 à 12:43

Et si votre serveur Linux était comme un appart en coloc où tout le monde partage la même cuisine, le même salon, les mêmes chiottes ?? Forcément, ça finit toujours mal avec quelqu’un qui monopolise les toilettes pendant que vous avez une urgence en spray, un autre fait crasher la machine à laver avec ses expérimentations douteuses de voyage dans le temps, et au final personne n’est content.

Hé bien figurez-vous qu’un développeur nommé Cong Wang de Multikernel Technologies vient de proposer une solution radicale qui consiste à donner à chaque processus son propre kernel Linux, avec ses propres core CPU, comme des colocataires qui auraient enfin chacun leur studio…

Selon le patch soumis sur la Linux Kernel Mailing List (LKML), cette architecture “multikernel” permettrait de faire tourner plusieurs noyaux Linux indépendants sur la même machine physique. C’est pas vraiment de la virtualisation classique façon VMware ou KVM, mais c’est plutôt comme si vous découpiez votre ordinateur en tranches et que chaque tranche vivait sa vie. Le truc marrant, c’est que Cong Wang n’est pas un petit nouveau qui débarque avec ses idées folles. Le bonhomme a déjà contribué à plus de 1000 patches au noyau Linux et il maintient le sous-système de traffic control . Autant dire qu’il sait de quoi il parle quand il touche au code du noyau.

D’ailleurs cette idée de séparer les kernels rappelle furieusement le projet Barrelfish que Microsoft Research et l’ETH Zurich avaient lancé il y a quinze ans. À l’époque, ils voulaient traiter l’OS comme un système distribué où chaque core CPU aurait son propre kernel qui communique avec les autres par messages. Sauf que voilà, c’était trop tôt. Les processeurs n’avaient pas assez de cores pour qu’on puisse se permettre ce genre de luxe, et puis franchement, qui avait besoin de ça en 2009 ?

Aujourd’hui avec nos CPU à 128 cores et nos problèmes de sécurité qui explosent, l’idée prend soudainement tout son sens.

Selon Phoronix et les patches sur la LKML, l’implémentation de Wang utilise kexec, ce mécanisme qui permet normalement de redémarrer directement dans un nouveau noyau sans repasser par un reboot. Sauf qu’ici, au lieu de remplacer le noyau existant, on en charge plusieurs qui vont cohabiter. Chaque kernel se voit attribuer ses propres cores CPU et ils communiquent entre eux via un système d’interruptions inter-processeurs (IPI) spécialement conçu pour l’occasion. Et dans les 7 patches proposés en RFC, Wang prévoit des mécanismes de surveillance pour gérer tous ces petits mondes parallèles.

Et pendant que Cong Wang bricolait son multikernel dans son coin, les géants du cloud comme Amazon, Microsoft et Google ont développé en parallèle une technologie appelée KHO ( Kexec HandOver ) qui permet de préserver l’état système lors du changement de kernel. En gros, ils veulent pouvoir mettre à jour le noyau Linux de leurs serveurs sans perdre les VMs qui tournent dessus. Sauf que si le multikernel de Wang fonctionne vraiment, ça pourrait rendre leur stack de virtualisation complètement obsolète.

Car pourquoi s’embêter avec des hyperviseurs complexes quand on peut juste donner à chaque workload son propre kernel ?

Le plus drôle dans tout ça, c’est que Wang admet candidement dans son RFC que pour l’instant, ça marche “que sur sa machine de dev avec des paramètres hardcodés”.

Maintenant si cette techno décolle, on pourrait voir des trucs assez dingues. Genre un kernel temps réel qui gère les processus critiques pendant qu’un kernel classique s’occupe du reste. Ou alors des kernels spécialisés pour différents types de workloads : un pour le machine learning, un pour les bases de données, un pour le réseau. Vous pourriez même imaginer des kernels avec différents niveaux de sécurité du genre un kernel ultra-paranoia pour vos données sensibles et un kernel plus relax pour Netflix. Et le plus beau c’est que si un kernel plante, les autres continuent de tourner tranquillement.

C’est comme avoir plusieurs systèmes de secours intégrés directement dans la machine.

Mais attention, on parle quand même d’une RFC, et pas encore d’un truc prêt pour la prod. La communauté des barbus du noyau va probablement passer des mois à débattre de chaque ligne de code, et c’est tant mieux parce que toucher à l’architecture fondamentale de Linux, c’est pas comme patcher un bug dans Firefox. Si ça merde, c’est potentiellement des millions de serveurs qui partent en vrille.

Au final, que ce patch soit accepté ou pas, ça montre surtout que Linux continue d’évoluer de manière radicale pour toujours aller plus loin ! Et si vous l’évolution de ce projet, tout se passe sur la LKML .

Source

macOS Tahoe rame ? J'ai peut-être la solution

Par : Korben
22 septembre 2025 à 10:36

Les amis, je ne sais pas si vous êtes sous Mac, mais si c’est le cas, vous avez peut-être succombé à la mise à jour vers macOS Tahoe.

En tout cas, moi, j’ai fait la migration, et franchement, j’ai vu aucune différence, à part quelques petits aspects graphiques par-ci par-là. En tout cas, ça m’a pas hypé de fou, ni traumatisé non plus.

Par contre, ce qui m’a VRAIMENT traumatisé, ce sont les performances de mon Mac Studio M4 Max qui est quand même assez puissant et qui se retrouve à tourner comme un escargot asthmatique fumeur de joints. Cela se produit notamment lorsque je lance mes lives sur Twitch et c’est assez handicapant pour ne pas dire inutilisable… Le scroll est lent, les applications rament, mes streams lagguent, c’est l’enferrrrr et ça me met de mauvaise humeur !

Et après avoir été faire un tour sur Reddit, ce que je peux vous dire, c’est qu’il y a beaucoup de gens dans mon cas qui gueulent contre cette nouvelle version de Mac OS parce qu’elle est buggée, parce qu’elle rame, parce que ce n’est pas ouf. Donc déjà, je voudrais dire un gros “bouuuuh” à Apple.

Moi, ce qui me posait vraiment problème sur mon macOS, c’est le processus WindowServer qui tournait à FOND les ballons. Alors, effectivement, j’aurais pu croire que c’était un malware qui minait des bitcoins en douce, mais, bon, je fais un petit peu attention, quand même…

Non, non, non, c’est du ralentissement natif by design made in Cupertino.

Après moult péripéties, j’ai donc trouvé comment régler ce problème (jusqu’au problème suivant…). Je vous livre donc cette petite astuce si vous aussi vous avez WindowServer qui part dans les choux après la mise à jour vers Mac OS Tahoe.

Allez dans les réglages au niveau de la section énergie et vérifiez que vous n’avez pas activé le mode économie d’énergie. Moi, en tout cas, c’est ce mode-là qui m’a mis dedans. J’ai l’impression que ça bride l’ordinateur et le système d’exploitation, bref que c’est mal géré et ça fait tout ramer.

Du coup, en désactivant ce truc, mon ordinateur est redevenu à nouveau utilisable. Woohoo !

Donc j’attends la prochaine mise à jour Apple, mais, bon, voilà, en attendant, essayez au moins ça, vous verrez si ça marche.

Et, après, pour tous les autres problèmes liés à Spotlight, à l’indexation des photos, ce genre de trucs, faut parfois redémarrer, tuer les processus, désactiver, par exemple, dans iCloud la synchronisation des contacts (process contactd) sur des comptes Gmail ou Exchange

Ou virer des choses dans la config de Spotlight, ce genre de truc, en attendant un fix…

Voilà, bon courage à tous les galériens fans de la pomme et à très bientôt !

Seelen - Transformez complétement le look de votre Windows

Par : Korben
19 septembre 2025 à 12:53

Si comme moi vous avez déjà bavé devant un setup i3 sous Linux mais que vous êtes coincé sous Windows “pour le boulot” (lol), j’ai une excellente nouvelle pour vous. Seelen débarque et va transformer votre Windows 10/11 en véritable environnement de bureau customisable à moooort.

Concrètement, Seelen c’est un overlay qui vient se greffer sur Windows sans toucher au système. Tout est codé en Rust et TypeScript, avec Tauri qui fait le lien entre les deux et le résultat c’est un truc léger qui ne bouffe pas 2 Go de RAM comme Electron.

Avec Seelen, vos fenêtres s’organisent automatiquement en tuiles, façon i3 ou dwm, comme ça, plus besoin de passer 10 minutes à redimensionner vos fenêtres à la souris comme un furieux. Un raccourci clavier et hop, tout se range proprement. C’est ce qu’on peut avoir de plus proche d’un environnement de bureau custom sous Windows.

Et l’installation est hyper facile. Ça se fait soit par le Microsoft Store (option que je vous recommande), soit via Winget avec un petit winget install Seelen.SeelenUI, soit en téléchargeant le .exe sur GitHub. Attention quand même, ça nécessite WebView2 et Microsoft Edge pour fonctionner correctement.

Et les fonctionnalités sont plutôt sympas. Vous avez un launcher façon Rofi pour lancer vos apps rapidement, des contrôles média intégrés pour gérer Spotify sans ouvrir la fenêtre, et surtout une personnalisation poussée avec thèmes, des widgets et des layouts. Le projet supporte même +70 langues, donc votre grand-mère pourra l’utiliser en breton si elle veut.

Après c’est pas parfait non plus. Par exemple, les previews des fenêtres mettent parfois 2 secondes à charger, et certaines apps (celles avec des fenêtres flottantes custom) refusent de se faire tiler correctement. Mais c’est déjà impressionnant.

Voilà, donc si vous en avez marre de l’interface figée de Windows et que vous voulez retrouver la flexibilité visuelle de Linux et pouvoir exprimer le plein potentiel de votre mauvais goût, sans changer d’OS, Seelen vaut vraiment le coup . C’est gratuit, open-source, et ça ne casse rien dans votre système…. Au pire, si ça vous plaît pas, vous le désinstallez et Windows redevient comme avant.

Installer et mettre à jour des applications macOS en ligne de commande

Par : Korben
17 septembre 2025 à 15:23

Vous le savez, j’ai toujours eu un faible pour les outils qui font des trucs qu’ils ne devraient pas pouvoir faire. Et mas-cli , c’est exactement ça : un petit utilitaire en ligne de commande qui permet d’automatiser le Mac App Store depuis votre terminal

Si vous êtes sous Mac et que comme moi, vous trouvez l’App Store d’Apple lent et peu pratique, cet outil open-source écrit en Swift va peut-être vous changer la vie. Il utilise des frameworks Apple privés non-documentés pour automatiser un store qui n’a jamais été pensé pour ça. C’est beau comme du Bruno Le Maire dans le texte…

Les développeurs Mac, supposés accepter l’expérience voulue par Apple, recréent donc secrètement leur propre système de paquets à la Unix. L’amour c’est compliqué, je sais…

Installation

L’installation se fait très simplement via Homebrew :

brew install mas

Vous pouvez aussi récupérer directement le binaire si vous préférez.

Utilisation au quotidien

Une fois installé, vous pouvez vous connecter à l’App Store directement depuis un terminal avec :

mas signin [email protected]

Pour lister vos applications installées via l’App Store :

mas list

Lancer une recherche d’app :

mas search MOTCLÉ

capture-decran-2017-02-03-10-51-43

Et installer l’application de votre choix en utilisant son ID :

mas install 123456789

Gestion des mises à jour

Pour lister les applications qui n’ont pas été mises à jour :

mas outdated

Pour mettre une application spécifique à jour, utilisez l’ID de l’app en question :

mas upgrade 123456789

Et pour tout mettre à jour d’un coup :

mas upgrade

L’automatisation ultime

Là où ça devient vraiment intéressant, c’est que mas-cli, avec son intégration à homebrew-bundle, permet de scripter complètement l’installation d’un nouvel environnement Mac. Vous pouvez définir dans un Brewfile toutes vos apps, y compris celles du Mac App Store, et tout installer d’un coup. C’est exactement ce dont rêvent tous les développeurs qui passent leur vie dans un terminal.

Ça va être particulièrement pratique pour scripter 2 ou 3 trucs afin de gérer au mieux la mise à jour de vos applications ou la récupération régulière d’une liste de softs installés. Tout ça depuis votre terminal, sans jamais ouvrir l’interface graphique du Mac App Store.

Les limites à connaître

Comme l’expliquent les développeurs eux-mêmes , mas-cli utilise des frameworks Apple privés non-documentés qui peuvent changer sans préavis. C’est génial sur le papier, mais dans la réalité, vous ne saurez jamais si ça marchera encore demain car Apple peut décider de changer ses API.

Mais bon, en attendant que ça casse, profitons-en pour automatiser tout ce qui peut l’être !

Merci à Lorenper pour le partage.

Article paru initialement le 09/02/2017, mis à jour le 17/09/2025

SkiftOS - Recoder la roue c'est chouette aussi

Par : Korben
13 septembre 2025 à 21:13

Créer un système d’exploitation complet from scratch pour s’amuser, c’est le genre de projet un peu foufou qu’on ne voit plus tellement aujourd’hui. Pourtant SkiftOS existe !

SkiftOS c’est un OS écrit entièrement depuis zéro, et pas un n-ième fork de Linux ou d’une distribution BSD. Non, c’est un vrai OS avec son propre kernel, son interface graphique et même les bases d’un moteur de navigateur web.

J’ai découvert ce projet en me baladant sur les Top GitHub et ça m’a rappelé cette époque d’avant ma naissance où créer son OS était un genre de rite de passage pour tous les développeurs passionnés. Sauf qu’ici, on n’est plus dans les années 70 et le projet utilise du C++20 moderne avec une architecture microkernel très propre.

Et malgré son statut de projet “hobby”, il fonctionne réellement. Il tourne pour le moment sur du hardware x86_64 et l’équipe travaille sur le support RISC-V.

L’architecture modulaire du projet est d’ailleurs particulièrement bien pensée. Chaque module a son petit nom, c’est rigolo. Hjert gère le microkernel avec les fonctions essentielles telles que la gestion mémoire, l’ordonnancement et l’IPC (Inter-Process Communication). Karm fournit la bibliothèque C++ de base sans dépendre de la STL (Standard Template Library) . KarmUI propose un framework d’interface réactive. Hideo s’occupe du bureau et de l’environnement graphique. Et Vaev ambitionne de devenir un moteur de navigateur web complet.

Pour compiler tout ça, l’équipe a également développé CuteKit, leur propre système de build qui gère les dépendances et la cross-compilation. Bah oui, quand on réinvente un OS, autant réinventer aussi tous les outils pour le construire.

Cette approche “tout fait maison” rend en tout cas le projet fascinant d’un point de vue pédagogique. Car oui le code source est disponible sur GitHub donc si vous voulez comprendre comment fonctionne un OS moderne sans vous perdre dans les millions de lignes de code de Linux ou de Windows (pour les vieilles versions qui ont leakée), c’est une excellente opportunité pour apprendre. Pas besoin donc d’être Microsoft ou Apple pour développer un système d’exploitation fonctionnel.

Faut “juste” de la motivation, du temps, des compétences en C++ moderne, et surtout l’envie de construire quelque chose de différent.

Vous l’aurez compris, SkiftOS ne remplacera probablement jamais votre OS principal, c’est clair mais pour les développeurs curieux qui veulent comprendre les entrailles d’un système d’exploitation, ou pour ceux qui cherchent un projet open source technique sympa où contribuer, c’est une sacrée mine d’or.

Et qui sait, peut-être que dans quelques années on parlera de SkiftOS comme on parle aujourd’hui des débuts de Linux…

Nano11 - Windows 11 passe sous la barre des 3 Go

Par : Korben
13 septembre 2025 à 14:21

2,8 Go. C’est tout ce qu’il faut à Nano11 pour faire tourner Windows 11. Et cette prouesse, on la doit à NTDEV, le développeur derrière le projet Tiny11 que vous connaissez peut-être déjà. Ce dernier vient encore de repousser les limites du dégraissage de Windows à un niveau que même Microsoft n’aurait jamais imaginé.

Pour mettre les choses en perspective, faut savoir qu’une installation standard de Windows 11 pèse facilement entre 20 et 30 Go selon les versions. Avec Nano11, on parle d’un ISO de seulement 2,2 Go et d’une empreinte disque de 2,8 Go une fois installé. C’est donc 3,5 fois plus petit que Tiny11, qui était déjà considéré comme ultra-léger.

Alors comment NTDEV a-t-il réussi cet exploit ? Et bien en virant absolument tout ce qui n’est pas indispensable au démarrage du système. Et quand je dis tout, c’est vraiment TOUT. Windows Update ? Dégagé. Microsoft Defender ? Aux oubliettes. Teams, Copilot, le nouveau Outlook qui est une catastrophe ambulante ? Disparus. Même les applications les plus basiques comme Météo ou Actualités ont sauté.

Le développeur ne cache pas que Nano11 est un “script expérimental extrême” conçu pour créer un environnement de test rapide et minimaliste. Sur son blog officiel , il indique utiliser maintenant la compression LZX au lieu de XPRESS, ce qui réduit encore plus la taille finale mais demande beaucoup de RAM pendant le processus de création.

Ce qui reste après le passage de Nano11, c’est donc vraiment le strict minimum à savoir le noyau Windows, l’interface graphique de base, et c’est à peu près tout. Pas de Windows Store, pas de possibilité d’ajouter des langues ou des pilotes après coup, pas de mises à jour de sécurité. C’est une installation figée dans le temps, impossible à maintenir ou à faire évoluer.

NTDEV lui-même prévient que Nano11 n’est absolument pas destiné à un usage quotidien. C’est plutôt pensé pour les développeurs qui ont besoin d’un environnement Windows ultra-léger pour tester rapidement une application, ou pour faire tourner des machines virtuelles sans bouffer toute la RAM disponible. L’installation se fait rapidement, et c’est donc parfait pour des tests.

Ce qui est chouette avec ce projet, c’est qu’il démontre à quel point Windows 11 est bourré de composants optionnels. Microsoft recommande officiellement 64 Go de stockage minimum, mais en réalité, le système peut tourner avec moins de 3 Go si on enlève tout le superflu.

Pour ceux qui veulent tester, le script Nano11 est disponible sur GitHub et il fonctionne avec n’importe quelle édition de Windows 11 (Pro, Home, LTSC). Le script prend en charge toutes les architectures et peut créer une image dans n’importe quelle langue, mais attention, une fois installé, impossible d’en ajouter d’autres. La dernière version de septembre 2025 est compatible avec Windows 11 24H2 et même les builds Canary les plus récentes.

Alors c’est sûr que Nano11 ne remplacera jamais votre Windows principal. C’est un proof of concept technique plus qu’autre chose mais si vous avez un vieux PC qui traîne ou si vous voulez créer une VM Windows ultra-légère pour un test rapide, ça peut valoir le coup d’œil.

Maintenant pour les utilisateurs qui cherchent un compromis entre légèreté et fonctionnalité, le script tiny11maker.ps1 reste une meilleure option car il dégraisse Windows tout en gardant la possibilité d’installer des mises à jour et d’ajouter des fonctionnalités par la suite.

Amusez-vous bien avec ce truc !

DropNotch transforme l'encoche de votre MacBook en zone de partage ultra pratique

Par : Korben
12 septembre 2025 à 13:53

Depuis que le notch a fait son apparition sur les MacBook, vous avez probablement déjà tous râlé contre cette petite encoche qui grignote votre barre de menu. Mais voilà qu’un développeur pas con a eu une bonne idée : transformer ce bout d’écran perdu en quelque chose de vraiment pratique. Et une fois qu’on y goûte, on ne peut plus s’en passer.

DropNotch est donc une application gratuite qui métamorphose votre notch en zone de dépôt instantané pour vos fichiers. Glissez un document, une image ou n’importe quel fichier vers l’encoche, et une petite interface apparaît avec vos options de partage : AirDrop, Mail, Messages.

Le concept est tellement simple qu’on se demande pourquoi Apple n’y a pas pensé. Au lieu d’ouvrir le Finder, faire un clic droit, chercher l’option partager, vous balancez directement votre fichier sur le notch. Deux secondes chrono pour envoyer un PDF à un collègue.

L’application fonctionne sur tous les Mac avec macOS Monterey ou plus récent. Pour les MacBook avec notch, c’est l’expérience optimale. Et pour les Mac sans notch physique (Mac mini, iMac), DropNotch crée intelligemment une zone de dépôt virtuelle dans la barre de menu, offrant la même praticité sans l’encoche.

Vous pouvez télécharger le fichier DMG directement depuis le site officiel et comme je le disais l’app est gratuite, ce qui est appréciable pour ce genre d’utilitaire qu’on apprécie mais jamais assez pour payer. Snif.

Pour ceux qui partagent souvent des fichiers en télétravail ou qui jonglent entre plusieurs projets, c’est donc un petit gain de temps. Plus besoin de naviguer dans les menus. Votre workflow devient plus fluide.

Ah et Apple Silicon ou Intel, peu importe, l’application est compatible avec les deux architectures.

Bref, transformer le notch en fonctionnalité aussi pratique, fallait y penser et j’adore !

Merci à Lorenper pour la découverte !

VMScape : Linux se protège de la nouvelle vulnérabilité ciblant les CPU Intel et AMD

12 septembre 2025 à 09:39

VMScape (CVE-2025-40300) : une faille de sécurité affecte certains processeurs AMD et Intel, et menace les environnements Cloud avec KVM et QEMU.

The post VMScape : Linux se protège de la nouvelle vulnérabilité ciblant les CPU Intel et AMD first appeared on IT-Connect.

Plus sécurisé, plus rapide - Quand Rust dépoussière les commandes Linux de base

Par : Korben
11 septembre 2025 à 21:36

Vous êtes un warrior ! Normal, vous utilisez Linux depuis des années. Et vous aimez beaucoup toutes vos petites commandes du quotidien, ls, cat, base64… Vous le savez, tout ça fonctionne avec du bon vieux code C aussi vénérable que solide. Du code robuste, certes, mais qui pourrait bien se faire dépasser par plus moderne. Hé oui, parce qu’une bande de développeurs a décidé de refaire tout uutils Coreutils en Rust, et en prime, leurs nouvelles versions sont largement plus rapides que les originales.

Les benchmarks parlent d’eux-mêmes : l’utilitaire base64 mouline maintenant en 3,146 secondes là où GNU Coreutils prend 4,901 secondes. La version Rust est donc clairement plus rapide, mais le plus fou, c’est que la version précédente de Rust Coreutils mettait encore 5,998 secondes. En gros, ils ont pratiquement doublé la vitesse entre leurs deux versions mineures.

Alors comment ils ont fait ça ? Et bien en intégrant la bibliothèque base64-simd qui exploite les instructions SIMD des processeurs modernes. Pour faire simple, au lieu de traiter les données octet par octet comme un escargot asthmatique, le nouveau code traite plusieurs octets en parallèle, comme un guépard qui serait abonné à la chaine de Tibo Inshape. SSE4.1, AVX2, AVX-512 pour les processeurs Intel et AMD, et ARM NEON pour les puces ARM comme les Apple Silicon… ce sont toutes ces architectures qui profitent de l’accélération.

D’ailleurs, ce n’est pas qu’une histoire de performance brute. Ubuntu prévoit d’intégrer ces outils Rust dans sa version 25.10. Et Canonical ne fait pas ça pour suivre la mode du Rust… Non, ils voient un vrai intérêt qui est la sécurité mémoire garantie par Rust. Cela élimine toute une catégorie de bugs qui hantent le code C depuis des décennies, à savoir les buffer overflows, les use-after-free…etc, tout ce folklore de développeur devient impossible avec Rust.

Et Sylvestre Ledru , le développeur principal du projet uutils, n’a pas juste optimisé base64. Par exemple, la commande tr qui était 9,8 fois plus lente que GNU dans les anciennes versions est maintenant 1,58 fois plus rapide par rapport à sa propre version précédente !

Bon après, je vais faire plaisir aux grincheux qui n’aiment pas le changment, oui, tout n’est pas rose non plus. Sur les 600 tests de la suite GNU, Rust Coreutils n’en passe que 500 environ. Il reste donc un peu de boulot pour avoir une compatibilité parfaite. Mais avec l’attention que le projet reçoit en ce moment et le soutien d’Ubuntu, ça devrait s’améliorer rapidement.

Ça fait plaisir de voir ce bon vieux code C qui fait tourner nos systèmes depuis des millénaires est en train d’être challengé par du Rust. Et non pas parce que c’est à la mode, mais parce que dans certains cas, c’est objectivement meilleur : plus rapide, plus sûr, plus maintenable.

Pour les dev parmi vous qui veulent tester, la nouvelle release 0.2.2 est disponible sur GitHub . Et pour ceux qui se demandent si c’est vraiment utile d’optimiser des commandes qui s’exécutent en quelques secondes, rappelez-vous que ces outils sont appelés des milliers de fois par jour dans des scripts, des pipelines CI/CD, des conteneurs Docker… Chaque milliseconde gagnée, c’est donc un gros paquet d’énergie économisée et du temps machine libéré !

Alors, prêts à voir vos vieilles commandes Linux carburer au Rust ?

Source

❌
❌