Alors que la production du premier Galaxy Z TriFold aurait été interrompue seulement trois mois après son lancement, des informations suggèrent que Samsung travaille déjà sur son successeur.
Apple s'apprête à déployer iOS 26.4, une mise à jour qui apporte notamment une amélioration notable à la fonction de reconnaissance musicale intégrée au Centre de contrôle de l'iPhone.
Firefox 149 est attendu le 24 mars 2026. Au programme : un VPN intégré gratuit, une vue divisée pour afficher deux pages côte à côte, des notes d’onglet, de nouveaux contrôles pour l’IA et une refonte visuelle du navigateur.
Kenneth Reitz, si vous ne le connaissez pas, c'est le gars qui se trouve derrière
Requests
, la librairie HTTP Python la plus téléchargée au monde. Ce projet a généré des milliards de downloads sur PyPI et aujourd'hui, Kenneth a publié
un post de blog
qui devrait, je pense, être lu par tous ceux qui donnent de leur temps sur Internet.
Le titre qu'il a choisi résume tout, je trouve : "Open Source Gave Me Everything Until I Had Nothing Left to Give." En gros, le libre lui a tout apporté… jusqu'à ce qu'il n'ait plus rien à donner.
Le parcours de Kenneth, c'est celui d'un mec qui a planté ses études (1,14 de moyenne, excusez du peu !), qui ensuite a bossé chez McDo, et qui finalement a trouvé dans le code libre la validation que personne ne lui donnait. Pour lui, chaque étoile GitHub, c'était quelqu'un qui finalement lui disait : "Tu existes et ce que tu fais a de la valeur."
Alors quand Requests a explosé, Kenneth a "fusionné" avec son projet. Le mainteneur et sa lib Python sont en quelque sorte devenus une seule entité.
Et ça c'est pas bon car quand votre identité repose uniquement sur votre projet, chaque critique devient personnelle, chaque bug report vous ronge, et surtout, y'a plus aucune soupape de décompression. C'est ce qu'il appelle dans son post le "design flaw". Et le plus dingue, c'est que cette immense pression qu'il ressentait lui était en grande majorité infligée par lui-même. En fait, personne ne le forçait. Il s'est juste consumé tout seul, pendant que ses collègues et ses amis saluaient sa productivité "impressionnante" !
Kenneth Reitz
L'histoire pourrait s'arrêter là, mais derrière, en coulisse, et sans qu'il le sache, un trouble bipolaire non diagnostiqué le rongeait. Il a subi à différentes reprises des épisodes maniaques, dont un lors d'une conférence en Suède, et un autre qui l'a mis à l'hôpital durant 12 jours. L'intensité de cet homme lui permettait de coder des choses brillantes mais provoquait chez lui des crises psychiatriques de plus en plus nombreuses. Un moteur en surchauffe qui faisait autant de dégâts que de jolies contributions au monde de l'open source.
Vous vous en doutez, j'ai vu un parallèle assez flagrant avec mon activité et ce que je ressens depuis un bon moment. Je n'ai pas ce type de troubles, certes, mais la pression auto-infligée est bien là, et j'avoue que c'est quasi impossible de ne pas succomber à cette fusion avec son "projet"… donc oui, je peux dire que je vois trèèès bien de quoi parle Kenneth.
Et même si, contrairement à lui, j'ai appris à dire non, ce n'est pas facile de ne pas se laisser bouffer par ceux qui pensent que tout leur est dû (parce que oui, y'a malheureusement cette mentalité du"tu donnes, c'est sympa, du coup on va tout te prendre !").
Tout ceci reste une drogue, une vaine recherche de cette foutue validation qu'on n'a jamais réussi à vraiment obtenir plus jeune d'un père ou d'une mère. On doit être des millions comme ça et le gros problème, c'est que toute cette intensité, c'est hyper destructeur et le moindre petit grain de sable peut tout faire dérailler. Et pourtant, même à genoux, on continue quand même… Allez savoir pourquoi.
Et ce que dit aussi Kenneth, et que j'élargirais au-delà de la sphère open source, à tous ceux qui partagent des choses en ligne, que ce soient les blogueurs, les vidéastes, les podcasteurs ou les mainteneurs de code, c'est simple : Séparez votre identité de votre projet. Moi j'y arrive pas encore, ça me semble impossible mais ça a vraiment l'air d'être la seule voie possible. Et surtout, votre sécurité financière ne devrait jamais dépendre de la bienveillance de votre communauté. Parce que la gentillesse et la reconnaissance des gens, c'est cool mais ça ne paie pas le loyer.
À la fin de son texte, Kenneth écrit un truc qui franchement me déchire le cœur.
Il dit : "Je ne sais pas si je le referai."
Ce gars doit tout à l'open source et l'open source lui doit aussi beaucoup, et en arriver à lâcher ça, ça montre quand même la souffrance qu'il éprouve. Force à lui, franchement !
Bref, allez lire ce texte parce que je pense que c'est important ! Et c'est pas juste pour les devs, ou pour tous ceux qui donnent leur vie à Internet en quelque sorte.
Non, c'est aussi pour tous ceux qui consomment tout cela sans y penser.
Linux sur un Mac Apple Silicon en 2026 serait-ce enfin une option viable ?
En effet, Fedora Asahi Remix 43 vient de sortir et la réponse est... ça dépend de votre Mac. Si vous êtes sur M1 ou M2, ça commence à être sérieux. M3 ? Ça boote depuis janvier mais c'est pas encore utilisable au quotidien. M4, on en est loin. Et M5, ils ne connaissent pas encore...
Du coup, pour ceux qui se demandent quel Linux installer sur un Mac à base de puce Apple, c'est clairement
le choix le plus abouti
du moment. La grosse news de cette version, c'est l'arrivée du support Mac Pro (le gros desktop à plusieurs milliers d'euros, oui oui). Y'a aussi les micros qui fonctionnent enfin sur les MacBook Pro et Max en M2, et le 120Hz qui débarque sur les MacBook Pro 14 et 16 pouces. Côté bureau, c'est KDE Plasma 6.6 par défaut avec GNOME 49 en alternative, et sous le capot, RPM 6.0 et le backend DNF5 pour la gestion des paquets.
Pour l'installer, c'est toujours la même commande magique :
curl https://fedora-asahi-remix.org/install | sh
Ça se lance directement depuis macOS, ça partitionne votre SSD et ça pose le tout en dual boot. Votre système Apple reste donc intact à côté, et si ça ne vous plaît pas, vous pouvez tout virer proprement. Et si vous êtes déjà sur une version précédente (41 ou 42), la mise à jour passe par DNF System Upgrade ou Plasma Discover. Par contre, oubliez GNOME Software pour les montées de version, ça marche pas encore !
Sauf que... y'a un gros "MAIS" !
En effet, tout ça ne fonctionne qu'avec les puces M1 et M2 donc si vous avez un Mac récent en M3, ça bootera oui, mais le GPU tournera en mode software (LLVMpipe), donc ce sera hyper lent. Et en M4... bah c'est carrément pas encore prêt.
Parce que oui, le reverse-engineering des GPU d'Apple, c'est un boulot de titan, car depuis le départ d'Asahi Lina qui bossait sur le premier driver DRM en Rust du noyau Linux, ça avance forcément moins vite côté graphique. D'ailleurs,
quand je vous en avais parlé la première fois en 2022
, le Bluetooth et Thunderbolt manquaient déjà à l'appel... et c'est toujours pas complètement réglé ! En février 2025, le fondateur du projet Hector Martin avait aussi jeté l'éponge, et
on se demandait si le truc allait survivre
. Visiblement, l'équipe restante (dont Neal Gompa et Davide Cavalca) a décidé de pas lâcher l'affaire 💪.
Côté perf GPU, le driver open source Honeykrisp est désormais conforme Vulkan 1.3 et grâce à l'émulation x86 via FEX + DXVK, des jeux AAA comme Cyberpunk 2077 ou The Witcher 3 tournent sur M1/M2. C'est encore en alpha, faut pas s'attendre à du 60 fps et il faut 16 Go de RAM minimum, mais des jeux indés comme Hollow Knight tournent également déjà à pleine vitesse. Tout ça en reverse-engineering sans aucune doc constructeur... c'est quand même beau ! (Et pas merci Apple pour la transparence, hein...).
Y'a aussi une variante Fedora Server pour ceux qui voudraient transformer leur Mac en serveur headless, ce qui est une utilisation un peu dingue d'une machine à ce prix-là, mais bon, chacun son délire ! Et aussi une image minimale pour les bidouilleurs qui veulent tout construire à la main. Voilà.
Voili voilou, si vous avez un M1 ou M2 sous la main, c'est le moment de tester. Et pour le reste, encore un peu de patience.
Pour faire tourner du JavaScript côté serveur, y'a pas que Node.js dans la vie. Y'a maintenant
workerd
(prononcez "worker-dee"), qui est le runtime open source de Cloudflare, celui-là même qui fait tourner les Workers en prod (le service tourne depuis 2017, le runtime est open source depuis 2022), et que vous pouvez l'installer sur votre Debian, votre Mac ou même votre PC Windows avec un simple npx.
Mais alors pourquoi s'embêter avec un énième runtime JS ?
Hé bien parce que celui-ci n'est pas un runtime généraliste. C'est un vrai serveur HTTP pur et dur, basé sur le moteur V8 de Chrome, conçu pour recevoir des requêtes et y répondre. Pas de filesystem, pas d'accès disque sauvage... ici, votre code vit dans un isolate V8, bien cloisonné, et communique avec l'extérieur uniquement via des bindings explicites qu'on appelle des "capabilities". En gros, votre Worker ne peut accéder qu'aux ressources qu'on lui a branchées dans son fichier de config
Cap'n Proto
.
Et cela a plein d'avantages ! Par exemple, les attaques SSRF classiques c'est mort ! Et n'oubliez pas que c'est du JavaScript pur, donc y'a pas d'affreux require('fs') ni de child_process qui traîne.
Et le concept qui tue, ce sont les nanoservices. En fait, faut imaginer des microservices, mais qui tournent tous dans le même processus Linux, sur le même thread. Comme ça quand un nanoservice en appelle un autre, y'a zéro latence TCP, c'est un juste appel de fonction local !
Et vous pouvez en faire tourner des centaines sur un seul serveur parce que les API sont implémentées en C++ natif et tous les isolates V8 partagent le même code compilé en mémoire. C'est carrément pas intuitif, mais visiblement, ça tient la route.
Côté rétrocompatibilité, c'est cool puisque chaque Worker déclare une "date de compatibilité" dans son fichier .capnp. Comme ça, vous fixez compatibilityDate = "2024-06-15" et le runtime vous garantit que les API fetch() et WebCrypto se comporteront toujours comme à cette date-là, même si le binaire a été recompilé 200 fois depuis. Des releases sortant tous les jours, cette garantie n'est pas anecdotique !
Cap'n Proto, un format de sérialisation binaire créé par Kenton Varda, le même gars qui est derrière Protocol Buffers chez Google (excusez du peu). C'est un poil déroutant au début si vous êtes habitués au YAML ou au JSON, mais c'est très efficace et hyper rapide. Et pour ceux qui bossent déjà avec
l'écosystème Cloudflare
parce que vous avez l'Amérique qui coule dans les veines, sachez le runtime s'intègre nickel avec l'outil CLI Wrangler pour le dev local.
Par contre, attention, ce n'est PAS un sandbox sécurisé. Cloudflare le dit cash : si vous faites tourner du code potentiellement malveillant, faudra l'isoler dans une VM KVM ou un conteneur Docker. Hé oui les amis, en prod chez Cloudflare, y'a des couches de sécurité supplémentaires (isolation kernel Linux, patching V8 en urgence, segmentation par profil de risque) que le runtime seul ne fournit pas.
Le problème, c'est surtout Spectre et les bugs du moteur V8... car ça reste du code C++ compilé avec clang derrière. Après, pour du self-hosting de vos propres Workers sur votre VPS Ubuntu, c'est largement suffisant.
Maintenant pour tester concrétement c'est mui rapido.
npx workerd serve config.capnp
Vous écrivez un petit hello.js avec un addEventListener("fetch"), et hop, vous avez un serveur HTTP prêt à répondre sur le port 8080 de votre localhost. Et le truc sympa, c'est qu'on peut aussi l'utiliser comme proxy HTTP programmable !
Comme ça, au lieu de configurer des règles nginx ou Apache absconses, vous écrivez du JavaScript standard avec des Request et Response pour intercepter et router vos requêtes. Franchement, pour du reverse proxy avec de la logique métier, c'est quand même plus lisible que du location ~ ^/api/(.*)$. ^^
D'ailleurs, côté API, tout est basé sur les standards W3C : fetch(), URL, WebCrypto, TextEncoder, les classiques quoi. Donc si vous savez écrire du JS pour Firefox ou Chrome, vous savez écrire pour le moteur des Workers. Pas de modules propriétaires bizarres, contrairement à Node.js et tous ses packages http, net, stream...
Bref, c'est costaud, c'est gratuit, et ça tourne partout, avec un dossier samples/ plein de configs prêtes à l'emploi.
Orange s'attaque au marché de la protection anti-drones avec Orange Drone Guardian, un service de détection par abonnement, présenté comme une première en Europe.
En choisissant de baptiser le futur porte-avions de nouvelle génération (PANG) France Libre, Emmanuel Macron lie l'héritage de la Résistance aux enjeux technologiques du XXIe siècle. Le président de la République a aussi évoqué la façon dont ce navire fera face aux drones menaçants.
Après l'incroyable succès de son MMORPG, Black Desert Online (aux dernières nouvelles, on parle de 40 millions de joueurs depuis sa sortie en 2015 et 1,7 milliard de dollars de revenus cumulés), le studio et éditeur sud-coréen Pearl Abyss a eu envie de se frotter au jeu solo, tout en restant dans l'action-RPG d'heroic fantasy. Ainsi naquit Crimson Desert, un colosse gargantuesque dont les pieds sont parfois un peu trop faits d'argile. Notre test, après 80 heures de jeu.
Tous les lundis et jeudis, le vidéaste français aux presque 2 millions d'abonnés sur Twitch parlera d'actualité avec une bande de chroniqueurs issus d'Internet, « mais que l'on ne voit pas souvent sur Twitch ». Numerama participera à l'émission en tant que référent sur la tech et l'IA. Le but : aider le spectateur « à penser plus large que ce qui l'arrange à court terme ».
La trottinette électrique reste un moyen de déplacement urbain pratique et écologique — encore plus si vous prenez soin d’un modèle durable. Numerama a sélectionné pour vous quatre références incontournables de trottinettes électriques pour les trajets quotidiens.
En validant son premier implant cerveau-ordinateur invasif, la Chine monte en puissance dans la course mondiale aux neurotechnologies. Ce dispositif, testé sur des patients paralysés, illustre les ambitions de Pékin face aux acteurs américains du secteur.
Le premier trailer de Spider-Man 4 : Brand New Day vient de sortir ce mercredi 18 mars 2026. Si le retour de Tom Holland et l'arrivée de Jon Bernthal (The Punisher) sautent aux yeux, la vidéo fourmille d'indices cachés sur l'intrigue. On a sorti la loupe pour décrypter ce qui se trame et vous parler de ce que vous avez peut-être loupé.
Thermaltake enrichit son catalogue avec l'arrivée de la famille des TR200, des boîtiers micro-ATX promettant un format plus compact que l'ATX sans sacrifier la compatibilité avec du matériel imposant.
Si vous avez un site web et que vos illustrations ressemblent comme sur mon site, à un joyeux bordel de screenshots pixelisés, de photos libres de droits et d'images IA plus ou moins réussies, y'a peut-être un moyen de donner une certaine cohérence visuelle à tout ça. L'outil s'appelle
Dither
, ça a été créé par
Shpigford
, et c'est un générateur de tramage vectoriel qui tourne directement dans Chrome, Firefox ou Safari, sans inscription ni installation.
L'interface de Dither avec ses réglages d'algorithme et de palette
Le principe est simple... Vous balancez un fichier JPEG ou PNG et hop, le moteur JavaScript le transforme en utilisant des algorithmes de dithering comme Bayer (en 2x2, 4x4 ou 8x8), du halftone, des lignes, des croix, des points ou encore des écailles.
Neuf algorithmes au total et ce qui est vraiment cool, c'est qu'il y a des palettes prédéfinies dont une palette Game Boy qui donne ce rendu vert olive mythique qu'on avait sur l'écran LCD 160x144 de la jolie brique de Nintendo. Y'a aussi du CGA et du Sepia pour ceux qui veulent varier les ambiances et pour le coup, ça envoie bien du rétro !
Pour les djeuns, sachez que le dithering c'est en fait cette vieille technique qui remonte aux années 70-80 permettant de simuler des dégradés quand on n'a que quelques teintes disponibles. En gros, au lieu d'un dégradé lisse en 16 millions de couleurs RGB, on place des petits points de 2 à 8 couleurs qui, vus de loin, donnent l'illusion d'un mélange. C'est exactement ce qu'on voyait sur les écrans CGA 320x200 des vieux PC IBM XT ou sur la Game Boy sortie en 1989.
L'intérêt d'un outil comme Dither, c'est qu'en plus de jouer avec les 9 algorithmes, vous pouvez régler pas mal de paramètres via l'interface. Par exemple, la taille des cellules en pixels (8px par défaut, mais j'ai trouvé que 12px donne un bon compromis lisibilité/esthétique sur des photos 1024x768), l'angle de rotation du motif à 45 degrés, l'échelle à 1.0, et même choisir entre cercle, carré ou diamant pour la forme du rendu.
Vous pouvez aussi partir d'un gradient linéaire, radial ou conique au lieu d'une image existante... pas mal pour générer des fonds d'écran rétro sur macOS ou Linux !
Et surtout, l'export se fait en SVG ou en PNG. Le SVG c'est super pratique si vous voulez intégrer le résultat dans un site web via une balise <img> sans perte de qualité, vu que c'est du vectoriel.
Par contre, attention, le mode Sepia a tendance à écraser les contrastes sur les photos sombres en dessous de 128 de luminosité moyenne... du coup préférez le mode B/W ou CGA sur ce type d'images.
Sachez aussi que les photos avec beaucoup de détails fins (genre une photo de foule ou un paysage urbain en 4000x3000) perdent carrément en lisibilité avec les petites cellules de 4px ou 8px. Montez la taille à 16px ou 32px dans ce cas, vous verrez, ça change tout.
Bon après, est-ce que je vais mettre toutes les images de mon site en mode
pixel art
tramé ? Non, clairement pas, car ça deviendrait monotone à force. Mais pour un projet perso, un portfolio, un zine en ligne ou même une série d'articles thématiques, ça peut donner un look uniforme sympa.
Bref, allez jeter un oeil, c'est gratuit et ça tourne dans le navigateur.
ClamAV, tout le monde connaît. C'est le moteur antivirus open source qui tourne sur à peu près tous les serveurs mail de la planète. Sauf que côté bureau Linux, à part ClamTk qui commence à dater, les options pour le piloter avec une interface graphique sont plutôt limitées.
Heureusement,
ClamUI
vient corriger le tir avec une vraie application desktop qui se présente comme une interface GNOME native bien léchée pour scanner vos fichiers, gérer la quarantaine et garder un oeil sur la sécurité de votre bécane. Un petit
Bon, vous allez me dire "Un antivirus sous Linux, pour quoi faire ? Moi j'ai une vraie barbe, je bois de la chouffe cul-sec et suffit de pas installer n'importe quoi, c'est tout !!! Linux ça se mérite les moldus !" tout en embrassant vos biceps ramollis ^^.
Mais vous oubliez que si vous partagez des fichiers avec des machines Windows, si vous gérez un serveur de mails ou un NAS familial, scanner ce qui transite c'est pas du luxe. Et ClamUI rend la chose carrément accessible, là où avant fallait jongler avec des outils en ligne de commande comme ceux qu'on trouve dans les
distributions d'analyse de malwares
.
Côté fonctionnalités, c'est d'ailleurs plutôt complet ! L'appli détecte automatiquement les clés USB et disques externes quand vous les branchez, et peut les scanner direct sans que vous leviez le petit doigt (un peu comme
CIRCLean sur Raspberry Pi
, mais sans le matériel dédié). Y'a aussi l'intégration VirusTotal pour les fichiers véritablement louches (il faut juste une clé API gratuite), du coup vous pouvez croiser les résultats avec une soixantaine de moteurs de détection en un clic.
Une chose bien pensée aussi, c'est l'intégration dans les gestionnaires de fichiers comme Nautilus, Dolphin, Nemo... un clic droit sur n'importe quel répertoire et vous lancez un scan. Ça s'installe également dans le system tray avec des notifications en temps réel, genre "scan terminé, zéro menace détectée" ou "attention, fichier suspect déplacé en quarantaine".
Pour les bidouilleurs, ClamUI propose deux backends au choix, c'est-à-dire soit le daemon clamd, plutôt que clamscan en direct, parce que clamd garde les signatures en mémoire et scanne beaucoup plus vite. Mais si vous voulez pas d'un service qui tourne en permanence, clamscan fait le job. Vous pouvez aussi programmer des scans automatiques via systemd ou cron, donc même un vieux serveur Debian peut tourner en pilote automatique.
Y'a aussi une CLI complète derrière l'interface graphique, idéale pour l'intégrer à vos scripts. clamui scan, clamui quarantine, clamui profile, clamui status... tout sort en JSON si vous voulez scripter le truc. Les codes retour sont d'ailleurs très propres : 0 si c'est clean, 1 si y'a des menaces, 2 si erreur. "Èzé" comme dirait Booba ! De quoi intégrer ça dans un pipeline de vérification maison sans se prendre la tête !
Le projet est sous licence MIT, tourne avec Python 3.11+ et les sources sont
sur GitHub
.