Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 8 octobre 2025Flux principal

J'ai testé un détecteur de gaz radon et c'est flippant !

Par : Korben
8 octobre 2025 à 17:14
– Article contenant des liens affiliés –

Vous connaissez le radon ? C’est ce gaz radioactif qui s’infiltre insidieusement dans nos maisons depuis le sol. Et si vous habitez en Auvergne comme moi ou en Bretagne ou dans une région où il y a du radon , vous êtes peut-être dans une zone à risque. C’est pour cela que j’ai acheté un détecteur Ecosense EcoBlu EB100 pour voir enfin comment ça se passait vraiment chez moi.

Mais avant de vous parler du produit, laissez-moi quand même vous expliquer ce qu’est le radon… Il s’agit d’un gaz radioactif naturel qui vient de la désintégration de l’uranium présent dans le sol. Il est inodore, incolore, invisible. Vous ne le sentez pas, vous ne le voyez pas, mais il est là. Et le truc, c’est qu’en Auvergne, avec notre sous-sol granitique du Massif Central, on est particulièrement exposé.

Le radon entre donc dans les maisons par les fissures, les passages de canalisations, les caves, les vides sanitaires…etc et remonte du sol pour finir par se concentrer dans les pièces fermées. Et là, c’est pas bon du tout !! Le Centre international de recherche sur le cancer a classé le radon comme cancérigène certain pour le poumon depuis 1987. En France, c’est d’ailleurs la deuxième cause de cancer du poumon après le tabac. Rien que ça ! Le radon c’est donc environ 3 000 décès par an.

Du coup, ça fait un petit moment que je sais que l’Auvergne fait partie des zones les plus touchées en France avec la Bretagne, le Limousin et la Corse, mais je m’en étais pas trop inquiété jusqu’à ce que je lise un article scientifique là dessus. J’ai donc voulu savoir à quoi moi et ma famille on s’exposait parce que bon, c’est vrai qu’en hiver, je suis pas le champion de l’aération ! Puis surtout, on est un peu impuissant face à un truc qu’on ne voit pas. Donc au moins, si on peut le mesurer, on peut agir !

Bref, l’ Ecosense EcoBlu EB100 , c’est un petit boîtier blanc de la taille d’un réveil. Vous le branchez, et en 10 minutes vous avez déjà une première lecture. Après pour un résultat vraiment fiable, il faut attendre une heure. L’écran LED affiche alors le taux de radon en temps réel, la moyenne du jour, de la semaine et du mois. C’est super simple à utiliser !

Initialisation en cours…

Y’a même une alarme qui se déclenche si les niveaux deviennent critiques. Pour info, le seuil de référence en France, c’est 300 Bq/m3 en moyenne annuelle. Au-dessus, il faut agir.

Chez moi, les premiers jours, j’étais à 450 Bq/m3 dans le salon. Carrément au-dessus du seuil donc. Du coup, j’ai fait ce qu’il faut : aérer à fond ! Et assez rapidement finalement, c’est revenu à des taux plus tolérables, autour de 100 Bq/m3, parfois moins. J’ai renforcé la ventilation dans les pièces du sous-sol car c’est par là que ça arrive et surtout j’aére tous les jours. Et ce qui est bien avec cet appareil, c’est que machinalement je pose les yeux dessus et donc j’y pense et j’ouvre les fenêtres.

Sans ça, j’en aurais pas vraiment conscience par contre, et finalement je ne saurais pas si j’aère la maison assez ou pas.

Car ce qui est important à comprendre surtout, c’est que le taux de radon varie tout le temps. Selon la météo, la saison, l’état de vos fondations, le chauffage que vous mettez…etc. En fonction de tout un tas de critères, les taux peuvent monter ou descendre. C’est assez random. Y’a des matin, je me lève et je suis à 30 Bq/m3 et d’autres matins, c’est la fiesta largement au dessus des 300… Bref, l’EcoBlu me permet de surveiller ça en continu.

Après à ce prix, c’est quand même un investissement mais ça vaut le coup si vous êtes en zone à risque et si vous avez une maison ou en rez de chaussée d’apart. Si vous êtes en étage, y’a moins de risque d’être intoxiqué par cette saloperie.

Maintenant ce qu’il faut retenir c’est que le radon, c’est pas une blague. C’est comme si vous fumiez plusieurs clopes tous les jours ! Imaginez ça sur des années, ça craint ! Et si en plus, vous fumez pour de vrai, le risque de cancer du poumon est multiplié par 20.

L’idéal c’est quand même de repasser sous la barre des 100…

Voilà, après en dehors de l’aération, vous pouvez aussi agir sur l’étanchéité de votre maison. Colmater les fissures dans les dalles, les passages de canalisations, mettre une membrane étanche dans la cave si elle est en terre battue, ventiler les vides sanitaires…etc… Bref, limiter les entrées du radon depuis le sol c’est jouable ! L’idéal, c’est évidemment une VMC qui tourne en continu et pas juste une aération ponctuelle car le radon s’accumule quand l’air ne circule pas. Ainsi, plus vous renouvelez l’air intérieur, moins le radon stagne.

Perso, j’ai installé 2 ventilations à la cave comme je vous le disais. C’est mieux que rien, mais ça ne suffit pas.

En tout cas, je ne regrette pas cet achat de détecteur temps réel. Matérialiser un danger invisible, ça change tout et maintenant, que je vois les chiffres, je sais quand il faut aérer, et je sais que je ne me pèle pas les noisettes pour rien en plein hiver. Bref, c’est rassurant surtout !

Voilà, donc si vous êtes en Auvergne, Bretagne, Limousin, Vosges, Alpes, Corse… ou n’importe quelle zone granitique, je vous conseille vivement de mesurer le radon chez vous. Vous serez peut-être surpris… au mieux, vous découvrirez que tout va bien et vous pourrez renvoyer ce détecteur à Amazon et vous faire rembourser et au pire, vous corrigerez ce problème avant qu’il ne devienne grave…

Sources :

Synology capitule et annule le verrouillage des disques durs après 6 mois de boycott acharné

Par : Korben
8 octobre 2025 à 16:44

6 petits mois, c’est le temps qu’il aura fallu à la communauté “NAS” pour faire plier Synology et son délire de verrouillage propriétaire . Comment je le sais ? Hé bien DSM 7.3 vient de sortir, et visiblement, leurs foutues restrictions sur les disques Seagate et Western Digital ont complètement disparu. Woohoo \o/ !

Ça s’est fait sans fanfare, ni excuses, mais juste en mode marche arrière à fond la caisse ! Ouééé, c’est ça qu’on voulait !

Retour rapide quand même sur l’histoire… En avril de cette année, on ne sait pas pourquoi, Synology décide que ses nouveaux NAS DS925+, DS1825+ et DS425+ n’accepteront que leurs propres disques HAT3300 et HAT5300.

Traduction, faudra payer 30 à 40% de plus pour exactement le même matos rebrandé ! Du coup, les Seagate IronWolf et WD Red qui fonctionnaient parfaitement depuis des années, aux chiottes ! Et si vous voulez installer DSM sur un disque non-approuvé, un NAS comme le DS925+ refuse carrément de booter.

Et comme y’a pas de VRAIE raison technique à cela, la réaction a été immédiate et brutale. Les ventes se sont effondrées, les revendeurs ont commencé à recommander activement QNAP, TrueNAS, UGREEN et les clients ont annulé leurs précommandes.

Même les reviewers tech ont qualifié ce move de Synology de “greedy and shortsighted” ce qui pourrait se traduire par cupide et sans vision à long terme…

Et au delà du boycott pur, la communauté s’est aussi bougé le cul. Car pendant que Synology tenait bon sur sa position stuipide, des scripts Python ont fleuri un peu partout sur GitHub pour contourner ces restrictions. Des guides complets ont été publiés sur XDA-Developers expliquant comment se connecter en Telnet et patcher l’installation de DSM pour accepter n’importe quel disque et c’est comme ça que des gens ont commencé à hacker leurs propres NAS qu’ils venaient d’acheter plusieurs centaines d’euros.

C’est ça la vraie passion les gars !! ^^

Puis quand vos propres partenaires commerciaux historiques vous lâchent, vous savez que vous avez merdé…. Breeeef, Synology a fait demi-tour et même si ce n’est pas une révélation éthique (ils ont juste compris que le jeu n’en valait pas la chandelle), c’est tout à leur honneur ! D’autres se seraient entêtés jusqu’à mettre en danger la boite. Je pense par exemple à HP et ses cartouches d’imprimante à puce… Ça s’est soldé par un règlement judiciaire à plusieurs millions et une réputation en charpies.

Voilà… Donc maintenant avec DSM 7.3 qui sort aujourd’hui, les disques Seagate et Western Digital fonctionnent à nouveau comme avant. Le monitoring complet, les alertes, et toutes les fonctionnalités software sont rétablies et ces maudits warnings “unverified” ont disparu. Vous pouvez à nouveau installer ce que vous voulez dans votre NAS comme si de rien n’était !

Ouf ! Encore une victoire de canard gagnée en votant avec le portefeuille !

Source

SSHM - Un super gestionnaire pour SSH

Par : Korben
8 octobre 2025 à 16:06

Guillaume, fidèle lecteur de Korben.info depuis un looong moment, s’était bricolé un script bash pour gérer ses connexions SSH. Vous savez, c’est le genre de script qu’on améliore petit à petit, puis qu’on finit par ne plus oser toucher de peur de tout casser. C’est pratique, mais pour reprendre les mots de Guillaume dans le mail qu’il m’a écrit, c’est pas très “élégant”.

Puis il est tombé sur deux articles que j’avais écrits : un sur ssh-list , un sur ggh qui sont deux outils sympas pour gérer les connexions SSH depuis le terminal. Mais de son point de vue, incomplets. Et là, il a eu un déclic : “Et si je combinais les deux, en ajoutant ce qui me manque ?

Et un mois plus tard, SSHM était né . On est loin du script du départ puisqu’il a codé un véritable outil en Go avec Bubble Tea , dans une interface TUI moderne, avec un support complet du ~/.ssh/config, une organisation par tags, un historique des connexions, et même du port forwarding avec mémoire. Bref un truc super abouti.

Puis environ environ 1 mois après la sortie de la première version, Guillaume a continué à implémenter pas mal de nouveautés : gestion interactive des hôtes SSH, recherche intelligente multi-mots, indicateurs de statut en temps réel, support ProxyJump, directives Include gérées correctement, personnalisation des raccourcis clavier, compatible Linux/macOS/Windows. Le tout dans un binaire unique sans dépendances.

Faut vraiment que vous testiez car c’est c’est chouette. Je trouve que SSHM a dépassé largement ses inspirations. Par exemple, ssh-list organise vos serveurs en groupes alors que SSHM utilise des tags. Ça permet de marquer un serveur “prod” + “web” + “urgent” et du coup c’est beaucoup plus flexible que de ranger ça dans des dossiers statiques.

ggh fait également du session recall. Cela veut dire qu’il se souvient de vos dernières connexions SSH et vous permet de les relancer rapidement. Et bien SSHM fait ça AUSSI, mais en plus il gère toute votre config SSH : Ajout, édition, suppression d’hôtes, directement depuis l’interface TUI. En vrai, Guillaume n’a pas copié-collé les idées de ces outils mais a repensé totalement l’organisation même de la gestion SSH.

Prenez le port forwarding. Combien de fois vous avez perdu vos notes sur vos tunnels SSH ? Hé bien SSHM lui se souvient de vos dernières configs de tunnels locaux, distants, SOCKS…etc. Si vous forwardez toujours le port 3306 de votre base MySQL de dev, SSHM retiendra les paramètres. Ça fait gagner grave de temps car vous n’avez plus à vous rappeler de la syntaxe “ssh -L 3306:localhost:3306 user@serve” à chaque fois. C’est un petit détail qui prouve bien que cet outil a été créé par quelqu’un qui UTILISE vraiment SSH au quotidien, et pas juste pour faire un script vite fait.

L’interface TUI est plutôt fluide, avec des raccourcis clavier configurables et vous pouvez même désactiver ESC si vous êtes un puriste vim qui déteste les touches d’échappement. Les indicateurs de connectivité SSH s’affichent en couleur en temps réel (vous voyez d’un coup d’œil quels serveurs répondent) et il y a une superbe recherche (un filtre en réalité) par nom et par tags, qui supporte plusieurs mots. Et si vous préférez scripter, SSHM fonctionne aussi en CLI pur. Par exemple, “sshm connect prod-web-01” dans un script bash, et ça marchera en gardant l’historique des connexions.

Un autre point technique important pour les admins qui ont des configs SSH complexes : SSHM gère correctement les directives Include . Hé oui, beaucoup d’outils cassent quand vous avez un ~/.ssh/config qui include des fichiers séparés comme ~/ssh/work et ~/ssh/perso. SSHM est capable non seulement de les lire mais aussi de les éditer correctement.

Concernant l’installation c’est ultra-simple. Sur macOS, Homebrew fait le job. Sur Unix/Linux, il suffit d’un script d’une ligne. Enfin, sous Windows, y’a un script PowerShell. Ou alors vous pouvez télécharger direct le binaire depuis les releases GitHub .

Homebrew pour macOS :

brew install Gu1llaum-3/sshm/sshm

Unix/Linux/macOS :

curl -sSL https://raw.githubusercontent.com/Gu1llaum-3/sshm/main/install/unix.sh | bash

Windows (PowerShell):

irm https://raw.githubusercontent.com/Gu1llaum-3/sshm/main/install/windows.ps1 | iex

Bref, Guillaume a plutôt bien géré son truc je trouve ! Comme quoi, la barrière entre “bidouille perso” et “outil communautaire reconnu” n’a jamais été aussi basse. Avec un bon framework comme Bubble Tea, une idée claire sur ce qui manque aux outils existants, et un ou deux mois de travail sérieux, et hop, on fait un miracle !

Voilà, donc si vous gérez plusieurs serveurs SSH au quotidien, SSHM vaut vraiment le coup d’œil. Un grand merci à Guillaume pour le partage, c’est trop cool !

Sora 2 - Comment y accéder depuis l'Europe ?

Par : Korben
8 octobre 2025 à 09:51
– Article en partenariat avec Surfshark

OpenAI a lancé Sora 2 fin septembre, et pour l’avoir testé, je peux vous dire que c’est un sacré bond en avant pour la génération vidéo par IA. Leur modèle génère maintenant de la vidéo ET de l’audio synchronisé, avec des dialogues, des effets sonores et des musiques réalistes…etc.

Mais il y a un hic car Sora 2 est dispo uniquement aux USA et au Canada. Le reste du monde, dont l’Europe, est donc bloqué. Mais rassurez-vous, je vais vous expliquer comment y accéder.

Sora 2 fonctionne en text-to-video et image-to-video. En gros, vous tapez une description, et le modèle génère la vidéo avec l’audio qui va bien. Comparé à la première version , Sora 2 respecte donc bien mieux la physique. Par exemple, on arrive à obtenir un ballon de basket qui rate le panier rebondit correctement sur le panneau… les mouvements sont plus cohérents, et les instructions complexes sur plusieurs plans sont suivies en gardant l’état du monde.

La fonctionnalité qui fait du bruit, c’est surtout Cameo. Vous uploadez une courte vidéo de vous, et Sora 2 peut vous insérer dans n’importe quelle scène générée. Le modèle reproduit alors votre apparence et votre voix avec assez de précision pour que ça fonctionne. Ça marche aussi avec des animaux ou des objets. OpenAI a sorti une app iOS sociale autour de ça, où vous créez des vidéos, remixez les générations des autres, et ajoutez vos potes en cameo.

Maintenant, comme je vous le disais, le problème c’est que Sora 2 est réservé aux Etats-Unis et au Canada uniquement donc si vous tentez d’y accéder depuis l’Europe, le Royaume Uni, l’Australie ou ailleurs, vous tomberez sur un message du style “Service not available in your region”. Et malheureusement, OpenAI n’a pas communiqué de dates pour l’expansion internationale, même si des sources parlent de déploiements progressifs dans les prochaines semaines.

Pourquoi Surfshark est la solution idéale pour accéder à Sora 2

Une solution technique existe pour contourner ce problème : utiliser un VPN pour apparaître aux yeux de Sora 2 comme si vous étiez aux USA ou au Canada. Et c’est là que Surfshark entre en jeu .

Surfshark dispose d’un réseau impressionnant de plus de 3200 serveurs répartis dans 100 pays, dont de nombreux serveurs performants aux États-Unis et au Canada. Les débits dépassent régulièrement 950 Mbps via le protocole WireGuard, ce qui garantit un streaming fluide et sans latence pour vos générations vidéo sur Sora 2. Fini les connexions qui rament au moment crucial.

Le gros plus de Surfshark ? Le tarif ultra-compétitif à environ 3€ par mois (avec l’offre actuelle), ce qui en fait l’un des VPN avec le meilleur rapport qualité-prix du marché. Mais ce n’est pas tout : contrairement à la plupart des concurrents, Surfshark permet des connexions simultanées illimitées. Vous pouvez protéger tous vos appareils (PC, smartphone, tablette, smart TV, et même celui de votre famille) avec un seul abonnement.

Des fonctionnalités qui vont au-delà du simple VPN

Ce qui distingue vraiment Surfshark, ce sont ses fonctionnalités avancées qui renforcent votre sécurité et votre anonymat en ligne. Le Dynamic MultiHop fait transiter votre connexion par plusieurs serveurs dans différents pays, brouillant totalement les pistes. Même les plus curieux auront du mal à vous suivre.

La plateforme Nexus centralise toute la gestion de vos paramètres de sécurité dans une interface intuitive. Vous pouvez analyser les fuites potentielles, gérer vos connexions multiples, et activer les protections avancées en quelques clics, même si vous n’êtes pas un expert technique.

Côté innovation, Surfshark ne chôme pas. Ils ont récemment déposé un brevet pour un système de chiffrement de bout en bout qui élimine les métadonnées. Contrairement aux VPN classiques qui laissent parfois des traces temporelles ou de volume, ce nouveau système efface absolument toutes les miettes numériques. Et ça ne ralentit pas votre connexion, ce qui est crucial pour du streaming 4K ou des générations vidéo gourmandes en bande passante.

Surfshark a également lancé son propre service DNS public gratuit, qui chiffre et anonymise toutes vos requêtes DNS via DNS-over-HTTPS et DNS-over-TLS. Même votre fournisseur d’accès Internet ne peut plus voir quels sites vous visitez. Et contrairement à d’autres DNS publics, Surfshark ne collecte ni ne vend vos données de navigation.

CleanWeb et Alternative ID : la protection complète

En bonus, tous les abonnements Surfshark incluent désormais CleanWeb, un bloqueur de publicités et de trackers ultra-efficace. Il fonctionne sur tous vos appareils (Windows, Mac, Android, iOS, Linux, même FireTV) et bloque non seulement les pubs classiques, mais aussi les pop-ups, les cookies invasifs, les tentatives de phishing et les sites vérolés. Vous naviguez plus vite, plus proprement, et en toute sécurité.

Et si vous voulez aller encore plus loin dans la protection de votre vie privée, Alternative ID (inclus dans l’abonnement) vous permet de générer des identités fictives (noms, adresses mail temporaires, numéros de téléphone) pour vous inscrire sur des services sans jamais donner vos vraies informations. Pratique pour tester Sora 2 ou d’autres plateformes sans se faire spammer par la suite.

Comment accéder à Sora 2 depuis l’Europe avec Surfshark

Notez quand même qu’utiliser un VPN pour contourner les restrictions géographiques d’OpenAI viole leurs conditions d’utilisation donc s’ils le décident, ils peuvent suspendre votre compte. Mais pour le moment, ce n’est arrivé à aucun utilisateur de VPN et je pense pas que ce serait dans leur intérêt.

Comme l’app Sora est dispo uniquement sur iOS pour l’instant, vous devrez aussi vous créer un compte Apple américain pour avoir l’appstore US et pouvoir installer l’app. Rien de bien compliqué et une fois que c’est installé, vous pouvez rebasculer sur votre compte FR.

Voici donc comment créer un compte Apple américain (US) :

  1. Rendez-vous sur le site https://appleid.apple.com/us/ puis cliquez sur “Create your Apple ID”.
  2. Remplissez les informations demandées (nom, date de naissance, adresse e-mail) et choisissez bien “United States” comme pays/région.
  3. Vous pouvez utiliser un numéro de téléphone français pour la validation (le préfixe +33 est accepté) en recevant un SMS pour confirmer.
  4. Validez votre adresse e-mail via le code envoyé.
  5. À la création du compte, vous pouvez choisir “None” comme mode de paiement, ce qui signifie que vous n’êtes pas obligé de fournir une carte bancaire américaine.
  6. Pour utiliser ce compte sur un appareil iOS, déconnectez votre compte Apple actuel dans AppStore > Compte > Déconnexion (tout en bas), puis connectez-vous avec votre nouvel identifiant Apple US.

Cette méthode vous permettra de créer un Apple ID pour accéder à l’App Store américain sans nécessiter obligatoirement une carte bancaire US.

Le système d’accès est en invitation pour l’instant et chaque personne invitée reçoit 4 codes à partager. Maintenant si vous voulez tester Sora 2 et que vous êtes parmi les 4 premiers à m’envoyer un mail, je vous file un de mes codes d’invitation. Après ça, vous pourrez à votre tour inviter 4 personnes.

Maintenant, niveau contenu généré, on voit déjà des trucs hallucinants sur les réseaux… et aussi beaucoup de problèmes de copyright. Des users génèrent des Bobs l’Eponge, des Mario, des persos Nintendo…etc ce qui pose évidemment des questions légales mais bon, c’est rigolo quand même. OpenAI a d’ailleurs intégré un watermarking dans chaque vidéo générée, afin de pouvoir remonter la piste de chacune des générations.

En résumé : la marche à suivre

Si vous êtes en Europe et que vous voulez vraiment accéder à Sora 2 maintenant malgré les risques, voici comment ça fonctionne avec Surfshark :

  1. Installez l’application Surfshark VPN sur votre appareil
  2. Connectez-vous à un serveur US ou canadien (choisissez-en un avec une faible latence)
  3. Créez un compte Apple américain comme expliqué plus haut
  4. Installez l’app Sora via l’App Store US
  5. Normalement, vous passerez le geo-blocking sans problème

Avec Surfshark, vous bénéficiez non seulement d’un accès fiable à Sora 2, mais aussi d’une protection complète pour toute votre navigation. À environ 3 € par mois pour une sécurité sur un nombre illimité d’appareils, c’est clairement l’une des meilleures options du marché.

Ou sinon, vous attendez sagement qu’OpenAI déploie officiellement son service en Europe mais faudra être encore un peu patient.

Essayer Surfshark VPN maintenant

L'Allemagne dit non à Chat Control - Une victoire pour la vie privée en Europe !

Par : Korben
8 octobre 2025 à 07:06

Enfin une bonne nouvelle les amis ! Le parti CDU/CSU, actuellement au pouvoir en Allemagne, vient de déclarer clairement qu’il n’y aura pas de Chat Control avec ce gouvernement. L’annonce a été faite hier et c’est une victoire majeure pour la vie privée en Europe !

Pour ceux qui n’ont pas suivi, je vous avais parlé de Chat Control , une proposition de règlement européen qui obligerait WhatsApp, Signal, Telegram et tous les autres à scanner automatiquement tous vos messages, même chiffrés, pour y chercher du contenu illégal. En gros, on casse le chiffrement de bout en bout pour surveiller tout le monde “au cas où”. C’est de la surveillance de masse déguisée en protection de l’enfance, et d’ailleurs tous les experts en sécurité vous le diront : on ne peut pas casser le chiffrement “juste un peu” ou “pour une bonne cause”. Soit c’est chiffré, soit ça l’est pas.

Bref, la déclaration de la CDU/CSU est limpide : Il n’y aura pas de surveillance généralisée des messages sans motif, comme certains pays de l’UE le réclament. Patrick Hansen, qui suit de près ces questions de réglementation crypto et tech en Europe, a tweeté que c’était une grande victoire pour la vie privée dans l’UE et il a raison, le bougre !

Alors pourquoi c’est important cette décision de l’Allemagne ? Hé bien parce qu’elle pèse lourd dans les décisions européennes la Bertha ! Pour qu’une proposition comme Chat Control passe, il faut le soutien d’États membres représentant au moins 65% de la population de l’UE. Et sans l’Allemagne, c’est mathématiquement compliqué. Du coup, ça tombe bien puisque le vote au Conseil était prévu pour le 14 octobre 2025.

Faut pas oublier que la position allemande avait vacillé en septembre. En effet, après une réunion du groupe de travail LEWP, l’Allemagne était revenue à une position “indécise”, ce qui avait fait flipper tout le monde et sans le refus ferme de Berlin, l’opposition ne pouvait plus garantir une minorité de blocage.

Bref, on était pas loin de la catastrophe !!

Mais là, c’est bon, on est sauvé puisque la CDU/CSU remet les points sur les i. Pas de Chat Control. Le dossier est clos (pour le moment…). C’est chouette parce que franchement, dans le cas contraire, j’aurais pas compris car l’Allemagne a quand même une histoire particulière avec la surveillance de masse. Entre les nazis et la Stasi d’Allemagne de l’Est, ils savent mieux que personne ce que ça donne quand l’État surveille tout le monde. J’imagine que cette mémoire historique a compté dans leur position vis à vie de ChatControl.

En tout cas, c’est le bon moment pour dire merci. Merci à tous ceux qui se sont mobilisés contre ce projet délirant ces derniers mois. Les associations comme l’Electronic Frontier Foundation, le Chaos Computer Club, European Digital Rights, tous les devs qui ont gueulé, tous les citoyens qui ont écrit à leurs députés, tous ceux qui ont relayé l’info…etc. Car sans cette pression, on aurait probablement déjà Chat Control en place. Une preuve de plus que la mobilisation, ça marche !

Après, en tant qu’ancêtre d’Internet, croyez en ma grande expérience, ce genre de loi merdique n’est jamais vraiment mort. Ça reviendra sous une autre forme, avec un autre nom, un autre prétexte. C’est l’histoire même de la surveillance… ils réessayent encore et encore jusqu’à ce que ça passe, en espérant qu’on sera trop fatigués ou trop distraits pour résister. Mais bon, ce sera pas pour cette fois encore…

Signal avait même menacé de quitter le marché européen plutôt que de compromettre le chiffrement de son service. Proton, Tuta et d’autres avaient de leu côté fait des déclarations similaires.

Donc voilà. Pour une fois, une bonne nouvelle sur la vie privée en Europe, alors en attendant la prochaine saloperie politique, on savoure cette victoire, et on continue à se battre !

Hier — 7 octobre 2025Flux principal

OpenZL - Meta lance un framework open source de compression de données structurées

Par : Korben
7 octobre 2025 à 17:17

Vous compressez vos fichiers Parquet avec gzip ? Ça marche, c’est trop cooool ! Vos CSV sont en Snappy ? Nickel c’est le bonheur !! Vos time-series sont dans un format custom que personne ne comprend sauf le dev qui est parti y’a deux ans sans laisser d’adresse ? Ah, merde…

Du coup, combien ça vous coûte vraiment ces histoires de compression ? Non, je ne parle pas en octets économisés, mais plutôt en temps humain perdu. Parce que Meta vient de publier un truc super cool qui s’appelle OpenZL et qui est un framework open source qui révèle une vérité qu’on préfère ignorer : Zuck est un reptilien euh, non… utiliser des compresseurs génériques pour tout, c’est pratique mais c’est une facture cachée qui explose !

Hé oui car les compresseurs universels comme gzip ou zstd sont géniaux, ils fonctionnent partout mais le problème c’est qu’ils ne comprennent rien à vos données. Pour eux, un CSV c’est pareil qu’un JPEG ou qu’un binaire random, du coup, vous obtenez une compression “correcte” mais rarement optimale.

Et vous vous retrouvez alors dans le cycle classique suivant : Un nouveau dataset structuré, vous tentez gzip, c’est bof. Vous essayez alors un compresseur spécialisé, mais faut l’intégrer au pipeline et franchement, la flemme. Et ça, ça vous prend combien de temps en vrai ?

Oui, je sais, vous n’en avez aucune idée mais chez Meta, ils ont évalué ça en mois de développement pour chaque nouveau type de données. Oui, des mois, pas des jours. Et après faut maintenir tout ça, gérer les versions, les dépendances, les cas particuliers…. bref.

Meta a donc fait le calcul et le partage ouvertement . Ils avaient des centaines de cas d’usage différents pour la compression de données structurées avec des fichiers Parquet, des CSV, des time-series, des tensors de machine learning, des tables de bases de données…etc et à chaque fois, soit vous prenez gzip et vous laissez de l’espace disque et de la bande passante sur la table, soit vous développez un compresseur custom et vous perdez des semaines de dev.

La solution classique consistait donc à multiplier bêtement les compresseurs spécialisés. Un pour Parquet avec Snappy, un autre pour les CSV, encore un autre pour les données numériques colonnes…etc et là ça devient vite le bordel car chaque compresseur a son décodeur, sa config, ses quirks. Vous vous retrouvez alors avec une infrastructure de compression qui ressemble à un mille-feuille de dépendances mais sans le bonheur d’une crème pâtissière de qualité.

C’est là qu’OpenZL débarque avec une approche totalement différente puisqu’au lieu de créer encore un énième compresseur spécialisé, ils ont fait un framework qui comprend la structure de vos données et génère automatiquement la meilleure stratégie de compression.

Donc en gros, vous donnez à OpenZL une description de la structure de vos données via leur Simple Data Description Language (SDDL). Ensuite leur “trainer” analyse des échantillons et trouve la séquence optimale de transformations. Ces transformations révèlent alors des patterns cachés dans vos données structurées, ce qui permet ensuite une compression beaucoup plus efficace qu’un compresseur générique aveugle.

Faut voir OpenZL comme un genre de compilateur en fait. Vous lui donnez une description haut niveau de vos données, et il génère un “plan de compression” optimisé pour ce type précis de données. Un peu comme un compilateur transforme du code haut niveau en binaire optimisé.

Et le plus beau c’est que tous les fichiers compressés par OpenZL, même avec des configs complètement différentes, se décompressent avec le même binaire. Comme ça c’est fini le casse-tête des multiples décodeurs à maintenir. Là vous avez un seul exécutable à déployer partout. Bref, c’est surtout ça la promesse de Meta avec OpenZL.

Cet outil est en prod chez eux et visiblement, comme ils le racontent sur X , il a réduit les temps de développement de mois à jours, pour des gains de compression et de vitesse systématiquement supérieurs aux compresseurs génériques. Sur des datasets Parquet par exemple, ils obtiennent des ratios de compression meilleurs que gzip tout en étant plus rapides à compresser et décompresser.

Pour vous donner un ordre de grandeur, Parquet avec gzip c’est déjà 2.37 fois plus compact qu’un CSV classique. OpenZL lui, va encore plus loin en exploitant les régularités intrinsèques des données colonnes tels que des types énumérés, des contraintes de range, des patterns temporels dans les time-series et c’est ça qui fait la différence entre un compresseur qui voit des bytes et un qui comprend la structure.

Meta considère le core d’OpenZL comme production-ready et l’utilisent en interne à large échelle depuis un petit moment. Maintenant si ça vous intéresse pour vos propres projets, sachez que le framework est sous licence BSD et dispo sur GitHub et vous avez un Quick Start guide , de la doc complète , et même un papier académique sur arXiv si vous voulez plonger dans les détails techniques du modèle graph-based qu’ils utilisent.

Voilà, si vous bossez avec des volumes importants de données structurées, si vous en avez marre de bidouiller des configs de compression, ou si vous voulez juste arrêter de payer la facture cachée des compresseurs universels, allez voir OpenZL sur GitHub .

Source

DevPush - Deployez vos apps Python comme sur Vercel

Par : Korben
7 octobre 2025 à 16:58

Vous connaissez Vercel ? Cette plateforme de déploiement qui permet de mettre en ligne une app web en deux clics. Hé bien c’est super génial… mais ça ne marche qu’avec JavaScript. Du coup, si vous faites du Python, du PHP ou autre, vous êtes un peu coincé. Snif…

C’est un peu le problème que Ronan Berder, un dev de Singapour, s’est pris en pleine poire au moment où il a voulu déployer ses apps Python aussi facilement que du Next.js sur Vercel. Comme y’avait pas grand chose qui existait, il a donc créé DevPush, une alternative open source et auto-hébergeable qui fonctionne avec tous les langages de dev.

Vous connectez votre repo GitHub, vous pushez votre code, et boom, votre app est déployée, tout ça sans coupure de service, avec possibilité de retour en arrière instantané, des logs en temps réel, des environnements multiples, du SSL automatique…etc… Bref, tout ce que vous avez sur Vercel, mais sans être limité à Node.js.

DevPush supporte donc déjà Python avec Flask, Django et FastAPI et comme c’est basé sur Docker, n’importe quel langage peut tourner dessus. Node.js, PHP, Ruby, Go, Rust… ce que vous voulez. Y’a juste à créer un conteneur Docker et c’est parti.

Ce qui est cool, c’est surtout que vous pouvez l’héberger vous-même par exemple sur un VPS… Vous gardez ainsi le contrôle de vos données sans enfermement propriétaire ni mauvaises surprises sur la facture.

Pour l’installation c’est très simple puisqu’il suffit de lancer un script bash et en 5 minutes c’est en place sur votre serveur Ubuntu ou Debian. Vous créez ensuite votre premier projet, vous liez votre repo GitHub, et vous pushez. DevPush détecte alors automatiquement le framework Python, construit l’image Docker, et déploie l’app.

Chaque push sur GitHub déclenche alors un nouveau build et vous pouvez mapper des branches à des environnements différents. Par exemple, la branche main en production, staging en préproduction, dev en développement et DevPush gère aussi les variables d’environnement de manière sécurisée, avec du chiffrement.

Les logs de build et de runtime sont également streamés en temps réel dans l’interface ce qui permet de voir exactement ce qui se passe pendant le déploiement. Comme ça, si une build plante, vous avez toutes les infos pour débugger et si vous voulez revenir en arrière, vous pouvez faire un rollback sur le commit précédent en 1 click !

DevPush génère aussi une URL de preview pour chaque déploiement ce qui permet de tester votre app avant de la mettre en prod, et quand vous êtes prêt, vous mappez ça avec votre domaine custom et DevPush s’occupe du certificat SSL automatiquement via Let’s Encrypt.

Évidemment, ce projet est encore jeune et le dev a prévu d’ajouter pas mal de nouvelles fonctionnalités comme la gestion de bases SQLite, le stockage persistant, le monitoring des ressources, le scaling, des tâches cron… mais encore un peu de patience…

Bref, si vous faites du Python ou autre chose et que vous en avez marre de gérer des serveurs à la main ou de payer un abonnement super cher sur une plateforme managée à la con, DevPush mérite le coup d’œil !

Source

Microsoft continue sa guerre contre les comptes locaux Windows 11...

Par : Korben
7 octobre 2025 à 15:00

Putain, ils sont relous chez Microsoft ! Vous vous souvenez quand Microsoft a supprimé la commande oobe\bypassnro en mars dernier ? Cette petite astuce permettait tout simplement d’installer Windows 11 sans compte Microsoft et sans connexion internet. Les geeks ont alors râlé pendant 48 heures, puis quelqu’un a découvert une nouvelle parade : start ms-cxh:localonly. C’est une commande magique qu’il suffisait de taper pendant l’installation (Shift+F10, vous connaissez la manip..) pour contourner l’obligation d’avoir un compte en ligne.

Eh bien devinez quoi ? Microsoft vient de colmater cette “faille” aussi.

Bref, dans une nouvelle build test de Windows 11 publiée le 6 octobre dernier, Amanda Langowski du Windows Insider Program a annoncé officiellement que toutes les méthodes connues pour créer un compte local pendant l’installation sont en train d’être supprimées. La raison officielle c’est que ces mécanismes contourneraient des étapes critiques de configuration et laisseraient des appareils pas complètement configurés.

Mouais, ça sent un peu le prétexte bidon pour justifier une décision déjà prise depuis longtemps, vous ne trouvez pas ?

Concrètement, si vous essayez maintenant la commande start ms-cxh:localonly sur les nouvelles versions, elle réinitialisera simplement le processus d’installation et vous ramènera au point de départ. Bref, game over, Microsoft a gagné cette bataille.

Après vous allez me dire mais alors pourquoi tant de haine de la part des utilisateurs contre ce fichu compte Microsoft ??

Et bien déjà, il y a cette histoire débile du nom de dossier utilisateur car quand vous créez un compte Microsoft, Windows 11 génère automatiquement un nom de dossier à partir de votre adresse email. Donc c’est jamais ce qu’on veut, même si maintenant avec cette update, on peut d’après ce que j’ai compris régler ça à l’aide d’une commande un peu planquée.

Ensuite, il y a la question de contrôle car un compte Microsoft, c’est la synchronisation automatique de vos paramètres, de vos données, de votre historique. Du coup, c’est Edge qui s’impose, c’est Bing qui devient votre moteur de recherche par défaut, c’est OneDrive qui se synchronise que vous le vouliez ou non. Alors pour quelqu’un qui veut juste installer Windows proprement, sans toute cette couche de services Microsoft, c’est l’enfer !

Et je ne parle même pas des techos qui installent des dizaines de machines pour des clients. Faut se créer un compte Microsoft temporaire à chaque fois, puis le supprimer, puis reconfigurer… C’est du temps perdu pour rien. Le compte local, c’était simple, rapide, et efficace.

Mais bon Microsoft s’en fout royalement. Pour eux, Windows 11 est devenu surtout un portail vers leur écosystème de merde et plus vraiment un OS qui vous appartient vraiment. Vous payez votre licence, certes, mais la vraie valeur pour Microsoft, c’est que vous soyez connecté à leurs services. Tout ce qui est données de télémétrie, habitudes d’utilisation, publicités ciblées dans le menu Démarrer…etc, tout ça ne fonctionne qu’avec un compte en ligne.

Mais bon, rassurez-vous, il reste encore des solutions. Enfin, pour l’instant…

Rufus , l’outil de création de clés USB bootables, propose toujours des options pour créer une installation Windows 11 sans compte Microsoft. Vous pouvez aussi passer par des modifications du registre pendant l’installation, mais c’est un peu plus technique. Et si vous avez Windows 11 Pro ou Enterprise, l’option “Domain join” permet encore de créer un compte local, mais pour combien de temps ?

Pour le moment, Microsoft s’attaque aux méthodes faciles, celles que monsieur et madame tout-le-monde peuvent utiliser en suivant un tuto, mais je ne serais pas surpris que dans 6 mois, Microsoft s’attaque aussi à Rufus, à Flyoobe ou aux ISO modifiées.

C’est dommage je trouve car ce qui faisait le charme de Windows depuis toujours c’était justement de pouvoir le bidouiller jusqu’à l’os. En plus pour une boite qui se présente comme champion de l’open source depuis quelques années, c’est un move un peu bizarre… WSL pour faire tourner Linux sous Windows, VSCode qui est devenu l’éditeur de code préféré de la planète, GitHub racheté et mis à disposition gratuitement… C’est cool, mais côté Windows pur, ils font l’exact l’inverse de tout ça en verrouillant un max !

Rassurez-vous, Microsoft n’est pas le seul à suivre cette mauvaise pente… Apple aussi pousse de plus en plus iCloud sur macOS et je ne vous parle pas de Google qui rend ses services quasi-inutilisables sans compte. Bref, tout devient “service en ligne” même quand ça ne devrait pas l’être et ce PC qu’on possédait vraiment, celui sur lequel on configurait comme on voulait tout ce qu’on voulait est en train de disparaitre.

Bien sûr, vous pourrez toujours compter sur moi pour que je vous partage des astuces ou des outils pour contourner toutes ces limitations techniques à la con mais franchement, c’est fatigant. Je comprends que Linux fasse chavirer de plus en plus de cœurs…

En attendant, vous l’aurez compris, direction Rufus pour installer Windows 11 avec un compte local. Et dépêchez-vous avant que Microsoft décide que ce sera la prochaine cible à abattre !

Source

Redis - Une simple faille et c'est 75% du cloud qui devient le maillon faible

Par : Korben
7 octobre 2025 à 09:50

Comme vous le savez, Redis c’est un peu le champion du cache mémoire. C’est rapide, c’est efficace, tout le monde l’utilise mais surtout, ça tourne dans 75% des environnements cloud. En gros, 3 serveurs sur 4 dans le cloud l’utilise…

Cool ? Oui sauf quand une faille critique de sécurité pointe le bout de son nez ! Et pas une petite faille, mes amis ! Une faille notée 10 sur 10 en gravité, qui permet d’exécuter du code à distance sur les serveurs.

Estampillée CVE-2025-49844, et joliment baptisée RediShell, cette faille en elle-même est assez technique puiqu’elle repose sur un bug Use-After-Free dans l’interpréteur Lua intégré à Redis. En gros, un attaquant authentifié peut envoyer un script Lua malveillant qui vient manipuler le garbage collector, provoque un accès mémoire après libération, et permet ainsi d’exécuter du code arbitraire sur le serveur.

C’est de la RCE complète salade tomates oignons, avec sauce système compromis !

Le truc, c’est que ce bug dormait dans le code depuis 13 ans dès que Redis a intégré Lua en 2012 dans la version 2.6.0. Donc pendant tout ce temps, des millions de serveurs Redis dans le monde entier avaient cette vulnérabilité activée par défaut.

Et les chiffres donnent le vertige car d’après les scans de Wiz Research, environ 330 000 instances Redis sont exposées directement sur Internet. Et sur ces 330 000, au moins 60 000 n’ont même pas d’authentification activée. Donc autant dire qu’elles sont ouvertes à tous les vents et que les serveurs qui se cachent derrière aussi…

Toute l’infrastructure cloud moderne repose sur une poignée de briques open source critiques, et ça marche tellement bien qu’on en met partout et on finit souvent par oublier à quel point c’est fragile… On l’a déjà vu par exemple avec Log4Shell qui a touché des millions de serveurs Java en 2021, puis avec Heartbleed dans OpenSSL en 2014. Et on a failli le voir avec la backdoor XZ Utils découverte in extremis en 2024.

À chaque fois, c’est le même schéma où un composant open source critique, utilisé partout, et maintenu par une équipe minuscule (souvent 1 à 5 personnes), se retrouve avec un bug qui expose des pans entiers de l’infrastructure mondiale d’Internet… Argh !

Maintenant, la bonne nouvelle , c’est que Redis a publié des patchs pour toutes les versions maintenues : 6.2.20, 7.2.11, 7.4.6, 8.0.4 et 8.2.2. Donc si vous utilisez Redis, c’est le moment de mettre à jour !! Et pendant que vous y êtes, activez aussi l’authentification avec la directive requirepass, et désactivez les commandes Lua si vous ne les utilisez pas. Vous pouvez faire ça via les ACL Redis ou simplement en révoquant les permissions de scripting.

La découverte de RediShell a été faite par Wiz Research lors du Pwn2Own de Berlin en mai 2025. Alerté, Redis a publié son bulletin de sécurité le 3 octobre dernier, et Wiz a rendu public les détails le 6 octobre. Une Timeline propre, une divulgation responsable, bref tout s’est bien passé de ce côté-là…

Maintenant pour réduire ce genre de risque à terme, je pense que ce serait cool si les géants d’Internet finançaient un peu plus directement les mainteneurs de ces briques logiciels essentielle, ainsi que des audits de l’ OpenSSF car pour le moment, on est loin du compte ! Redis est patché, heureusement, mais on sait aussi que la prochaine faille critique dans un de ces composants critiques, c’est une nouvelle fois, juste une question de temps…

Source

CodeMender - L'IA de DeepMind qui patche vos failles de sécu toute seule

Par : Korben
7 octobre 2025 à 09:17

Je sais pas si vous avez vu ça hier mais Google DeepMind vient de sortir CodeMender , un agent IA qui repère et corrige automatiquement les failles de sécurité dans votre code. L’outil analyse les vulnérabilités, génère les patches, vérifie qu’ils cassent rien, et soumet le tout aux mainteneurs de projets open source.

D’après leurs premiers retours, en 6 mois, CodeMender a déjà upstreamé 72 correctifs de sécurité sur des projets qui comptent jusqu’à 4,5 millions de lignes de code.

Pour bien comprendre comment ça fonctionne, CodeMender fonctionne sur deux modes. Il y a le mode réactif qui patche instantanément les nouvelles vulnérabilités découvertes, avec de l’analyse de programme avancée et un système multi-agents qui évalue la correction sous tous les angles. Et le mode proactif qui réécrit le code existant pour utiliser des structures de données et des APIs plus sécurisées, en appliquant par exemple des annotations de compilateur comme -fbounds-safety qui ajoutent des vérifications de limites automatiques.

L’outil s’appuie sur Gemini Deep Think , l’un des modèles de raisonnement avancé de Google et CodeMender combine plusieurs techniques d’analyse : static analysis pour repérer les patterns suspects dans le code source, dynamic analysis pour observer le comportement à l’exécution, fuzzing pour balancer des inputs aléatoires et voir ce qui casse, differential testing pour comparer le code modifié avec l’original, et des solveurs SMT pour vérifier formellement certaines propriétés du code.

Le truc intéressant avec CodeMender, c’est le process de validation. L’agent utilise ce qu’ils appellent un “LLM judge” qui vérifie que le patch proposé ne casse pas les fonctionnalités existantes. Le système compare l’original et la version modifiée, détecte les différences, et valide que le changement corrige bien la vulnérabilité sans y introduire des régressions. Et si un problème est détecté, CodeMender s’auto-corrige et retente sa chance.

Par exemple, CodeMender a bossé sur la libwebp , une bibliothèque de compression d’images utilisée un peu partout. L’IA ainsi après analyse, appliqué des annotations -fbounds-safety sur certaines parties du code et quand ces annotations sont présentes, le compilateur ajoute alors automatiquement des vérifications de limites qui empêchent un attaquant d’exploiter un buffer overflow ou underflow pour exécuter du code arbitraire. Ce n’est donc pas juste un patch ponctuel, mais une vraie protection structurelle contre toute une classe de vulnérabilités.

Les 72 patches déjà soumis couvrent des projets open source variés, certains vraiment massifs avec plusieurs millions de lignes et les patches générés par CodeMender passent par une review humaine avant d’être définitivement validés. Pour le moment, les chercheurs de DeepMind contactent un à un les mainteneurs des projets pour leur proposer les correctifs mais l’objectif final c’est de sortir CodeMender sous la forme d’un outil utilisable par tous les dev.

Le process de validation de CodeMender vérifie quatre critères sur chaque patch : il doit corriger la cause racine de la vulnérabilité, être fonctionnellement correct, ne provoquer aucune régression dans les tests existants, et respecter les conventions de style du projet. C’est donc pas juste du patching bourrin, car l’outil essaie de générer du code qui s’intègre proprement dans la base existante.

Ce qui différencie CodeMender d’autres outils de static analysis classiques, c’est surtout l’autonomie complète. Des outils comme Coverity ou SonarQube sont très cools car ils détectent les vulnérabilités et vous disent où elles sont, mais c’est à vous de les corriger. Alors que CodeMender va jusqu’au bout : détection, génération du patch, validation, et soumission. Le système gère aussi la complexité de très gros projets, ce qui est pas donné à tous les outils d’analyse.

Bon, évidemment, pour l’instant Google commence prudemment mais comme je vous le disais, l’idée à terme, c’est que CodeMender tourne en continu sur vos repos, détecte les nouvelles CVE qui matchent avec votre code, génère les patches, et vous les propose directement dans vos PR. Un peu comme un Dependabot mais pour les failles de sécu…

J’ai hâte que ça sorte en public !

Source

À partir d’avant-hierFlux principal

Hyperswitch - La plateforme d'orchestration de paiements open source

Par : Korben
6 octobre 2025 à 18:31

Vous connaissez le job de payment engineer ? Ce métier n’existait même pas il y a 3 ans et aujourd’hui, les paiements en ligne sont devenus tellement complexes qu’il existe carrément une nouvelle catégorie de développeurs… Et au centre de cette petite révolution, il y a Hyperswitch , un projet open source qui est en train de servir de base à toute une génération de spécialistes des paiements.

Sorti en 2022, Hyperswitch est une plateforme d’orchestration de paiements écrite en Rust. Le pitch marketing vous dira que c’est le “Linux des paiements”, un outil modulaire, flexible, open source, mais dans les faits, ça permet surtout de connecter votre boutique en ligne à +50 processeurs de paiement différents via une seule API… Stripe, Adyen, PayPal, tout ce que vous voulez.

Le projet est développé par Juspay, une boîte indienne qui gère déjà les paiements de 400 entreprises et traite 175 millions de transactions par jour et quand ils ont décidé d’open-sourcer leur infrastructure, ils ont vraiment tapé dans le mille ! Rien que le dépôt GitHub affiche maintenant plus de 36 000 étoiles, ce qui est assez dingue pour un outil d’infrastructure B2B.

Et cela arrive au bon moment parce que les paiements en ligne sont devenus un cauchemar technique. Entre les différents processeurs, les méthodes de paiement locales (UPI en Inde, WeChat Pay en Chine, Bancontact en Belgique), les réglementations qui changent, les taux d’autorisation qui varient selon les pays, les frais cachés qui s’accumulent et les webhooks qui plantent au pire moment, il faut vraiment être un spécialiste pour s’y retrouver.

C’est un peu ce qui s’est passé avec le terme DevOps il y a 10 ans. J’sais pas si vous vous souvenez, mais au début c’était juste un buzzword. Puis Docker et Kubernetes sont arrivés, la complexité a explosé, et boom, aujourd’hui tout le monde cherche des ingés DevOps. Même délire avec les “data engineers” quand les boîtes ont commencé à avoir des pétaoctets de données à gérer.

Hé bien les paiements suivent la même trajectoire. Vous ne pouvez plus juste intégrer Stripe et oublier le problème. Si vous faites du volume, vous devez optimiser vos coûts (car les frais peuvent varier de 1 à 3% selon le processeur), améliorer vos taux d’autorisation (parfois 5 à 10 points de différence entre processeurs), gérer le retry intelligent quand une carte est refusée, faire de la réconciliation automatique…etc.

Bref, vous avez besoin d’un spécialiste.

Et c’est exactement ce que fait Hyperswitch qui indirectement forme des ingénieurs en paiement, car quand vous passez 6 mois à bidouiller Hyperswitch , à comprendre comment fonctionne le routing intelligent ou la réconciliation automatique, vous devenez au bout d’un moment spécialiste des paiements.

C’est un peu le même coup qu’a fait Red Hat avec Linux, ou HashiCorp avec Terraform. Vous créez une communauté de gens qui connaissent votre outil à fond, et les membres de cette communauté deviennent ensuite vos meilleurs ambassadeurs et des experts d’un domaine qui recrute à tour de bras. Hyperswitch surfe donc sur cette vague en proposant son outil en self hosting pour l’auto-hébergement ou du managé qu’ils gèrent pour vous. Et c’est clairement un business model qui a fait ses preuves.

Bref, si vous êtes développeur et que vous cherchez une niche où vous spécialiser, les paiements c’est visiblement un secteur qui monte. Et comme Hyperswitch est open source, vous pouvez vous former gratuitement en installant leur stack. Au pire, vous aurez appris quelques trucs utiles et au mieux, vous découvrirez un nouveau métier…

Un incendie et pas de backup - La Corée du Sud perd 858 To de données gouvernementales

Par : Korben
6 octobre 2025 à 18:06

Vous vous souvenez de cette règle de base en informatique, que je vous rabâche régulièrement, et qui dit de toujours avoir plusieurs sauvegardes de vos données critiques ?

Hé bien apparemment, le gouvernement sud-coréen a zappé ce cours, car le 26 septembre dernier, un incendie s’est produit au centre de données NIRS (National Information Resources Service) à Daejeon et a cramé 858 téraoctets de fichiers gouvernementaux . Et y’a pas de backup. Nada.

Le feu a démarré pendant une opération de maintenance sur une batterie lithium-ion dans laquelle une cellule a lâché , déclenchant ce qu’on appelle un emballement thermique… En gros, la batterie s’est transformée en bombe incendiaire et le brasier s’est propagé dans la salle serveur du cinquième étage, faisant tomber 647 services en ligne gouvernementaux d’un coup. Parmi eux, 96 systèmes critiques ont été directement détruits, et 551 autres ont été coupés préventivement pour éviter que la chaleur les bousille aussi.

Le système qui a morflé le plus, c’est G-Drive, le cloud de stockage utilisé par les fonctionnaires sud-coréens depuis 2018. Environ 750 000 employés du gouvernement central peuvent stocker leurs documents de travail dessus, mais seulement 125 000 l’utilisaient vraiment. Chacun disposait d’environ 30 Go d’espace de stockage, ce qui fait qu’au total le système contenait 858 To de données de travail accumulées sur huit ans.

Snif…

Mais attendez, je ne vous ai pas encore donné la raison pour laquelle il n’y avait aucune sauvegarde externe. En fait, leur G-Drive est conçu comme un système de stockage haute capacité, mais basse performance, et ils ont des contraintes réglementaires qui imposent un stockage exclusif sur cette plateforme afin d’éviter les fuites de données.

Autrement dit, pour se prémunir contre les risques de fuite, ils ont créé un point de défaillance unique. Bravo !

Du coup, quand l’incendie a détruit les serveurs physiques, tout est parti en fumée. Huit ans de documents de travail pour certains ministères, qui ont été complètement perdus… C’est surtout le ministère de la Gestion du Personnel qui s’est pris la claque la plus violente parce qu’il avait rendu obligatoire le stockage de tous les documents sur G-Drive uniquement. D’autres organismes comme le Bureau de Coordination des Politiques Gouvernementales, qui utilisaient moins la plateforme, ont moins souffert.

Bref, les autorités essaient maintenant de récupérer ce qu’elles peuvent depuis d’autres sources. Y’a des petits bouts de fichiers sauvegardés localement sur les ordinateurs personnels des fonctionnaires le mois précédent, les emails, les documents officiels validés et les archives papier… Bref, pour tous les documents officiels passés par des processus d’approbation formels, il y a un espoir de récupération via leur système OnNara (un autre système gouvernemental qui stocke les rapports finaux), mais pour tout le reste (brouillons, fichiers de travail en cours, notes internes…etc.) c’est mort de chez mort…

Le ministère de l’Intérieur a expliqué que la plupart des systèmes du centre de Daejeon sont normalement sauvegardés quotidiennement sur des équipements séparés dans le même centre ET dans une installation de backup distante. Mais G-Drive, lui, n’avait pas, comme je vous le disais, cette possibilité.

Évidemment, cet incident a déclenché une vague de critiques acerbes sur la gestion des données gouvernementales sud-coréennes. Un système de backup en miroir en temps réel qui duplique le serveur principal pour assurer la continuité de service en cas de panne, était complètement absent de l’infrastructure et pour un système aussi critique que le stockage de documents de 750 000 fonctionnaires, c’est difficilement compréhensible.

Voilà donc le gouvernement estime qu’il faudra jusqu’à un mois pour récupérer complètement les 96 systèmes de base directement endommagés par l’incendie et pour G-Drive et ses 858 To de données, par contre, c’est une autre histoire, car sans backup, les données sont définitivement perdues.

De plus, cet incendie déclenche actuellement un genre d’examen mondial des batteries lithium-ion dans les datacenters et des architectures de plan de reprise d’activité (PRA). Les batteries lithium-ion sont en effet utilisées partout pour l’alimentation de secours, mais leur risque d’emballement thermique en cas de défaillance pose de sérieuses questions sur leur place dans des infrastructures critiques…

Bref, je souhaite bon courage aux Coréens, et j’espère que tout le monde saura tirer des enseignements de ce malheureux incendie…

Source

ImgInn - Pour consulter anonymement Instagram

Par : Korben
6 octobre 2025 à 14:34

Besoin d’aller voir le profil Instagram de quelqu’un en scrèd, sans que cette personne ne le sache ? Hé bien plus besoin de vous créer un faux compte grâce à ImgInn . En effet, ce site vous laisse surfer sur Instagram de manière totalement anonyme, sans même avoir besoin de vous connecter.

Vous allez sur ImgInn, vous tapez le nom d’utilisateur Instagram qui vous intéresse, et hop, vous accédez à tout son contenu public : posts, stories, Reels, highlights et même les photos de profil. Vous pouvez ainsi mater tout ça tranquillement sans laisser de traces.

En plus de la visualisation anonyme, ImgInn permet également de télécharger tout le contenu que vous voulez. Photos en résolution originale, vidéos en HD, stories qui vont disparaître dans 24 heures, vous pouvez tout récupérer en quelques clics. Par contre, ça ne fonctionne pas avec les comptes verrouillés (non publics).

Notez quand même qu’Instagram interdit formellement dans ses conditions d’utilisation le scraping de données et l’usage d’outils tiers qui imitent les fonctionnalités de la plateforme, donc sachez le, ImgInn viole clairement les règles d’Instagram.

Mais bon, quand on veut rester anonyme, notamment auprès de Meta, la question elle est vite répondue ^^. Notez aussi que même que si le site prétend garantir votre anonymat, il collecte forcément certaines données pour fonctionner comme votre adresse IP, les comptes que vous consultez, etc. Et bien sûr, rien ne garantit que ces informations restent vraiment confidentielles ou qu’elles ne soient pas partagées avec des tiers. Donc à utiliser avec parcimonie.

Et si ImgInn vous branche pas, y’a toute une ribambelle d’autres viewers du même genre. Dumpor propose par exemple une interface assez complète avec recherche par profil, localisation ou hashtag. SmiHub sépare carrément la partie visualisation et téléchargement en deux menus. Picuki va même jusqu’à intégrer des outils d’édition de photos. Pixnoy se concentre surtout sur les Reels, et Storistalker prétend même récupérer les posts supprimés.

A voir donc… Et pour me suivre sur Instagram c’est par ici !

Payloads All The Things - La ressource préférée des hackers éthiques

Par : Korben
6 octobre 2025 à 12:31

En octobre 2016, un développeur suisse connu sous le pseudo swisskyrepo a commencé à compiler ses notes de pentester dans un dépôt GitHub. Rien de révolutionnaire au départ, juste un mec qui en avait marre de chercher la même injection SQL pour la 50ème fois dans ses notes. Mais ce qui est cool c’est qu’au fur et à mesure des années, il a structuré ça proprement avec une section par type de vulnérabilité, des README clairs, des fichiers Intruder pour Burp Suite, des exemples concrets…etc.

Ça s’appelle Payloads All The Things, et c’est accessible ici .

Ce qui était donc au départ un simple carnet de notes personnel est devenu THE référence mondiale en cybersécurité offensive avec des centaines de contributeurs qui ajoutent quotidiennement de nouvelles techniques. C’est devenu la pierre de Rosette (pas la charcuterie, renseignez-vous !! lol) de la sécurité offensive, celle qu’on cite dans tous les cours de certification OSCP, celle qu’on consulte pendant les CTF, celle qu’on recommande aux débutants…

Avant PayloadsAllTheThings, le savoir en cybersécurité offensive était soit verrouillé dans des formations hors de prix à 5 000 boules, soit éparpillé dans des recoins obscurs du web, soit jalousement gardé par des pentesters qui pètent plus haut que leur cul… Des pêt-testeurs quoi…

SwisskyRepo a d’ailleurs fait un choix radical qui est tout mettre en open source, sous licence MIT, accessible à tous. Et le contenu, c’est du lourd !

On y trouve tout ce dont un pentester peut avoir besoin : SQL Injection avec toutes les variantes possibles (MySQL, PostgreSQL, Oracle, MSSQL…), XSS avec les bypasses de filtres, SSRF avec les techniques d’exfiltration, Command Injection, OAuth Misconfiguration, GraphQL Injection, File Inclusion, Authentication Bypasses, API Key Leaks…etc… La liste est hallucinante.

Chaque section est structurée comme un cookbook technique avec le contexte de la vulnérabilité, les payloads classés par type, les bypasses pour contourner les protections, des exemples concrets, et les références vers les CVE ou les articles de recherche.

Par exemple, si vous voulez exploiter un serveur Redis mal configuré, il y a une section pour ça. Si vous voulez comprendre comment contourner un WAF, pareil ! Et si vous cherchez à pivoter dans un réseau interne après avoir compromis une machine, tout est documenté en anglais sur ce site.

Mais swisskyrepo ne s’est pas arrêté là. Son projet a muté en écosystème puisqu’il a aussi créé InternalAllTheThings , un wiki dédié au pentesting interne et aux attaques Active Directory (Certificate Services, Enumeration, Group Policies, Kerberos attacks, Hash manipulation, Roasting techniques…).

Et également HardwareAllTheThings , le même genre de wiki mais sur la sécurité hardware et IoT : JTAG, SWD, UART pour les interfaces de debug, firmware dumping et reverse engineering, Arduino, Raspberry Pi, Flipper Zero pour les gadgets, Bluetooth, CAN, WiFi, RFID/NFC pour les protocoles, SDR et GSM pour la radio, fault injection pour les attaques par canal auxiliaire…

Bref, tout ce qu’il faut savoir pour hacker des objets connectés, des cartes à puce ou des systèmes embarqués.

Du coup, avec cette famille complète de “AllTheThings”, on couvre toute la surface d’attaque moderne, le web, l’infra interne et le hardware. Un pentest complet peut donc se faire avec ces trois ressources comme base de connaissance. Chouette non ?

Bien, sûr c’est à utiliser dans un cadre légal, sinon, vous irez en prison ! C’est pas un forum de script kiddies qui échangent des zero-days volés, c’est une vraie bibliothèque technique pour les professionnels et les étudiants en cybersécurité.

Grâce à ça, un étudiant motivé peut devenir compétent en sécurité offensive en quelques mois juste avec des ressources gratuites : PayloadsAllTheThings pour les techniques, TryHackMe ou HackTheBox pour la pratique, les blogs de chercheurs pour les analyses approfondies, les conférences enregistrées (DEF CON, Black Hat) pour rester à jour.

Le savoir se libère, n’en déplaise aux relous ! Moi je trouve que c’est cool, car ça vulgarise les connaissances, ça les mets à la portée de tous et c’est tant mieux.

Donc un grand merci à SwisskyRepo d’avoir lancé ce projet !

Test de la nouvelle Logitech MX Master 4 : la souris ultime

Par : Korben
6 octobre 2025 à 11:21

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

La Logitech MX Master 4 apporte quelques ajustements bien sentis à une formule déjà très aboutie. Haptique, gestes, ergonomie : tout est là pour une expérience fluide et efficace, que ce soit sur Mac ou PC. Je l’ai testé ici sur Mac, avec un constat simple : difficile de trouver mieux.

Une évolution, pas une révolution

Avec la MX Master 4 , Logitech ne bouleverse pas sa recette. Et tant mieux. Le design reste globalement le même que celui de la 3S : une souris sculptée pour les droitiers, pensée pour épouser la main sans effort. Les matériaux ont été revus : fini les revêtements soft-touch qui s’abîment vite et étaient vite sales, place à des plastiques plus bruts mais plus durables. Les clics sont encore plus silencieux, les boutons mieux positionnés, et la glisse gagne en souplesse grâce à des patins PTFE beaucoup plus larges. C’est une mise à jour maîtrisée, centrée sur l’usage et l’optimisation.

Screenshot

L’Action Ring change la donne

La vraie nouveauté, c’est l’Action Ring. Un menu circulaire qui s’affiche autour du curseur quand on presse le nouveau bouton sous le pouce, baptisé Haptic Sense Panel. On y place jusqu’à huit raccourcis personnalisés : apps, dossiers, fonctions système… Le retour haptique, ultra satisfaisant, vient valider les actions avec une petite vibration, discrète mais efficace. Le tout s’intègre parfaitement à macOS et Windows via Logi Options+, qui permet de créer des profils différents selon les applications. À l’usage, on gagne du temps. Beaucoup.

Une personnalisation très poussée

Comme les modèles précédents, la MX Master 4 mise sur la personnalisation : sept boutons configurables, deux molettes (verticale motorisée, horizontale crantée), capteur 8 000 DPI, compatibilité multi-appareils, et désormais une couche haptique ajustable.

On peut choisir l’intensité des vibrations, désactiver certaines fonctions, ou encore créer des macros avec les Smart Actions. Pour aller plus loin, un marketplace propose des plugins selon les apps : Adobe, Zoom, Excel, Figma, etc. Peu nombreux pour l’instant, mais en développement.

Screenshot

Mac vs PC : rien de majeur

La version Mac, testée ici, se distingue surtout par ses coloris exclusifs (Space Black, White Silver). Elle est livrée sans dongle USB-C (présent sur la version PC). Mais à l’usage, aucune différence en termes de performance ou de fonctions, contrairement à la MX Master 3S qui était moins performantes en Bluetooth (perso j’avais acheté le dongle à part). Dans tous les cas, la souris est pleinement compatible avec macOS ET Windows.

Une autonomie solide et une vraie réparabilité

Côté autonomie, Logitech annonce 70 jours sur une charge complète. Et bonne nouvelle : on peut recharger tout en continuant d’utiliser la souris (contrairement à la Magic Mouse…). Autre point à noter : la facilité de démontage. Pas besoin d’arracher les patins pour accéder aux vis, et des pièces comme la batterie seront disponibles en remplacement. Une rareté sur ce segment.

On en dit quoi ?

La MX Master 4 n’est pas une révolution, mais c’est clairement une des meilleures souris du marché pour un usage pro ou créatif. Confort, silence, fluidité, personnalisation : tout y est. L’Action Ring est au final un vrai plus une fois adopté, et l’intégration au système macOS est bien pensée. Même si vous avez une 3S, ça peut valoir le coup d’investir, croyez-moi ! Reste juste à espérer qu’un jour Logitech pense aux gauchers. Elle est dispo sur Amazon en cliquant ici !

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ou lire tous les tests que je publie dans la catégorie “Gadgets Tech” , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Vous avez 18 mois avant de devenir complètement cons

Par : Korben
6 octobre 2025 à 10:59

Ce matin, je suis tombé sur cet article de Derek Thompson, journaliste chez The Argument, titré “ Vous avez 18 mois ”. Ça a évidemment attiré ma curiosité donc j’ai lu l’article et son message est sans appel : Le vrai danger de l’IA, c’est pas qu’elle nous remplace. C’est qu’on arrête de penser par nous-mêmes.

Car oui, les chiffres sont là, et ils font peur. Les scores de lecture aux États-Unis sont au plus bas depuis 32 ans selon le Nation’s Report Card de janvier 2025 . La lecture de livres pour le plaisir a ainsi chuté de 40% depuis les années 2000. Des étudiants arrivent dans des universités d’élite sans avoir jamais lu un livre en entier et apparemment, personne ne s’en inquiète vraiment, car tout le monde (moi y compris) est trop occupé à demander à ChatGPT de résumer les trucs qu’on devrait lire avec nos cerveaux.

Derek compare la lecture et l’écriture à la potion magique qui nous permet d’accéder à la pensée symbolique profonde . En gros, lire et écrire, c’est pas juste des compétences, c’est aussi ce qui nous permet de penser profondément. Et on est en train de jeter ce super pouvoir aux orties parce que c’est plus rapide de demander à une IA de faire le boulot à notre place.

Le truc, c’est que notre cerveau, c’est comme un muscle. Si on arrête de le faire bosser, il s’atrophie. Et avec les IA (et dans une moindre mesure avec les réseaux sociaux vidéo, genre TikTok), c’est exactement ce qu’on est en train de faire. On lui retire tous les exercices difficiles…

Lire un bouquin de 300 pages ? Pffff, trop long, on demande un résumé à l’IA. Écrire un texte argumenté ? Pffff, trop chiant, on le fait générer par ChatGPT. Réfléchir à un problème complexe ? Pfff, trop fatigant, on compte sur Macron pour nous le résoudre ou on balance la question à Claude.

Et le pire, c’est qu’on le fait consciemment. En tout cas, personnellement, j’en ai conscience et donc en ce moment je me suis remis un peu à la lecture pour essayer de conserver une bonne hygiène niveau matière grise. Comme moi, vous savez donc probablement qu’on est tous en train de se ramollir le cerveau, mais on continue parce que c’est tellement plus confortable. C’est la culture de l’optimisation poussée à l’extrême. On optimise notre code, nos workflows, notre vie… et maintenant on optimise notre cerveau pour qu’il en fasse le moins possible. De l’efficacité à court terme, mais un suicide cognitif à long terme.

Et ce qu’annonce Derek c’est que dans 18 mois, les IA auront peut-être notre niveau actuel de réflexion. Mais nous, on aura quel niveau ? Ce sont elles qui vont s’améliorer ou nous qui allons régresser pour nous mettre à leur niveau ?

Thompson parle de “deskilling” cognitif… On se déqualifie nous-mêmes. C’est comme si on allait à la salle de sport et qu’on demandait à quelqu’un d’autre de faire nos pompes. Et son parallèle avec la révolution industrielle est plutôt juste je trouve… Au XIXe siècle, les machines ont remplacé nos muscles. Les ouvriers qui faisaient des tâches physiques complexes ont été remplacés par des machines plus rapides et résultats, nos corps se sont atrophiés. On est physiquement plus faibles que nos ancêtres, c’est un fait et maintenant, ce même schéma se reproduit avec notre cerveau. L’IA remplace nos muscles mentaux, avec le même risque d’atrophie sauf que cette fois, c’est notre intelligence qu’on sacrifie sur l’autel de l’efficacité !

Il y a aussi un truc que personne ne dit, c’est l’IA conversationnelle, c’est une drogue cognitive. Ça a le même schéma addictif que les réseaux sociaux à savoir une réponse instantanée, une gratification immédiate, zéro effort. Tranquille mimil, sauf que les réseaux sociaux nous volaient notre temps alors que l’IA est en train de nous voler notre capacité à penser. On croit devenir plus productif, alors que finalement, on devient plus dépendant.

Alors que faire ? Derek ne propose pas de solution miracle, mais il a raison sur un point : Il faut voir la lecture et l’écriture comme du fitness mental.

Je ne pense pas qu’il faille boycotter l’IA comme tous ceux qui en ont peur et la diabolisent actuellement, car elle peut apporter beaucoup. Mais il faut apprendre à l’utiliser correctement, tout en préservant son hygiène mentale, sa pensée critique et son goût de l’effort.

Comme pour le sport, il faut donc s’entrainer, faire travailler notre cerveau, non seulement en lisant des livres, les articles de Korben.info ^^…etc. Mais aussi en écrivant pour générer une réflexion et des arguments qui souvent arrivent non pas avant, mais pendant le process d’écriture. Et je pense que c’est pareil pour les dev qui “vibe code”. C’est bien ça fait gagner du temps, mais si on veut conserver cette réflexion propre au code, il faut continuer au moins à lire et à comprendre ce code, et continuer à explorer des chemins de pensée profonde .

C’est chiant, c’est lent, c’est inconfortable, mais c’est le seul moyen de garder un cerveau fonctionnel.

Le vrai luxe de demain, ce ne sera plus d’avoir accès à l’IA, car tout le monde l’aura. Non, le vrai luxe, ce sera d’avoir encore un cerveau capable de penser en profondeur. Et ça, ça se bosse les amis !

Cloudflare veut tuer la pub - Bienvenue dans l'ère Net Dollar, le web au centime près avec

Par : Korben
4 octobre 2025 à 17:35

Vous gagnez combien avec la pub sur votre site ??

On est d’accord, c’est dérisoire, et pendant ce temps, Google et Facebook se gavent en revendant votre contenu et l’attention de vos lecteurs à leurs clients. Le modèle est cassé, tout le monde le sait , mais personne n’avait de solution viable… enfin, jusqu’à maintenant.

Matthew Prince, CEO de Cloudflare, vient en effet d’annoncer le lancement du Net Dollar , un stablecoin adossé au dollar américain conçu pour les micropaiements instantanés. Son objectif c’est donc de tuer le modèle publicitaire et le remplacer par du pay-per-use généralisé. Comme ça, terminé le “gratuit financé par la pub”, et bonjour le web à 0,01 euro l’article.

1 Net Dollar = 1 dollar US, puisque c’est un stablecoin adossé au dollar. Il n’y a donc pas la volatilité de Bitcoin et pas de spéculation. C’est vraiment fait pour les transactions, pas l’investissement.

Ainsi, chaque fois qu’un agent IA accède à votre contenu, il paie automatiquement quelques centimes de manière instantanée et cela peu importe où vous vous trouvez… Par exemple, vous êtes en France, un agent IA lit votre article au Japon, et hop vous recevez 0,01 dollar dans la seconde.

On évite ainsi les virements qui mettent du temps, les commissions abusives (coucou Paypal), les seuils minimums avant de prendre le pognon et si ça nous amuse, on peut même facturer 0,0001 dollar par requête API ce qui ne serait pas exemple pas possible avec Visa qui de toute façon prend 0,30 dollars de frais fixes. Là avec Net Dollar, on va pouvoir descendre à des fractions de centimes…

Par exemple, si je me tape dans le mois 50 000 agents IA qui viennent lire un de mes articles, et que je leur facture 0,01 euro par lecture, ça me fait 500 euros dans la poche. Et pour les dev, c’est pareil. Vous pouvez proposer une API gratuitement sans crouler sous les requêtes abusives. Là vous enclenchez un micro-paiement à 0,0001 dollar par requête, comme ça, chacun peut payer à la hauteur de sa consommation. Même chose pour les photographes ou les graphistes, quand une IA utilisera votre photo pour illustrer une de ces réponses….etc.

Bref, c’est plutôt cool pour les créateurs.

Maintenant reste à savoir qui va vraiment payer car ce n’est pas vraiment très clair ? Est ce uniquement les IA de OpenAI, Anthropic, Google qui vont passer à la caisse ? Ou est ce qu’à terme, les humains vont devoir créditer leur navigateur pour pouvoir surfer sur les sites web ? Honnêtement, je n’en sais rien mais si on tombe dans un monde où chaque site exige quelques centimes, je pense que chacun va y réfléchir à deux fois avant de cliquer sur un lien.

Et comme on est sur de la blockchain privée, je vous laisse imaginer le flot de données que ça va apporter à Cloudflare. Ils sauront exactement quel article vous avez lu, ou quel API vous avez utilisé. C’est pas forcement très cool.

Bref, je ne sais pas si le Net Dollar va révolutionner le web, finir de l’achever ou terminer comme toutes ces initiatives qui n’ont jamais décollé, mais à un moment, faudrait qu’on se pose la question de savoir si on préfère se farcir des bannières de pub ou payer 1 centime pour lire un article…

Source

Des scientifiques ont réussi à INVERSER le vieillissement

Par : Korben
3 octobre 2025 à 15:50

Je pense qu’on est tous d’accord… vieillir c’est inévitable.

Hé bien visiblement, l’Académie Chinoise des Sciences n’était pas d’accord et ils viennent de le prouver avec des singes. Oui, de vrais singes, et pas des modèles informatiques ou des cultures de cellules dans des boîtes de Petri. Leurs macaques crabiers ont rajeuni pour de vrai !

Pour parvenir à ce résultat, ils ont bidouillé des cellules souches humaines afin de les rendre résistantes à la sénescence. La sénescence, c’est quand vos cellules arrêtent de se diviser et se mettent en mode zombie. Elles ne sont pas mortes, mais elles foutent le bordel en balançant des molécules inflammatoires partout. En gros, elles font vieillir tout le reste.

Les chercheurs ont donc pris le gène FoxO3 , un des rares gènes associés à la longévité qui marche vraiment chez tous les organismes tels que les vers, les mouches, les souris et les humains. Et si vous avez la bonne version de ce gène, vous avez 1,9 fois plus de chances de vivre au-delà de 95 ans. Du coup, ils ont introduit deux petites mutations dans ce gène, et hop, nous voilà avec des cellules souches qui résistent au vieillissement.

Ils ont donc testé ça sur des macaques crabiers âgés de 19 à 23 ans. À l’échelle humaine, c’est comme des gens de 60 à 70 ans. Ainsi, durant 44 semaines, soit environ 3 ans en équivalent humain, ils ont injecté ces cellules toutes les deux semaines et le résultat est assez dingue.

Les singes traités ont retrouvé la mémoire, leur cerveau a arrêté de rétrécir, et leurs os se sont reminéralisés. Toutes analyses ont ainsi montré que plus de 50% des 61 types de tissus analysés ont rajeuni. Le système reproductif, la peau, les poumons, les muscles, l’hippocampe. Tout a pris un coup de jeune !!

Le plus impressionnant, c’est que les horloges épigénétiques, ces outils de machine learning qui analysent l’ADN pour déterminer votre âge biologique, ont estimé que les neurones immatures avaient rajeuni de 6 à 7 ans. Et les ovocytes de 5 ans. Pas mal pour 44 semaines de traitement.

Pour bien capter comment ça fonctionne, il faut comprendre que FoxO3, c’est un peu le chef d’orchestre de la résistance au stress cellulaire. Il active des gènes qui protègent vos télomères, ces petits capuchons au bout de vos chromosomes qui raccourcissent à chaque division cellulaire et il booste aussi la télomérase, l’enzyme qui rallonge les télomères. Chez les porteurs de la variante longévité de FoxO3 , on voit donc émerger une protection contre le raccourcissement des télomères et des niveaux plus élevés de télomérase.

En plus, FoxO3 gère le stress oxydatif. Vous ne le savez peut-être pas, mais vos cellules produisent des radicaux libres quand elles respirent, et ces trucs endommagent tout ! FoxO3 active donc des antioxydants pour faire le ménage. Il joue aussi un rôle dans l’autophagie, ce processus où vos cellules recyclent leurs composants défectueux. Bref, c’est un gène qui fait plein de trucs utiles pour pas vieillir trop vite.

Cette année, d’autres équipes ont aussi trouvé des cocktails chimiques qui inversent l’âge des cellules en moins d’une semaine, sans toucher à l’ADN. Et une autre étude a utilisé le microARN miR-302b pour réactiver des cellules sénescentes et leur faire retrouver leur fonction . Chez les souris, ça a augmenté la durée de vie médiane de 892 à 1029 jours.

38% de réduction du risque de mort, c’est pas rien.

Bon, évidemment, tout ça c’est en labo mais les chercheurs chinois rapportent qu’il n’y a eu aucun effet secondaire grave chez les singes, et les cellules modifiées semblent même avoir des propriétés suppressives de tumeurs. Mais bon, concernant les effets à long terme, on ne les connaît pas encore. Et passer des singes aux humains, c’est jamais aussi simple qu’on voudrait…

À noter que ce type de recherche ouvre aussi des perspectives pour traiter les maladies neurodégénératives. Bah oui, si vous pouvez rajeunir les neurones de 6 ans, vous pouvez peut-être ralentir Alzheimer ou Parkinson. Même chose pour l’ostéoporose, les maladies cardiovasculaires, toutes ces saloperies qui viennent avec l’âge.

En attendant, les sénolytiques, ces médicaments qui éliminent les cellules sénescentes, sont déjà en essais cliniques pour des maladies comme la fibrose pulmonaire et l’arthrose. Les inhibiteurs de SASP , qui ciblent les signaux inflammatoires des cellules zombies, sont aussi en court de test pour Alzheimer et le cancer. Bref, on commence à avoir plusieurs approches qui marchent.

Voilà, donc si vous vous demandiez si on pouvait vraiment inverser le vieillissement, bah la réponse est oui, apparemment on peut. Maintenant reste à voir si ça marche aussi bien chez les humains et surtout combien ça va coûter. Parce que bon, se faire injecter des cellules souches génétiquement modifiées toutes les deux semaines pendant des années, ça risque de ne pas être donné…

Source et image

Xeres - Pas de serveur, pas de compte… et pourtant ça marche !

Par : Korben
3 octobre 2025 à 14:49

Vous en avez marre de WhatsApp, Telegram ou Discord qui lisent vos messages, stockent vos données et décident de qui peut parler à qui ? Ça tombe bien car il existe une alternative radicale qui vient de sortir en version 1.0.

Ça s’appelle Xeres , et contrairement à tout ce que vous utilisez aujourd’hui, ça ne passe par aucun serveur. Que dalle.

Il s’agit d’un vrai réseau Friend-to-Friend, c’est à dire que vous ne vous connectez qu’aux gens que vous connaissez vraiment. Pas de serveur central qui pourrait tomber, être saisi par le FBI ou décider de vendre vos conversations à des annonceurs. Juste vous et vos potes, en direct, chiffrés de bout en bout avec du PGP v4 et du RSA 3072 bits. Votre IP est uniquement visible par vos amis directs, et si vous voulez parler à un ami de votre ami, ça passe par des tunnels anonymes.

Le truc, c’est que Xeres est compatible avec Retroshare , ce vieux de la vieille du P2P décentralisé qui existe depuis des années. Donc si vous avez des potes qui utilisent déjà Retroshare 0.6.6 ou plus récent, vous pouvez vous connecter à eux sans problème. C’est un peu comme si Signal et BitTorrent avaient eu un enfant qui aurait grandi dans les années 90 en écoutant du punk et en lisant des manifestes crypto-anarchistes.

Mais alors comment ça marche techniquement, me direz-vous ? Et bien c’est simple. Vous installez Xeres sur votre machine (Windows, Linux, macOS, ou même Android), vous générez votre identité cryptographique, et vous échangez vos certificats avec vos amis. Pas de login, pas de mot de passe à retenir, pas de numéro de téléphone à fournir. Juste un échange de clés comme au bon vieux temps.

Une fois connecté, vous avez alors accès à tout un tas de services décentralisés. Du chat bien sûr, mais aussi des salons de discussion, des forums, du partage de fichiers, et même la possibilité de discuter avec des gens que vous ne connaissez pas directement via les fameux tunnels anonymes dont je vous parlais. C’est votre propre petit bout d’Internet privé avec vos amis, quoi.

Cette nouvelle release qui vient de sortir apporte pas mal d’améliorations . Meilleures perf avec Java, support macOS restauré, stickers dans les chats, alias de discussion, et même un système de mise à jour automatique sous Windows. Les versions précédentes avaient déjà ajouté un client Android pour se connecter à distance à votre instance qui tourne chez vous, du support pour les architectures ARM sous Linux, et plein d’autres trucs sympas.

D’ailleurs, parlons un peu de cette histoire de Friend-to-Friend (F2F) vs P2P classique. Dans un réseau P2P normal, tout le monde connaît l’IP de tout le monde. Pratique pour partager des fichiers, mais niveau anonymat et vie privée, c’est moyen. Dans un réseau F2F , vous ne voyez que vos contacts directs, et le reste du réseau vous est invisible. Ça limite un peu la portée, mais ça renforce énormément la sécurité et l’anonymat.

Xeres va même plus loin en supportant les transports via Tor et I2P en mode client. Donc si vous voulez vraiment rester anonyme, vous pouvez faire passer toutes vos connexions par ces réseaux. Ainsi vos amis directs ne verront même pas votre vraie IP. Oui, c’est pour les paranos, mais c’est top !

Maintenant pour l’installer, rendez-vous sur la page de téléchargement et choisissez la version qui correspond à votre système. Il y a des installeurs pour Windows, des paquets .deb pour Ubuntu, des images DMG pour macOS (Intel et Apple Silicon), et même une image Docker si vous voulez faire tourner ça sur un serveur en mode headless.

Toutes les releases sont signées avec une clé PGP, donc vous pouvez vérifier que personne n’a trafiqué le fichier que vous téléchargez. Donc prenez 30 secondes pour vérifier la signature, ça vaut le coup pour un logiciel de communication chiffré.

Et une fois installé, vous verrez, l’interface est plutôt moderne avec plusieurs thèmes au choix. Rien à voir avec les vieilles interfaces des logiciels P2P des années 2000. C’est propre, c’est réactif, et ça utilise JavaFX pour l’accélération matérielle. Oui, c’est du Java moderne qui ne fait pas ramer votre machine.

Le projet est disponible en open source sur GitHub sous licence GPL-3.0.

Bref, l’idée derrière Xeres, c’est de promouvoir la liberté d’expression en créant une alternative aux plateformes centralisées qui peuvent censurer, surveiller ou tout simplement disparaître du jour au lendemain. C’est un peu radical, mais vu l’état actuel de la centralisation du web, c’est pas plus mal d’avoir ce genre d’alternative.

Vous trouverez toute la documentation sur le site officiel , avec des guides de démarrage, des explications sur l’architecture, et des options de ligne de commande pour ceux qui veulent pousser le truc plus loin. Il y a même un mode client/serveur pour que votre instance tourne en permanence chez vous et que vous puissiez vous y connecter depuis votre téléphone Android.

Sympa non ?

❌
❌