Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Lue - Lisez vos ebooks en audio dans le terminal

Pour en avoir testé quelques uns, je trouve que les lecteurs de livres audio, c’est jamais très pratique à utiliser. Heureusement, je viens de découvrir Lue , un lecteur d’ebooks qui lit vos livres à voix haute directement dans le terminal.

Bah oui, moi j’adore mon terminal.. Pas besoin de cliquer, pas d’interface laggy, pas de pub ni d’abonnement premium… On lance juste une commande et hop, la lecture du livre se lance. C’est ça que j’aime, quand la tech me fout la paix et fonctionne bien !

Le truc cool avec Lue, c’est que l’outil utilise Edge TTS de Microsoft par défaut. Oui, Microsoft qui fait un truc bien et gratuit, c’est foufou, mais en gros, ça permet de récupérer les voix ultra réalistes utilisées dans Edge sans payer un centime et sans même avoir Windows. Après si vous êtes un parano de la vie privée, vous pouvez aussi utiliser Kokoro TTS qui tournera à 100% en local sur votre machine.

Pour installer Lue, il vous faut d’abord FFmpeg, espeak et Antiword. Sous Mac c’est donc brew install ffmpeg espeak antiword``, et sous Linux sudo apt install ffmpeg espeak antiword, et sous Windows… bah vous allez sur le site de FFmpeg, espeak et antiword et vous galérez un peu comme d’hab.

Et après, c’est tout simple :

pip install git+https://github.com/superstarryeyes/lue.git

Et voilà, vous êtes prêts à transformer votre terminal en studio d’enregistrement de livres audio. Pour lancer la lecture d’un bouquin, c’est aussi simple que :

lue votre-livre.epub

Perso, j’aime beaucoup la synchronisation mot par mot que permet l’outil… Car pendant que la voix lit, le texte se surligne en temps réel dans le terminal. C’est hypnotisant, on dirait un karaoké pour rats de bibliothèques. Après vous pouvez mettre en pause avec p, ajuster la vitesse de lecture, naviguer dans les phrases avec j et k. C’est comme vim mais pour les oreilles.

Alors je sais que le TTS c’est pas toujours foufou, mais je vous invite à en tester plusieurs pour trouver celle qui vous plait le plus. Moi ma préférée, c’est fr-CH-ArianeNeural qui est hyper propre et assez classe. Vous pouvez lancer une lecture avec la voix comme ceci :

lue --voice "fr-CH-ArianeNeural" livre.epub

Voici la liste complète des voix disponibles que vous pouvez utiliser :

  • fr-BE-CharlineNeural (Female) - Belgique
  • fr-BE-GerardNeural (Male) - Belgique
  • fr-CA-AntoineNeural (Male) - Canada
  • fr-CA-JeanNeural (Male) - Canada
  • fr-CA-SylvieNeural (Female) - Canada
  • fr-FR-DeniseNeural (Female) - France
  • fr-FR-EloiseNeural (Female) - France
  • fr-FR-HenriNeural (Male) - France
  • fr-CH-ArianeNeural (Female) - Suisse
  • fr-CH-FabriceNeural (Male) - Suisse

Et Lue lit vraiment tout : EPUB, PDF, TXT, DOCX, HTML, RTF, et même le Markdown. La lecture PDF c’est particulièrement bien foutue parce qu’il retire automatiquement les numéros de page et les en-têtes qui pourrissent toujours la lecture audio.

Voilà, Lue c’est un coup de cœur car on commence vraiment à s’habituer à des services IA avec des technologies de synthèse vocale qui rivalisent avec des vrais humains, mais c’est souvent caché derrière des APIs payantes et des interfaces merdique. Et là arrive un développeur qui dit “non mais attendez, c’est quoi ce bordel ?? Je vais vous faire un truc simple qui marche”.

Et hop !

La progression de lecture est même sauvegardée automatiquement. Vous fermez votre terminal en plein milieu du chapitre 12, vous relancez le lendemain, et hop, ça reprend pile où vous en étiez. Très cool, hein ?

Bref, si vous êtes du genre à préférer la ligne de commande aux interfaces clinquantes, ou si vous voulez juste écouter vos ebooks sans vous prendre la tête, allez tester Lue dispo sur GitHub .

Source

uBlacklist - Reprenez le contrôle de Google

Vous connaissez sans doute ce petit moment de haine, quand Google vous balance pour la 50ème fois ce même site de merde qui diffuse la doc Python mal traduite avec ChatGPT ? Ou alors quand vous cherchez une recette de cuisine tout simple et que Pinterest squatte la moitié des résultats avec ses images floues et ses popups de connexion obligatoire ?

Bon bah aujourd’hui, ça c’est fini, car on va faire le ménage là-dedans.

Et comment on va faire ? Et bien je vous le donne en mille Emile, on va utiliser pour cela uBlacklist , une extension créée par un certain Iorate qui permet de faire le ménage dans les résultats de recherche.

uBlacklist, c’est la Marie Kondo du web. L’objectif c’est de garder uniquement les sites qui nous procurent de la joie ? Vous allez pouvoir virer les sites qui pourrissent vos recherches Google et croyez-moi, ça fait un bien fou !!

Ce truc fonctionne sur Chrome, Firefox et même Safari. Pour l’installer, direction le Chrome Web Store ou les add-ons Firefox et une fois en place, vous allez voir apparaître des petites icones “Bloquer ce site” directement dans vos résultats Google.

Un clic et pouf, le site disparaît à jamais de vos recherches. C’est le kiff non ?

Mais là où ça devient vraiment intéressant, c’est avec les listes publiques. Parce que oui, des gens ont déjà fait le boulot pour vous. Il existe en effet des listes pour bloquer les sites générés par IA , des listes anti-Pinterest, des listes contre les fermes de contenu SEO… C’est un peu comme les listes de blocage pour uBlock Origin, mais pour les résultats de recherche. Bref, la communauté s’organise pour nettoyer collectivement le web de ses parasites.

Et cette extension ne se contente pas de Google. Elle fonctionne aussi avec Bing, DuckDuckGo, Brave, Ecosia, et même Yandex pour nos amis de l’Est. Et cerise sur le gâteau, vous pouvez aussi synchroniser vos listes de blocage entre tous vos appareils via Google Drive ou autres service de stockage dans le cloud. Comme ça, le ménage que vous faites sur votre PC, vous le retrouvez automatiquement sur votre téléphone.

Pour les power users, uBlacklist permet même d’utiliser des patterns avancés et même des expressions régulières. Vous pouvez ainsi bloquer *://*.pinterest.*/* d’un coup pour dire adieu à toutes les variantes de Pinterest. Ou créer des règles complexes qui bloquent seulement certaines sections de sites. Faire du sur-mesure, quoi…

Google, l’entreprise qui était censée “organiser” l’information mondiale, est de toute façon devenue tellement polluée par le spam SEO, les sites IA et les fermes de contenu, qu’on ne peut plus s’en sortir sans cette extension… Tu m’étonnes que les gens lui préfèrent de plus en plus Perplexity…

L’arrivée de cette extension me rappelle un peu cette époque où les gens ont commencé à bloquer massivement les pubs… ça a forcé tout l’écosystème publicitaire à évoluer et aujourd’hui avec uBlacklist et ses copains, on fait passer un peu le même message en disant aux moteurs de recherche : “non, on ne veut plus de ces sites de merde dans nos recherches”.

C’est triste d’en arriver là, mais au moins, on n’est plus obligés de subir les algos Google ou d’autres moteurs…

Bref, si vous en avez marre de tomber sur les mêmes sites pourris à chaque recherche, foncez installer uBlacklist et n’hésitez pas à partager vos listes de blocage sur le Discord . Et pour ceux qui veulent aller plus loin, il y a aussi le Super-SEO-Spam-Suppressor sur GitHub qui propose une approche très “Anticapitaliste” du blocage de spam.

Hé oui, même le blocage de sites devient politique maintenant. On vit vraiment une époque formidable !

Bonne nouvelle ! 6% de français utilisent Linux

C’est fou car pendant que vous êtes encore en train de vous galérer avec votre bon vieux Windows, sachez que 6% de vos voisins sont en train d’utiliser Linux en totale détente. C’est en tout cas ce que remonte cette étude du CNLL et d’Abilian qui explique qu’on est maintenant 2,2 millions d’utilisateurs Linux en France.

D’après les données de Cloudflare Radar analysées par Abilian , l’usage personnel de Linux (4,3%) est deux fois plus élevé que l’usage professionnel (2,15%) ce qui montre bien que les gens font du Linux à la maison par choix, et non pas par obligation. D’ailleurs cette tendance s’accentue encore plus le weekend où l’usage des ordinateurs se fait essentiellement à titre personnel.

Comme le dit Stefane Fermigier, co-président du CNLL, dans son communiqué, “Ces chiffres sont une claque aux préjugés !”. Et il a raison même si on est encore en dessous de la moyenne Européenne. Celle-ci est de 3,7% de part de marché Linux alors que la France est à 3,1%. Les champions c’est la Finlande avec 7,1%, suivie de l’Irlande (5,3%) et de l’Allemagne (5,2%), donc on a encore une petite marge de progression.

Mais rassurez-vous, ce n’est pas qu’une question de compétence technique. C’est culturel car là-bas, utiliser Linux c’est normal, alors qu’ici c’est encore un peu un truc de geekos rebelles. Mais c’est en train de changer vite, et vous savez grâce à quoi ? Les jeux vidéo, pardi !! Avec Proton et Steam qui permettent de faire tourner les jeux Windows sur Linux, plein de gamers ont sauté le pas. C’est un des facteurs majeurs de la croissance mondiale de Linux qui atteint maintenant 4,55%.

Le gaming sous Linux c’est le cheval de Troie parfait car les mecs installent Ubuntu pour jouer et découvrent qu’il peuvent aussi bosser dessus, faire de la création, gérer leur vie numérique sans passer par Microsoft…. C’est une vraie prise de conscience.

Aux États-Unis, par exemple, Linux vient de passer la barre des 5% de parts de marché desktop. C’est une progression de 2 points en 2 ans, ce qui est énorme ! En plus avec la fin annoncée de Windows 10 qui force les gens à jeter à la poubelle leur ordinateur qui fonctionne s’ils veulent passer sous Windows 11, ça va encore augmenter je pense… Car Linux (ou ce logiciel magique ) est une solution anti-obsolescence incroyable !

Du coup, la CNLL milite pour qu’en France, on ait une vraie politique “Open Source & Sovereignty First” dans les marchés publics ce qui n’est pas gagné car l’Etat est gangréné par Microsoft… La CNLL veut notamment qu’on applique enfin l’article 16 de la loi République Numérique qui favorise le logiciel libre. Une pétition européenne propose même de créer un “EU-Linux” pour les administrations publiques. Imaginez toutes les mairies et préfectures sous Linux ! Ce serait cool !

Voilà, avoir Linux sur sa machine perso à la maison, c’est comme avoir un potager bio ou manger moins de viande… on le fait pour soi, par conviction, sans forcément militer. Et que Linux devienne mainstream c’est vraiment mon rêve car on n’en peut plus des zélites à barbes qui se définissent humainement de part leur OS, en regardant de haut les “autres”, les noobs, sans jamais leur tendre la main. Le jour où Monique de la Mairie ou Francis de la médiathèque sauront se démerder seuls sous Linux, je pense que leur égo en prendra un coup. Ils passeront alors sous BSD ou un truc encore plus techy parce que ça c’est un VRAI OS DE BONHOMME… ahahahah.

Puis en vrai, y’a encore plein de machines sous Linux que l’étude n’a probablement pas comptabilisées… On a tous chez nous des Raspberry Pi dans des tiroirs, des vieux PC reconverties en NAS, des petits serveurs perso…etc. Donc le vrai chiffre est sûrement bien plus élevé.

Alors oui, c’est vrai, on est encore loin des 72,5% de Windows, mais la tendance est claire. Linux grandit, doucement mais sûrement. Et surtout, c’est un mouvement très doux, très organique, qui n’est pas poussé par une méga-corpo, mais juste par des gens qui veulent reprendre le contrôle de leur ordinateur (et qui en ont marre de payer pour rien aussi, je pense…)

Voilà, donc la prochaine fois que vous croiserez quelqu’un dans une soirée, demandez-vous s’il fait partie des 6% de Français sous Linux ? Vous vous ferez plein de nouveaux amis ;-)

Source CNLL | Source Abilian

Comment les scammeurs exploitent vos données… via une simple recherche ChatGPT

– Article en partenariat avec Incogni

Vous pensiez que poser une question à ChatGPT (ou à n’importe quelle IA à la mode) était sans conséquence ? Erreur : derrière la magie de la conversation fluide et des réponses instantanées se cache un jeu dangereux pour vos données. Certains escrocs sont capables d’extraire, d’agréger, et d’exploiter votre vie numérique, le tout à partir d’une simple recherche pas trop bête. Mais pourquoi, et surtout comment, est-ce possible ? Et que pouvez-vous faire pour garder la main sur vos infos perso ?

Accrochez-vous, parce que l’IA n’est pas seulement le dernier jouet cool du moment, elle est aussi devenue le nouvel eldorado des arnaqueurs.

Une seule requête, une faille béante

Plus besoin de pirater votre boîte mail ou de fouiller votre poubelle. Les scammeurs d’aujourd’hui savent exploiter les LLM (comme ChatGPT ou Gemini) à fond. Avec une question bien tournée, ces outils fouillent le web et ressuscitent tout ce qui existe sur vous, parfois bien au-delà de ce que vous imaginez.

On parle ici d’anciennes biographies exhumées de forums ou réseaux sociaux, de traces de blogs, de commentaires publics, ou encore de numéros ou adresses, tombés dans la nature à la faveur d’une fuite de données. Mais aussi de liens subtils entre vos différents profils, entre manières d’écrire et ça même si les pseudos changent. Ce qui était jadis éparpillé et difficile à recomposer par un humain devient soudain… lisible, compact, utilisable contre vous à une toute autre échelle. Tout ça pour du phishing ciblé, de l’usurpation d’identité, ou tout bêtement revendu à des brokers de données peu scrupuleux.

Et tout ça c’est sans parler du manque de sécurité flagrant des IA grand public qui semblent avoir oublié de prendre le sujet en compte (voir par exemple mon article : ChatGPT peut faire fuiter vos emails avec une simple invitation Google Calendar).

Pourquoi l’IA amplifie le problème ?

Les modèles comme ChatGPT, Gemini, Claude ou Grok sont formés sur des milliards de pages web, archives de forums, données publiques (tout le web en gros) … qui, pour beaucoup, contiennent des infos personnelles. Quand vous interrogez ces outils, vos prompts sont souvent enregistrés et, dans certains cas, utilisés pour affiner le modèle.

Pire : selon cette étude Incogni 2025, la majorité de ces IA :

  • collectent vos prompts et tous les détails contenus dedans.
  • aspirent les données personnelles lâchées publiquement sur le web, parfois sans grande considération pour le consentement réel des personnes.
  • partagent les informations avec des filiales, partenaires commerciaux, voire… des “affiliés” non identifiés.
  • et dans certains cas, il est “impossible” de retirer vos données du jeu une fois qu’elles sont parties dans l’écosystème de training.

Retenez que lorsque vous avez appuyé sur le bouton d’envoi et que c’est publié quelque part … impossible de faire machine arrière. C’est ce que j’appelle l’effet “dentifrice hors du tube”.

Classement des IA génératives concernant la protection des données

D’après l’enquête d’Incogni , toutes les plateformes n’offrent pas le même niveau de respect de la vie privée. Voici un aperçu du classement 2025 (attention, tout peut changer à la vitesse de l’éclair) :

PlateformeRespect des données personnellesPossibilité d’opt-out pour le trainingTransparencePartage étendu des données
MistralTrès bon : collecte limitéeOuiMoyenPeu
ChatGPT (OpenAI)Bon : collecte modérée, transparenteOuiHauteModéré
Grok (xAI)Collecte plus large, transparence partielleOuiMoyenneModéré
Claude (Anthropic)Donne l’assurance de ne pas utiliser les prompts pour l'entraînementN/AHauteOui, avec des partenaires
Gemini (Google)Collecte massive, peu de transparenceNonFaibleÉlevé
Meta AICollecte massive, partage au sein du groupeNonFaibleTrès élevé
DeepSeekCollecte importante, peu de transparenceNonFaibleÉlevé
Copilot (Microsoft)Modéré, mais ambigu selon la plateformeOuiFaibleOui, avec annonceurs

Quelques points à retenir :

  • Les plus gros, comme Meta AI et Gemini, sont assez mauvais concernant le respect de la vie privée.
  • Les sociétés européennes (Mistral) et OpenAI sont plus respectueuses (pour l’instant).
  • Même les plateformes qui promettent de ne pas utiliser vos prompts pour le training reconnaissent une utilisation massive de “données publiques”, autrement dit : ce que vous laissez traîner en ligne.

Une fois que les IA génératives et leurs écosystèmes ont mis la main sur vos fragments de vie, la suite est mécanique. Il y a croisement de vos infos pour générer un profil ultra-ciblé à partir d’un simple pseudo/patronyme. Vos données sont ensuite revendues à des brokers, qui les exploitent de façon industrielle (business de plusieurs centaines de milliards de $ à la clé). Ensuite on a droit à la création de scénarios de phishing ultra crédibles (référence à vos vrais employeurs, vieux contacts, etc.), voire usurpation d’identité facilitée (faux profils, demandes administratives, crédits…). Bref c’était déjà la merde avant l’IA et ça va s’empirer.

Face à ce phénomène, la loi tente de suivre (RGPD en Europe, début de réglementation en Californie avec le DELETE Act…), mais reste bien souvent larguée par la techno. Autant dire qu’il vaut mieux ne pas compter dessus.

Comment limiter la casse : réflexes & méthodes

Avant même de parler d’outils, je vous rappelle les bases. Ne laissez JAMAIS d’infos sensibles dans un prompt envoyé à une IA, même en “anonyme”. Passez régulièrement vos noms/alias/adresses au crible des moteurs de recherche pour avoir la vision publique de votre eprsonne. Vous pouvez aussi rendre vos profils sociaux privés, supprimez les vieux comptes dormants ou juste tout quitter comme je l’ai fait. Pensez aussi à utiliser de courtes variantes de pseudos/passwords pour limiter l’effet cascade en cas de fuite.

Mais ça, c’est l’ABC. Vous faites déjà tout ça non ? Pour aller plus loin, et ne pas passer ses soirées à envoyer des demandes de déréférencement à la chaîne… place aux outils spécialisés.

Incogni, l’outil utile pour passer à l’offensive

Voilà pourquoi Incogni , développé par Surfshark, est l’un des rares services à avoir pensé ce problème du bon côté. Non, ils ne traquent pas vos prompts IA, mais ils s’occupent pour vous de ce que les brokers détiennent sur vous.

En résumé il se charge automatiquement de contacter les centaines de data brokers qui ont potentiellement vos infos et gère pour vous les demandes de suppression, le suivi et les relances. Plus de 100 000 utilisateurs européens ont déjà lancé un grand ménage numérique via le service.

À partir de l’étude 2025 citées ci-dessus, Incogni insiste sur : la transparence totale sur la collecte/traitement des données, la possibilité de retirer très simplement ses données de nombreuses bases (sous réserve de législation locale, bien sûr) et recommande d’éviter celles qui n’offrent aucune clarté ou option d’opt-out. Cela dit ce n’est pas magique : “effacer” sa présence totale en ligne reste presque impossible. Mais avec Incogni, vous pouvez drastiquement limiter la surface d’attaque pour les arnaqueurs et brokers.

L’avenir de la privacy face à l’IA

À mesure que l’IA progresse, la barrière entre vie privée et “open data” explose. Certains fournisseurs d’IA s’améliorent alors que d’autres assument un business model intégralement fondé sur la collecte et la redistribution de vos vies numériques. 

La meilleure protection ? Rester informé (lisez mes news haha), lire les classements indépendants, choisir les outils qui offrent le maximum de contrôle et, pour tout ce qui a déjà “fuité”, passer à l’action avec des outils de nettoyage comme Incogni avant que le dentifrice soit vraiment partout…

Rappelez-vous : une requête innocente à ChatGPT, et c’est tout votre historique en ligne qui peut refaire surface. L’IA peut vous aider à trouver des infos, mais elle permet aussi aux escrocs… d’en trouver vous concernant. À méditer !

→ Cliquez ici pour tout savoir sur Incogni ←

Un scanner pour lutter contre l'attaque Shai-Hulud

Romain, fidèle lecteur de korben.info a développé un scanner pour détecter l’attaque Shai-Hulud qui a secoué l’écosystème npm dernièrement ! L’occasion parfaite pour moi de vous raconter cette histoire complètement dingue.

Vous vous souvenez de CrowdStrike ? Cette entreprise de cybersécurité qui a provoqué la plus grande panne informatique mondiale en juillet 2024 avec une mise à jour défaillante ? Celle qui a cloué au sol des milliers d’avions et fait planter des millions de PC Windows ? Eh bien figurez-vous qu’en septembre 2025, ils se sont également fait avoir comme des bleus. En effet, leurs propres paquets npm ont été compromis.

C’est ce qu’on appelle une supply chain attack et l’attaque Shai-Hulud (oui, comme le ver des sables dans Dune) n’est pas juste un malware de plus. C’est le premier ver informatique qui s’est propagé de manière autonome dans l’écosystème npm, infectant des centaines de paquets en quelques heures.

Le ver utilise TruffleHog, un outil de sécurité normalement conçu pour DÉTECTER les secrets dans le code, c’est à dire les tokens GitHub, npm, AWS et GCP.

Puis quand il trouve des credentials valides, le ver fait les trois choses suivantes : D’abord, il crée un dépôt GitHub public nommé “Shai-Hulud” où il balance toutes les données volées. Ensuite, il pousse une GitHub Action malicieuse dans tous les repos accessibles pour exfiltrer encore plus de secrets. Et le pompon c’est que parfois, il transforme même les repos privés d’entreprise en repos publics personnels. J’vous laisse imaginer la tête du RSSI qui découvre que tout le code proprio de sa boîte est accessible à tout le monde sur GitHub…

Et quand le ver trouve des tokens npm dans son environnement, il publie automatiquement des versions infectées de tous les paquets auxquels il a accès. C’est d’ailleurs la première fois qu’on voit ce comportement de ver auto-répliquant dans l’écosystème JavaScript. Par exemple, le paquet @ctrl/tinycolor, téléchargé 2 millions de fois par semaine, a été l’un des premiers touchés.

Face à ce bordel monumental, Romain a donc développé npm-shai-hulud-scanner , un outil qui détecte non seulement les paquets connus comme compromis, mais aussi les tentatives de typosquatting et les patterns de code malicieux. Il utilise notamment la distance de Levenshtein pour identifier les variations suspectes de noms de paquets (du genre lodash vs lodash_ ou react vs raect).

Quand vous le lancez, le scanner de Romain vérifie d’abord si vous avez des paquets de la liste des 500+ compromis. Ensuite il analyse votre code à la recherche de patterns suspects : tentatives d’exfiltration de credentials, exécution de code à distance, obfuscation, communications réseau louches. Il peut même tourner en mode monitoring continu pour surveiller votre CI/CD. Et cerise sur le gâteau, il peut mettre en quarantaine les paquets suspects automatiquement. C’est top non ?

Shai-Hulud est l’un des attaques les plus sévères jamais vue sur la supply chain JavaScript et si même CrowdStrike se fait avoir, je me dit que personne n’est à l’abri. Donc soyez hyper vigilants et utilisez des outils de contrôle comme celui de Romain !

On ne sait jamais !

SSH Pilot - Un super gestionnaire de connexion SSH pour Linux / macOS

Et si je vous disais que pendant que vous galérez avec PuTTY et son interface à la Windows 95, ou que vous payez 119 balles pour SecureCRT, il existe un gestionnaire SSH moderne, gratuit et absolument magnifique qui attend tranquillement que quelqu’un le remarque ?

Hé bien c’est exactement ce qui se passe avec SSH Pilot dispo pour Linux et macOS, et je trouve ça vraiment bizarre que personne n’en parle. Quand je suis tombé dessus, c’est vrai que j’ai cru à un énième fork de Terminator ou un wrapper autour de tmux, mais non, c’est un vrai gestionnaire de connexions SSH développé par mfat , avec une interface moderne en libadwaita/GTK4, c’est à dire le truc le plus propre que GNOME ait sorti ces dernières années.

Alors j’ai creusé un peu, je l’ai installé, et là, révélation. Cette appli fait TOUT ce qu’on attend d’un gestionnaire SSH moderne : des onglets pour jongler entre les connexions, un gestionnaire SFTP intégré qui s’ouvre direct dans Nautilus, la génération de paires de clés en deux clics, le port forwarding (local, remote, dynamic), et même le regroupement de serveurs pour ceux qui gèrent des “fermes” entières. Ah et toutes les infos de config sont chiffrées sur votre disque dur.

On peut aussi naviguer entièrement au clavier dans l’appli, ce qui est super pratique. Ctrl+L pour passer de la liste des serveurs au terminal, Ctrl+F4 pour fermer un onglet, Alt+flèches pour switcher entre les tabs. C’est tellement bien pensé que ça en devient suspect ^^.

Car quand on gère plusieurs serveurs, on s’y perd vite si on n’est pas organisé ! On jongle avec des dizaines de connexions SSH, on tape des alias bash à rallonge, on installe des extensions tmux incompréhensibles…

Alors pourquoi SSH Pilot reste si peu connu alors qu’il est trop méga super génial ??? Hé bien j’ai ma petite théorie…

Dans le monde Linux, on a tellement d’alternatives pour chaque truc qu’on finit par se noyer. Quand on cherche un client SSH, on a PuTTY, KiTTY, SuperPuTTY, mTPuTTY, Solar-PuTTY, Bitvise, Tabby, MobaXterm, Termius, SecureCRT… et j’en passe. Trop de choix qui tue le choix !

Bref, jetez un oeil SSH Pilot, ça vous changera des client SSH avec une interface de Minitel.

MedGPT - L'IA préférée des hypocondriaques

Enfin !!

Oui, enfin, on a une IA médicale française, développée par Synapse Medicine une startup bordelaise, qui va pouvoir confirmer que votre petit mal de tête est bien un cancer du cerveau en phase terminale, exactement comme vous l’aviez lu sur Doctissimo à 3h ce matin après avoir cliqué sur 47 pages de forums où “MoiMêmeJeSais” raconte qu’elle a failli mourir avec les mêmes symptômes.

Cela s’appelle MedGPT et attention, avant que vous ne commenciez à lui demander si votre bubon de sorcière sur le nez est un mélanome, sachez que cet outil est réservé aux professionnels de santé. Médecins généralistes, spécialistes, pharmaciens, infirmiers, sages-femmes… Bref, tous ceux qui ont encore la chance d’avoir un boulot dans notre beau pays riche et développé où 87% du territoire est considéré comme un désert médical .

Hé oui les parisiens, il y a environ 6 millions de Français qui n’ont pas de médecin traitant et dans certaines régions, il faut attendre jusqu’à 1 an pour voir un spécialiste. Du coup, on en est réduit à faire du diagnostic sauvage sur internet ou à prendre un vol Ryanair pour se faire soigner en Belgique ou en Roumanie où ils ont encore des médecins disponibles. Mais bon, revenons à nos moutons numériques…

Selon les concepteurs de MedGPT , leur IA s’appuie sur plus de 50 sources officielles françaises : la Haute Autorité de Santé, l’ANSM, la base Thériaque… Contrairement à ChatGPT qui pourrait vous conseiller de prendre de l’hydroxychloroquine / Ivermectine / azithromycine pour soigner votre Covid parce qu’il est complétement con, MedGPT, lui, utilise uniquement des données médicales françaises validées par la science et les professionnels de santé.

Ils lui ont même fait passer l’ECN 2023 (le concours de médecine) et MedGPT a réussi à se classer dans le top 500 , alors que ChatGPT végète autour de la 2000ème place… Bon, ça reste moins bien qu’un vrai étudiant en médecine (quoique pour les internes aux urgences, j’suis moyen sûr), mais c’est déjà mieux que la moitié des candidats humains.

Et rassurez-vous, less données sont hébergées en France, respectent le RGPD et les normes HDS (Hébergement de Données de Santé). Quand on sait que 66% des médecins américains et 20% des britanniques utilisent déjà ChatGPT pour leur boulot , malgré les risques de fuites de données et de recommandations foireuses… J’suis content que les Français qui étaient coincés entre utiliser un truc pas adapté ou se passer de l’IA, ont maintenant leur solution souveraine.

Alors pour l’instant, MedGPT est en bêta gratuite et limitée à 5 questions par jour. Oui, 5 questions, c’est le nombre de symptômes différents que vous pouvez googler avant de vous convaincre que vous avez la peste bubonique mais bon, après avec un petit VPN, vous pouvez contourner la limite. Notez aussi que l’IA peut faire également des erreurs, donc fiez-vous toujours à votre jugement, à la science et à votre médecin.

C’est gratuit pour le moment, alors autant en profiter avant que ça devienne payant comme tout le reste et qui sait, peut-être qu’un jour on aura une IA capable de faire les ordonnances directement… Woohoo \o/.

Bon, je vous laisse, je vais aller vérifier sur Doctissimo si ma fatigue après avoir écrit cet article n’est pas un symptôme lié à une “dermatite irritative de la région périnéale” ^^.

Merci à Lorenper pour m’avoir fait découvrir cette pépite !

ertdfgcvb - Du Live Coding 100% ASCII

Alors si vous cherchez un truc pour procrastiner intelligemment ce soir ou demain, j’ai exactement ce qu’il vous faut. Play.ertdfgcvb.xyz , c’est un terrain de jeu ASCII interactif où vous pouvez coder des animations directement dans votre navigateur. Et c’est hyper hypnotisant, vous allez voir !

Derrière ce nom imprononçable “ertdfgcvb” se cache Andreas Gysin , un artiste suisse basé à Lugano qui fait du code et du design et son playground ASCII, c’est une interface épurée au maximum composée d’un éditeur de code à gauche, d’une fenêtre de prévisualisation à droite, et c’est tout. Pas de fioritures, pas de boutons partout, juste l’essentiel. Vous tapez Cmd+Enter (ou Ctrl+Enter sur PC) et votre code s’exécute en temps réel.

Le principe de son code en live est inspiré des fragment shaders GLSL , sauf qu’au lieu de pixels colorés, vous manipulez des caractères. Vous avez accès à des fonctions spécifiques telle que boot() qui s’exécute une fois au démarrage, pre() pour préparer vos données, main() qui est appelée pour chaque cellule de l’écran, et post() pour les modifications finales.

Voici un exemple simple en javascript pour comprendre le délire :

export function main(coord, context){ return String.fromCharCode((coord.y + coord.x) % 32 + 65) }

Ce bout de code génère un pattern de lettres qui change selon la position X et Y sur l’écran. C’est tout con mais c’est beau.

Le playground propose également des dizaines d’exemples triés par catégorie. Vous avez les basiques pour apprendre, des démos plus complexes comme “Doom Flame” qui recrée l’effet de flamme du jeu Doom en ASCII, ou encore “Donut” qui fait tourner un donut en 3D avec juste des caractères. Y’a même une section “camera” où vous pouvez manipuler votre webcam et la transformer en ASCII art en temps réel.

D’après le GitHub du projet , Andreas a créé ça comme un hommage à tous les artistes, poètes et designers qui utilisent le texte comme medium. C’est un projet minimaliste, avec presque pas d’interface, juste le code et le résultat. Même les marges et les numéros de ligne ont été virés.

Et tout ça tourne de manière fluide dans le navigateur et pour les dev qui veulent comprendre comment ça marche sous le capot, tout le code source est sur GitHub, et vous pouvez vraiment faire des trucs de ouf avec, par exemple des fractales, des simulations de fluides…etc. C’est complètement barré.

Mais pour commencer, le plus simple c’est d’explorer les exemples. Le classique “10 PRINT” recrée le fameux one-liner du Commodore 64 qui génère un labyrinthe infini. Les exemples SDF (Signed Distance Fields) montrent comment faire de la 3D avec des maths et des caractères. Et si vous êtes chaud, vous pouvez lui envoyer vos propres créations qui rejoindront la section “contributed”.

Andreas enseigne ces techniques dans ses cours, et apparemment les étudiants adorent. C’est vrai que c’est une approche super pédagogique du creative coding où on se prend pas la tête avec du WebGL ou des frameworks complexes… Non, faut juste pondre du code simple qui produit des résultats visuels immédiats.

Bref, play.ertdfgcvb.xyz c’est le genre de site qu’on bookmark et qu’on ressort quand on veut se vider la tête en codant des trucs rigolos. C’est gratuit, c’est open source, et c’est une belle démonstration que l’art et le code peuvent cohabiter sans avoir besoin de millions de polygones et de shaders complexes.

Un grand merci à Lorenper pour m’avoir fait découvrir cette pépite !

WebGoat - Pour vous former au hacking éthique

Attention, si vous laissez tourner WebGoat sur votre machine, elle sera “extrêmement vulnérable aux attaques”. C’est en tout cas ce qui est écrit en gros sur la page de ce projet OWASP , et c’est pas pour faire joli car WebGoat est une application web délibérément pourrie, truffée de failles de sécurité, créée exprès pour que cous appreniez à les exploiter.

Et c’est génial !!

Car on a enfin un truc qui nous permet d’apprendre vraiment comment les hackers s’infiltrent dans les sites web, sans risquer de finir au tribunal. Parce que bon, scanner le site de votre voisin pour “apprendre”, c’est direct trois ans de prison et 100 000 euros d’amende. Alors qu’avec WebGoat, vous pouvez tout péter tranquille depuis chez vous.

WebGoat , c’est donc un projet open source maintenu par l’OWASP depuis des années qui vous propose uune application web qui ressemble à n’importe quel site lambda, sauf qu’elle est bourrée de vulnérabilités volontaires telles que des injections SQL, XSS, CSRF, contrôle d’accès défaillant… bref, toutes les saloperies du Top 10 OWASP sont là, prêtes à être exploitées.

Et WebGoat fonctionne comme un cours interactif car pour chaque vulnérabilité, vous avez trois étapes : d’abord on vous explique comment ça marche, ensuite vous devez l’exploiter vous-même via des exercices pratiques, et enfin on vous montre comment corriger le problème. On apprend en faisant !

D’après la doc officielle , WebGoat couvre presque toutes les vulnérabilités du Top 10 OWASP. Pour ceux qui ne savent pas, le Top 10 OWASP c’est LA référence mondiale des failles de sécurité web.

Au sein de WebGoat se cache aussi WebWolf, une application séparée qui simule la machine de l’attaquant. Ça tourne sur le port 9090 pendant que WebGoat tourne sur le 8080, comme ça, vous avez vraiment la séparation entre ce qui se passe côté victime et côté attaquant. WebWolf vous permet également d’uploader vos payloads ou outils, de recevoir des données exfiltrées, et même de simuler un serveur mail pour les attaques de phishing.

Et pour installer tout ça, le plus simple c’est Docker :

docker run -it -p 127.0.0.1:8080:8080 -p 127.0.0.1:9090:9090 webgoat/webgoat

Ou si vous préférez la version standalone avec Java :

java -Dfile.encoding=UTF-8 -jar webgoat-2025.3.jar

Une fois lancé, vous accédez à WebGoat sur http://localhost:8080/WebGoat et WebWolf sur http://localhost:9090/WebWolf. Vous vous créez un compte (c’est juste en local, pas de panique) et c’est parti pour les exercices !

Les leçons sont vraiment bien foutues. Prenez l’injection SQL par exemple. D’abord on vous montre comment une requête SQL mal protégée peut être détournée. Ensuite vous devez exploiter la faille pour voler des numéros de cartes bancaires (fausses, hein), et à la fin, on vous explique comment utiliser les prepared statements pour éviter ce genre de conneries.

Et n’allez pas croire que ça s’adresse uniquement aux pro. Non, les débutants ont des exercices guidés avec des indices, et les plus avancés ont des “challenges” sans aucune aide semblables à des CTF (Capture The Flag).

Et pour les développeurs, c’est vraiment un super outil pour comprendre pourquoi votre chef de projet vous casse encore les pieds avec la sécurité ! Car, croyez-moi, une fois que vous avez réussi à dumper toute une base de données avec une simple apostrophe dans un formulaire, vous ne regardez plus jamais les entrées utilisateur de la même façon.

Attention quand même, WebGoat n’est pas un jouet. Les techniques que vous apprenez sont réelles et fonctionneront sur de vrais sites mal sécurisés. D’ailleurs, l’OWASP est très clair là-dessus : “Si vous tentez ces techniques sans autorisation, vous allez très probablement vous faire choper”. Et n’oubliez pas, comme vous ne faites partie d’aucun parti politique, pour vous y’aura vraiment de la zonzon.

D’ailleurs, petite conseil, quand vous faites tourner WebGoat, coupez votre connexion internet ou au moins assurez-vous qu’il n’écoute que sur localhost, parce que si quelqu’un d’autre sur votre réseau découvre que vous avez une application volontairement vulnérable qui tourne… Disons que ça pourrait mal finir ;-).

Ah et WebGoat s’intègre super bien avec d’autres outils de sécurité. Ça permet du coup de se former aussi dans la foulée sur Burp Suite, OWASP ZAP, ou SQLMap.

Bref, installez WebGoat ce weekend et amusez-vous à tout casser. Vous m’en direz des nouvelles !!

Et un grand merci à Lorenper pour l’info !

Famicom-OpenAV - Pour ajouter une sortie AV composite sur une Famicom

Bertrand, fidèle lecteur de mon site m’a envoyé un super projet ! Il a développé des PCB open source pour moderniser les Famicom japonaises et comme j’ai trouvé ça trop cool, je me suis dit que j’allais en faire un article.

Alors pour ceux qui ne connaissent pas, la Famicom c’est la version japonaise de la NES, sortie en 1983. C’est une petite console rouge et blanche avec les manettes intégrées, super mignonne mais avec un défaut majeur : elle sort uniquement en signal RF . Et le RF en 2025 sur nos télés modernes, c’est l’enfer… Image dégueulasse, interférences, et certaines télés refusent carrément de l’afficher parce que le signal RF japonais utilise les canaux 95-96 au lieu des canaux 3-4 occidentaux.

Bertrand a donc créé Famicom-OpenAV , deux petits PCB qui permettent d’ajouter une sortie AV composite à votre Famicom. Comme ça, exit le RF pourri, et bonjour l’image propre !

Bertrand propose donc deux versions selon vos préférences de soudure. La version DIP avec des composants traversants old school pour ceux qui ont appris à souder sur des kits Radio Shack dans les années 80. Et une version SMD avec des composants montés en surface, plus compacte et moderne pour les jeunes qui n’ont pas peur des pattes de mouche et qui maitrisent le flux ^^.

Ses PCB ont été testés sur les modèles de carte mère Famicom HVC-CPU-07 et HVC-CPU-GPM-02 et y’a pas besoin de percer la console ou de faire des modifications irréversibles… Ce sont juste quelques points de soudure bien placés et hop, votre Famicom crache du composite propre.

Ce mod est important car le signal RF de la Famicom génère souvent des “jailbars”, des lignes verticales bien chiantes qui gâchent l’image. Cela est dû à l’alimentation bruyante de la console et au fait que les traces du circuit imprimé qui transportent le signal vidéo passent juste à côté de lignes électriques parasitées. Les vieilles puces NMOS de l’époque émettent aussi pas mal d’interférences RF.

Avec le mod AV de Bertrand, on récupère donc directement le signal composite natif NTSC depuis la pin 21 du PPU (le processeur graphique de la Famicom). C’est le signal le plus propre qu’on puisse obtenir sans passer par des mods plus complexes comme le NESRGB qui coûte une fortune.

Maintenant pour créer ces PCB, c’est super simple. Bertrand fournit les fichiers Gerber sur son GitHub, vous les envoyez à un fabricant comme JLCPCB ou PCBWay , et pour quelques euros, vous recevrez 5 PCB. Après il faut acheter les composants électroniques (quelques résistances, condensateurs, transistors) mais au total, on s’en sort pour moins de 10 balle par console modifiée.

Bref, pour les collectionneurs et les joueurs, c’est vraiment un super mod car la Famicom a une bibliothèque exclusive au Japon avec des jeux qui ne sont jamais sortis sur la NES occidentale. Je pense par exemple aux Famicom Disk System exclusives, aux cartouches avec puces sonores supplémentaires comme Castlevania III japonais qui sonne différemment de la version US. Avec ce mod, vous pourrez enfin profiter de ces jeux dans de bonnes conditions sur une télé moderne ou via un upscaler type RetroTink .

Encore merci à Bertrand pour ce projet et pour m’avoir contacté et si vous aussi vous avez des projets DIY cools à partager, n’hésitez pas à m’envoyer un mail !

Bientôt la fin des bandeaux RGPD ?

Vous en avez marre de cliquer sur “Accepter les cookies” à chaque fois que vous visitez un site web ? Du genre vraiment marre, au point de parfois renoncer à lire un article plutôt que de devoir encore cliquer sur ces bannières ? Et bien si j’en crois Mashable , la Commission européenne envisage sérieusement de revoir la directive e-Privacy de 2009 qui nous a imposé cette avalanche de bandeaux moches.

Enfin !!

Il était temps qu’ils se réveillent à Bruxelles, parce que bon, l’intention de départ était louable c’est sûr… Il s’agissait de protéger notre vie privée en nous demandant notre consentement avant de nous traquer. Sauf que dans les faits, on s’est tous retrouvés à cliquer frénétiquement sur “Accepter tout” juste pour pouvoir lire tranquillement notre article. C’est ce qu’on appelle la “cookie fatigue”, et elle a complètement détourné l’objectif initial de la loi, en plus de faire perdre des heures de travail à toute l’économie européenne .

La Commission européenne explore donc plusieurs pistes pour simplifier tout ça. L’idée principale de leurs réflexions, ce serait de permettre aux utilisateurs de définir leurs préférences une bonne fois pour toutes dans les paramètres de leur navigateur. Fini les popups sur chaque site et vos navigateurs Chrome, Firefox, Safari et consorts deviendraient les gardiens de vos préférences cookies. Techniquement, c’est déjà possible avec le Do Not Track, mais personne ne l’utilise vraiment.

Ça m’énerve vraiment de lire ça, car ces bandeaux cookies, c’était vraiment la pire implémentation qu’ils pouvaient mettre en place alors que depuis J-0 tout le monde leur gueule fort dans les oreilles “Mais bande de nazes, faut l’implémenter dans le navigateur”.

Enfin, j’imagine qu’il vaut mieux tard que jamais.

Bref, bientôt les affreux bandeaux cookies qui faisaient mouiller les ayatollahs du RGPD vont disparaitre… quelle bonne nouvelle ! Pour ma part, en ce qui concerne mon site, j’ai écrit à la CNIL (en recommandé svp !) en début d’année pour leur demander leur avis, afin de savoir si je respectais bien le RGPD. Je n’ai jamais eu de réponse de leur part (snif), mais de mon point de vue, de celui de lecteurs dont c’est le métier, de CookieViz , et de ma régie pub, j’étais pas trop mal.

Après, depuis mon courrier à la CNIL y’a eu pas mal de changements quand même. J’sais pas si vous avez suivi mon actu, mais cet été, j’ai notamment retiré le bandeau des cookies.

What ??? Suis-je un vil criminel ?

Non, en fait c’est parce que j’ai supprimé tout ce qui était scripts de stats (Google analytics / Matomo) parce qu’elles n’avaient plus aucun sens vu que tout le monde les bloque… J’utilise également uniquement le player “no-cookies” de Youtube, et j’ai aussi enlevé toutes les bannières de pubs parce que c’est quelque chose que je voulais faire depuis loooongtemps. Ça me fait des revenus en moins c’est sûr (ouille), mais je compte sur mon Patreon pour contrebalancer ça.

C’était pas une décision simple puisqu’un peu risqué, et j’espère que l’avenir me donnera raison. En plus, comme j’ai aussi totalement arrêté de partager mes articles sur mes comptes de réseaux sociaux , ça a provoqué également une jolie petite baisse de trafic. Après, contrairement à mes confrères de la presse tech, je ne suis pas équipé pour faire la course à l’audience vu que je suis à 99% tout seul à écrire, à gérer la technique, le code du site, faire rentrer la thune, et la gestion de ma boite…etc., donc bon, ça ne change pas grand-chose, toutefois ne plus avoir de publicités programmatiques, ça renforce encore cette absence d’enjeux liés au trafic et ça me fait un truc en moins à gérer.

Par conséquent, le site est plus rapide à charger, il est visuellement plus joli (à mon goût), bref, j’en suis très content ! Et ça se ressent sur mes dernières stats (réalisées sans tracking car générées à partir des logs de mon serveur web), puisque mon site a enregistré au mois d’août (le pire mois de l’année à cause des vacances), 1,4 million de visiteurs uniques ! Du coup, je suis assez content et fier parce que ça veut dire que ce que j’écris vous intéresse et ça c’est cool !

Voilà, je referme cette parenthèse sur le meilleur site Tech de France (hein, quoi ?? ^^) pour revenir à cette réforme européenne. Histoire d’avancer un peu, le Danemark a suggéré que les cookies “techniquement nécessaires” ou pour des “statistiques simples” ne devraient plus nécessiter de consentement. Ça paraît logique, mais faut pas oublier quand même que malgré tout, les données s’envolent aux États-Unis la plupart du temps (je pense à Google Analytics) et ça, c’est pas cool, donc j’espère qu’ils resteront vigilants là-dessus, même pour de simples stats.

De leur côté, les lobbyistes de l’industrie Tech poussent fort pour avoir plus de marge de manœuvre afin de décider eux-mêmes de ce qui nécessite un consentement ou pas (lol, tu m’étonnes), mais forcément, les défenseurs de la vie privée tirent la sonnette d’alarme et je les rejoins là-dessus ! En effet, ces derniers craignent qu’on donne trop de pouvoir aux entreprises et qu’on se retrouve avec encore plus de tracking qu’avant, mais cette fois, sans qu’on le sache.

Du coup, la vraie question pour le régulateur c’est de trouver l’équilibre entre une bonne protection de la vie privée et une expérience utilisateur fonctionnelle. Pas simple, mais le Do Not Track (ou un équivalent) pourra aider.

Bref, est-ce qu’on verra disparaître ces satanées bannières RGPD ? Peut-être pas complètement, mais on pourrait au moins avoir quelque chose de plus intelligent qui permettrait de configurer une seule fois vos préférences dans Firefox ou Chrome, et hop, tous les sites respecteront automatiquement vos choix. Comme ça, plus besoin de cliquer sur quoi que ce soit… Les cookies strictement nécessaires passeront alors directement et les cookies marketing seront bloqués si vous l’avez décidé.

Comme ça tout le monde sera content… enfin, j’imagine ?

TernFS - Un système de fichiers distribué capable de gérer des exaoctets

Et encore un article un peu technique pour finir la journée en beauté ! Si je vous disais que votre serveur Linux pouvait gérer 10 exaoctets de données sans broncher ? Vous ne me croiriez pas je pense… D’ailleurs c’est quoi 10 exaoctets ?? Et bien ça correspond à 10 millions de To. C’est pas mal hein ?

Hé bien c’est exactement ce que permet de gérer TernFS, le système de fichiers qu’XTX Markets vient de libérer après trois ans d’utilisation intensive. XTX Markets est une boîte d’algo-trading qui brasse 250 milliards de dollars par jour et j’avoue que c’est un joli cadeau de presque-Noël qu’elle vient de nous faire…

D’après ce qu’ils expliquent sur leur site , NFS et les autres solutions classiques ne tenaient plus la charge face à leurs 650 pétaoctets de données utilisées leur machine learning. Alors ils ont fait ce que font les vrais geeks, ils ont codé leur propre solution… et après trois ans de production sans perdre “un seul octet”, ils ont tout balancé en en open source sur GitHub .

Le truc génial avec TernFS, c’est qu’il a été pensé pour les fichiers immuables, vous savez, ces gros datasets de plusieurs gigaoctets qu’on écrit une fois et qu’on relit des milliers de fois pour entraîner des modèles. Pas de modification après création, pas de prise de tête avec les locks et la cohérence. C’est simple et efficace.

L’architecture repose sur quatre composants principaux qui bossent ensemble : les metadata shards (256 shards logiques pour gérer les métadonnées), le CDC (Cross-Directory Coordinator) pour les opérations entre répertoires, les block services pour stocker les données, et un registry pour orchestrer tout ce petit monde. Le tout communique en UDP/TCP avec du Reed-Solomon pour l’erasure coding et du CRC32-C pour vérifier l’intégrité. Bref, ça semble être du solide.

Et les chiffres qu’ils donnent sur leur production sont assez dingues. Ils parlent de 500+ pétaoctets répartis sur 30 000 disques durs et 10 000 SSD, dans 3 datacenters différents, avec des débits qui montent à plusieurs téraoctets par seconde en vitesse de pointe. Et leur système gère ça tranquille, avec du multi-région natif et une tolérance aux pannes qui ferait pâlir d’envie n’importe quel admin sys.

Si ça vous chauffe, pour installer TernFS, c’est du classique. Vous clonez le repo, vous lancez ./build.sh alpine ou ./build.sh ubuntu selon votre distrib, et c’est parti. Il y a un module kernel Linux pour gratter les perfs maximales et toucher les étoiles, mais vous pouvez aussi utiliser FUSE si vous préférez rester en userspace. Ils ont même implémenté une API S3 pour ceux qui veulent migrer depuis AWS sans tout réécrire.

git clone https://github.com/XTXMarkets/ternfs
cd ternfs
./build.sh alpine
# Et pour tester en local
./scripts/ternrun

Par contre, attention aux limitations ! Car TernFS n’est pas du tout fait pour les petits fichiers (genre les millions de fichiers de 1KB d’un projet Node.js). C’est vraiment optimisé pour du gros volume du style datasets ML, logs d’applications, archives, ce genre de trucs. Et y’a pas de système de permissions intégré non plus, car ils ont préféré garder ça basique et laisser chacun implémenter sa propre couche de sécurité.

Ils ont mis au point également un système de “block proofs” où chaque bloc de data a une preuve cryptographique qui permet de vérifier que le client n’a pas corrompu les données avant de les écrire. Ça évite qu’un client bugué ou malveillant ne pourrisse tout le filesystem. Ils ont aussi un système de “scrubbing” automatique qui détecte et remplace les secteurs défaillants sur les disques.

Chouette non ?

D’après Bloomberg , XTX Markets investit actuellement 1 milliard d’euros dans de nouveaux datacenters en Finlande. Avec leurs 25 000 GPUs (dont 10 000 A100 et 10 000 V100) et maintenant TernFS en open source, ils montrent surtout qu’ils ne rigolent pas avec l’infrastructure. C’est pas pour rien qu’ils arrivent à traiter un trillion d’enregistrements par jour pour leurs algos de trading.

Leur code est disponible sous double licence à savoir GPLv2+ pour le core et Apache 2.0 avec exception LLVM pour les bibliothèques client et les définitions de protocole. Ça permet d’intégrer TernFS dans à peu près n’importe quel projet, commercial ou non.

Bref, si vous gérez des pétaoctets de données et que ZFS commence à tirer la langue, TernFS vaut vraiment le coup d’œil. Reste à voir si d’autres géants du big data vont l’adopter ou si ça restera un outil de niche pour les vraiment gros volumes, mais avec l’explosion du Machine Learning et des LLMs, je parie qu’on va en entendre parler de plus en plus…

Source

Le Multikernel - La prochaine révolution Linux

Et si votre serveur Linux était comme un appart en coloc où tout le monde partage la même cuisine, le même salon, les mêmes chiottes ?? Forcément, ça finit toujours mal avec quelqu’un qui monopolise les toilettes pendant que vous avez une urgence en spray, un autre fait crasher la machine à laver avec ses expérimentations douteuses de voyage dans le temps, et au final personne n’est content.

Hé bien figurez-vous qu’un développeur nommé Cong Wang de Multikernel Technologies vient de proposer une solution radicale qui consiste à donner à chaque processus son propre kernel Linux, avec ses propres core CPU, comme des colocataires qui auraient enfin chacun leur studio…

Selon le patch soumis sur la Linux Kernel Mailing List (LKML), cette architecture “multikernel” permettrait de faire tourner plusieurs noyaux Linux indépendants sur la même machine physique. C’est pas vraiment de la virtualisation classique façon VMware ou KVM, mais c’est plutôt comme si vous découpiez votre ordinateur en tranches et que chaque tranche vivait sa vie. Le truc marrant, c’est que Cong Wang n’est pas un petit nouveau qui débarque avec ses idées folles. Le bonhomme a déjà contribué à plus de 1000 patches au noyau Linux et il maintient le sous-système de traffic control . Autant dire qu’il sait de quoi il parle quand il touche au code du noyau.

D’ailleurs cette idée de séparer les kernels rappelle furieusement le projet Barrelfish que Microsoft Research et l’ETH Zurich avaient lancé il y a quinze ans. À l’époque, ils voulaient traiter l’OS comme un système distribué où chaque core CPU aurait son propre kernel qui communique avec les autres par messages. Sauf que voilà, c’était trop tôt. Les processeurs n’avaient pas assez de cores pour qu’on puisse se permettre ce genre de luxe, et puis franchement, qui avait besoin de ça en 2009 ?

Aujourd’hui avec nos CPU à 128 cores et nos problèmes de sécurité qui explosent, l’idée prend soudainement tout son sens.

Selon Phoronix et les patches sur la LKML, l’implémentation de Wang utilise kexec, ce mécanisme qui permet normalement de redémarrer directement dans un nouveau noyau sans repasser par un reboot. Sauf qu’ici, au lieu de remplacer le noyau existant, on en charge plusieurs qui vont cohabiter. Chaque kernel se voit attribuer ses propres cores CPU et ils communiquent entre eux via un système d’interruptions inter-processeurs (IPI) spécialement conçu pour l’occasion. Et dans les 7 patches proposés en RFC, Wang prévoit des mécanismes de surveillance pour gérer tous ces petits mondes parallèles.

Et pendant que Cong Wang bricolait son multikernel dans son coin, les géants du cloud comme Amazon, Microsoft et Google ont développé en parallèle une technologie appelée KHO ( Kexec HandOver ) qui permet de préserver l’état système lors du changement de kernel. En gros, ils veulent pouvoir mettre à jour le noyau Linux de leurs serveurs sans perdre les VMs qui tournent dessus. Sauf que si le multikernel de Wang fonctionne vraiment, ça pourrait rendre leur stack de virtualisation complètement obsolète.

Car pourquoi s’embêter avec des hyperviseurs complexes quand on peut juste donner à chaque workload son propre kernel ?

Le plus drôle dans tout ça, c’est que Wang admet candidement dans son RFC que pour l’instant, ça marche “que sur sa machine de dev avec des paramètres hardcodés”.

Maintenant si cette techno décolle, on pourrait voir des trucs assez dingues. Genre un kernel temps réel qui gère les processus critiques pendant qu’un kernel classique s’occupe du reste. Ou alors des kernels spécialisés pour différents types de workloads : un pour le machine learning, un pour les bases de données, un pour le réseau. Vous pourriez même imaginer des kernels avec différents niveaux de sécurité du genre un kernel ultra-paranoia pour vos données sensibles et un kernel plus relax pour Netflix. Et le plus beau c’est que si un kernel plante, les autres continuent de tourner tranquillement.

C’est comme avoir plusieurs systèmes de secours intégrés directement dans la machine.

Mais attention, on parle quand même d’une RFC, et pas encore d’un truc prêt pour la prod. La communauté des barbus du noyau va probablement passer des mois à débattre de chaque ligne de code, et c’est tant mieux parce que toucher à l’architecture fondamentale de Linux, c’est pas comme patcher un bug dans Firefox. Si ça merde, c’est potentiellement des millions de serveurs qui partent en vrille.

Au final, que ce patch soit accepté ou pas, ça montre surtout que Linux continue d’évoluer de manière radicale pour toujours aller plus loin ! Et si vous l’évolution de ce projet, tout se passe sur la LKML .

Source

Alibi - Faites de votre smartphone Android, une dashcam

Alors voilà, on en est là. On râle contre la surveillance généralisée, on s’insurge quand Facebook nous écoute, on fait des crises d’angoisse quand on découvre que nos smart TV nous espionnent, et en même temps, on va volontairement installer sur notre téléphone une app qui enregistre tout ce qu’on fait.

Cette app s’appelle Alibi , elle est développée par Myzel394 et ce qu’elle permet, c’est de transformer votre smartphone en dashcam qui filme et enregistre en permanence, 24h/24.

Alibi garde en permanence les 30 dernières minutes de votre vie en vidéo et audio, prêtes à être sauvegardées si vous en avez besoin comme ça si quelque chose se passe du genre un accident de voiture (avec une Volkswagen forcément), une altercation avec un con sanguin, une situation litigieuse dans un manif ou autre, vous avez votre alibi, quoi. D’où le nom !

L’app fonctionne entièrement en arrière-plan, et surtout, tout reste sur votre téléphone. Pas de cloud, pas de serveurs externes, pas de partage involontaire. C’est de la surveillance, mais c’est vous qui gérez les données. Vous êtes donc à la fois l’espion et l’espionné.

En France, les vidéos tournées dans l’espace public sont autorisées tant qu’elles restent à usage personnels et pas diffusées publiquement sans floutage des visages et des plaques d’immatriculation, n’en déplaisent à ceux qui aiment faire croire le contraire ^^.

C’est plutôt triste à dire mais les dashcams réduisent les conflits et les arnaques à l’assurance car quand tout le monde sait qu’il est filmé, tout le monde se tient à carreaux. C’est sûr que si les gens étaient droits dans leurs bottes, y’aurait pas besoin de ce genre de conneries… C’est le panoptique de Bentham version caméra où la surveillance modifie les comportements de par sa simple existence. Argh !

L’app elle-même est plutôt bien fichue puisqu’elle est open source sous licence GPL-3.0, disponible sur F-Droid , Google Play et GitHub avec une interface claire, pleins d’options et la possibilité de verrouiller l’app pour éviter les fausses manipulations. Par contre, au niveau des méta données, c’est un peu léger. On a que la date et l’heure mais pas les infos GPS par exemple pour la localisation…

Voilà, si vous lorgniez sur les dashcams, c’est peut-être pas la peine de mettre trop d’argent là dedans. Un vieux smartphone Android et c’est plié !

Enjoy !

macOS Tahoe rame ? J'ai peut-être la solution

Les amis, je ne sais pas si vous êtes sous Mac, mais si c’est le cas, vous avez peut-être succombé à la mise à jour vers macOS Tahoe.

En tout cas, moi, j’ai fait la migration, et franchement, j’ai vu aucune différence, à part quelques petits aspects graphiques par-ci par-là. En tout cas, ça m’a pas hypé de fou, ni traumatisé non plus.

Par contre, ce qui m’a VRAIMENT traumatisé, ce sont les performances de mon Mac Studio M4 Max qui est quand même assez puissant et qui se retrouve à tourner comme un escargot asthmatique fumeur de joints. Cela se produit notamment lorsque je lance mes lives sur Twitch et c’est assez handicapant pour ne pas dire inutilisable… Le scroll est lent, les applications rament, mes streams lagguent, c’est l’enferrrrr et ça me met de mauvaise humeur !

Et après avoir été faire un tour sur Reddit, ce que je peux vous dire, c’est qu’il y a beaucoup de gens dans mon cas qui gueulent contre cette nouvelle version de Mac OS parce qu’elle est buggée, parce qu’elle rame, parce que ce n’est pas ouf. Donc déjà, je voudrais dire un gros “bouuuuh” à Apple.

Moi, ce qui me posait vraiment problème sur mon macOS, c’est le processus WindowServer qui tournait à FOND les ballons. Alors, effectivement, j’aurais pu croire que c’était un malware qui minait des bitcoins en douce, mais, bon, je fais un petit peu attention, quand même…

Non, non, non, c’est du ralentissement natif by design made in Cupertino.

Après moult péripéties, j’ai donc trouvé comment régler ce problème (jusqu’au problème suivant…). Je vous livre donc cette petite astuce si vous aussi vous avez WindowServer qui part dans les choux après la mise à jour vers Mac OS Tahoe.

Allez dans les réglages au niveau de la section énergie et vérifiez que vous n’avez pas activé le mode économie d’énergie. Moi, en tout cas, c’est ce mode-là qui m’a mis dedans. J’ai l’impression que ça bride l’ordinateur et le système d’exploitation, bref que c’est mal géré et ça fait tout ramer.

Du coup, en désactivant ce truc, mon ordinateur est redevenu à nouveau utilisable. Woohoo !

Donc j’attends la prochaine mise à jour Apple, mais, bon, voilà, en attendant, essayez au moins ça, vous verrez si ça marche.

Et, après, pour tous les autres problèmes liés à Spotlight, à l’indexation des photos, ce genre de trucs, faut parfois redémarrer, tuer les processus, désactiver, par exemple, dans iCloud la synchronisation des contacts (process contactd) sur des comptes Gmail ou Exchange

Ou virer des choses dans la config de Spotlight, ce genre de truc, en attendant un fix…

Voilà, bon courage à tous les galériens fans de la pomme et à très bientôt !

Test des Eero Pro 7 : quand le Wi-Fi 7 d’Amazon règle (vraiment) mes galères réseau

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Vous pensez que le Wi-Fi 7 n’est que du marketing ? Moi aussi, au début. J’avais déjà testé le kit Eero Pro 7 à sa sortie, dans mon ancien logement un peu tordu sur trois niveaux, où les murs épais faisaient suffoquer ma Freebox et mes répéteurs Wi-Fi 7. À l’époque, ce kit m’avait sauvé la mise. J’ai déménagé depuis, dans un appart plus classique, et je pensais pouvoir m’en passer. Spoiler : je me trompais.

Un logement plus simple… mais un cas d’usage bien précis

Mon nouvel appart est une location, donc tirer des câbles Ethernet partout était exclu. Sauf que j’avais trois pôles réseau indispensables : mon bureau (où j’ai besoin de débit pour bosser), mon coin télé avec Xbox et Apple TV, et enfin mon NAS, accompagné d’un mini PC qui sert de serveur Plex, tous les deux bruyants et donc exilés au-dessus du frigo dans la cuisine. Trois zones distinctes, trois besoins critiques en débit et en stabilité.

On a brainstormé avec l’ami Korben : câbler en Ethernet ? Trop compliqué donc, en loc. Miser sur le Wi-Fi natif ? Bof, l’Apple TV plafonnait à 150 Mb/s. Les CPL ? Vu l’installation électrique foireuse du logement, pas la peine. La seule vraie solution, c’était de ressortir le kit Eero Pro 7 .

Comment j’ai transformé mon appart en hub Wi-Fi 7

J’ai branché un premier module Eero sur ma Livebox fibre (8 Gb/s), puis placé les deux satellites stratégiquement : un au salon près de ma télé, relié en Ethernet à la Xbox et à l’Apple TV, l’autre dans ma cuisine, branché au NAS et au mini PC. Résultat ?

L’Apple TV, qui stagnait à 150 Mb/s, tourne désormais à près de 900 Mb/s. Le NAS ? Parfaitement stable, avec des débits soutenus pour Plex, sans aucune coupure, même avec plusieurs accès distants. Et cerise sur le gâteau, mon iPhone 17 Air profite aussi du Wi-Fi 7 pour ses propres usages.

La vraie force, ce n’est pas seulement le Wi-Fi 7 en lui-même, mais la vitesse de communication entre les modules. Chaque satellite devient une prise réseau haut débit, sans câble à tirer. Pour une location ou un appart où le câblage est impossible, c’est tout simplement idéal.

Simple, efficace et (presque) plug & play

Pourquoi les Eero Pro 7 plutôt qu’un autre système Mesh ? Pour leur simplicité. L’appli iOS/Android permet de tout configurer en dix minutes chrono, de gérer les appareils, d’ouvrir Plex vers l’extérieur… bref, c’est pensé pour être rapide et fiable. Les deux ports Ethernet 5 Gb/s par module suffisent pour mes besoins, et je n’ai pas ressenti de limite. Pour la stabilité, rien à dire : avec du stream 4K, du jeu en ligne et un NAS sollicité 24/7, le réseau ne bronche pas.

Alors oui, ça n’est pas donné : 350 € le module, 800 € le pack de trois . Mais quand ça remplace sans douleur un câblage Ethernet impossible à mettre en place, c’est un investissement qui se justifie largement. Et puis pour peu que vous ne vous y connaissiez pas et que fassiez appel à un électricien pour câbler tout votre logement, ça vous coutera aussi un bureau billet, sans étendre votre couverture Wi-Fi chez vous !

Notez au passage que si vous avez des besoins plus modestes, donc pas de gros NAS à connecter au monde et pas besoin d’un débit monstrueux partout, les Eero 7 classiques sont aussi Wi-Fi 7, avec des ports Ethernet à 2,5 Gb/s, qui vous suffiront probablement largement (en réalité ça m’aurait suffit aussi, mais que voulez-vous, comme tout bon geek, j’ai voulu un peu de marge :p).

Verdict : la solution réseau parfaite pour les cas “compliqués”

Bref, je pensais que dans mon nouveau logement je pourrais m’en passer. En réalité, le Eero Pro 7 s’est imposé comme la seule solution viable. C’est le genre de kit qui ne se contente pas de “faire joli” en Wi-Fi 7, mais qui transforme concrètement un réseau domestique en quelque chose de fiable, stable et rapide. Pour les petits logements, un seul module suffira. Pour des besoins plus complexes, le pack de trois est une valeur sûre.

Voilà les liens pour vous les procurer :

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ou lire tous les tests que je publie dans la catégorie “Gadgets Tech” , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Jimmy - Pour exporter toutes vos notes en Markdown

Vous avez des milliers de notes éparpillées dans Evernote, Notion, Google Keep ou ailleurs, et à juste titre, vous commencez à flipper parce que votre app favorite devient payante ou menace de fermer ? Heureusement, il y a Jimmy qui va pouvoir vous aider dans ces épreuves de la vie ^^ !

Développé par marph91, Jimmy est donc un convertisseur universel de notes qui transforme tout en Markdown. Il gère plus de 40 applications différentes et tourne sur Linux, Windows et macOS sans aucune dépendance. Vous téléchargez l’exécutable, vous le lancez, et c’est parti.

Jimmy supporte une liste impressionnante d’applications : Anki, Anytype, Bear, Cacher, CherryTree, Day One, Drafts, Evernote, Facebook, Google Docs, Google Keep, Joplin, Notion, Obsidian, QOwnNotes, Roam Research, Simplenote, Telegram, Tiddlywiki, UpNote, Zettelkasten, Zim, Zoho Notebook, et j’en passe.

Il gère aussi les formats classiques comme DOCX, ODT, HTML, EPUB, CSV et même les Jupyter Notebooks. Par contre, pas d’Apple Notes dans le lot… Pour celui-là, vous devrez utiliser Exporter .

Jimmy propose deux modes d’utilisation. Soit en ligne de commande (CLI) pour les scripteurs, et une interface texte interactive (TUI) pour les autres.

Par exemple, pour convertir un seul fichier, faites :

jimmy-linux cli mon_document.docx

Pour convertir tout un dossier

jimmy-linux cli /chemin/vers/mes/notes

Ou pour convertir un export Google Keep

jimmy-linux cli takeout-20240401.zip --format google_keep

Pour un export Evernote

jimmy-linux cli Evernote_backup.enex

Et pour lancer l’interface TUI c’est comme ça :

jimmy-linux tui

Cette interface TUI vous guidera alors pas à pas. Vous sélectionnez votre fichier ou dossier source, le format d’entrée si Jimmy ne le détecte pas automatiquement, et le dossier de destination. Et c’est partiiii !

Jimmy va alors parser vos fichiers sources, en extraire tout le contenu y compris les ressources (images / pièces jointes…etc), conserver les éventuels liens internes et même générer un front matter qui contiendra les données en YAML au début de chaque fichier markdown. Par contre, tout ce qui est “proprio” comme les formules Notions ou les widgets Evernote il ne les conservera pas.

Jimmy utilise Pandoc en interne, le convertisseur universel de documents. Tout se passe en local, sur votre machine. Pas de cloud, pas de tracking, pas d’upload sur des serveurs douteux. Vos notes restent vos notes. Et l’avantage du format Markdown, c’est que c’est du texte brut avec une syntaxe simple qui sera encore lisible dans 50 ans…

Bref, Jimmy c’est l’assurance vie de vos notes car vous savez que vous pouvez continuer à utiliser votre app préférée, mais qu’en cas de pépin, vous avez cette porte de sortie. Et ça c’est cool !

Un projet DIY pour les vrais enfants de la télé

Si comme moi vous avez passé votre enfance scotché devant la télé cathodique du salon, vous vous souvenez forcément de cette sensation unique… On rentrait de l’école et on allumait la télé sans forcement savoir ce qu’on allait voir… Et c’était ça la magie de la télévision des années 90. Pas de Netflix, pas de replay, pas de choix. On allume, on tombe sur MacGyver qui fabrique une bombe avec un trombone et du chewing-gum, et c’était parti pour 45 minutes d’évasion non négociable.

Alors si ça vous dit de revivre cela, Captain Touch un super développeur vient de créer exactement ce dont j’avais besoin sans le savoir : une TV Time Machine. Le concept c’est un Raspberry Pi qui joue en boucle et de manière totalement aléatoire des épisodes de séries des années 90. Ainsi, on peut revivre l’expérience authentique de zapper et de tomber par hasard en plein milieu d’un épisode ou d’une pub, comme à l’époque où on n’avait pas le contrôle sur notre divertissement.

Son projet utilise un Raspberry Pi 3A+ (même si n’importe quel modèle fait l’affaire), une carte SD remplie de vos séries préférées, et un script bash tout simple qui lance VLC en mode aléatoire au démarrage. A vous de voir ensuite, ce que vous mettez sur votre carte SD. Pour ma part, ce serait les Chevaliers du Zodiaques, Alerte à Malibu, Parker Lewis, Vidéo Gag, les Tortues Ninja, X-Files, Mask, Mac Gyver, K2000 et j’en passe. En gros, tout ce qui passait entre le goûter et le dîner quand vous rentriez du collège, ou le weekend.

Ensuite y’a plus qu’à créer un service systemd pour que ça se lance automatiquement au démarrage, et voilà, votre machine à nostalgie est prête. Plus qu’à brancher ça sur votre vieille télé cathodique (si vous avez un boitier HDMI vers composite) et à vous laisser surprendre par ce qui va passer. C’est chouette non ?

Avec ce projet, on recrée artificiellement une contrainte qu’on a perdue avec le streaming. C’est d’ailleurs cette impossibilité de choisir qui nous forçait à découvrir des trucs qu’on n’aurait jamais regardés volontairement. Combien de fois j’ai regardé un épisode de Loïs et Clark juste parce que c’était ça ou les infos régionales ? Et finalement, j’en garde de bons souvenirs…

J’sais pas si j’aurais le temps de me monter ce petit projet mais si c’est le cas, je pense que je pousserais même le vice à ajouter des publicités d’époque, histoire de faire plus authentique.

Bref, si vous cherchez un projet sympa pour votre Raspberry Pi qui traîne dans un tiroir, et que vous avez envie de retrouver cette sensation unique du zapping années 90, vous savez ce qu’il vous reste à faire.

MakeACopy - Le scanner de documents Android qui ne raconte pas votre vie

Hey les Androidopathes, j’ai une bonne nouvelle pour vous ! Un développeur allemand vient de sortir un scanner de documents pour Android qui fonctionne sans connexion internet.

Ça s’appelle MakeACopy et ça arrive vraiment comme une bouffée d’air frais dans cet écosystème d’app de numérisation un poil toxique. Créé par Christian Kierdorf, ce scanner open source fait exactement la même chose que les mastodontes du secteur mais en mieux. L’app utilise OpenCV pour détecter automatiquement les bords du document, Tesseract pour l’OCR (reconnaissance de texte), et peut exporter en PDF avec le texte cherchable intégré. En gros, toutes les fonctionnalités premium d’ Adobe Scan , mais gratuites et privées.

Ce qui rend donc MakeACopy différent, vous l’aurez compris, c’est son approche radicale de la vie privée. Le dev compile même OpenCV depuis les sources au lieu d’utiliser des binaires précompilés, histoire de respecter les standards F-Droid et garantir qu’aucun code malveillant ne peut se glisser dans la chaîne de compilation. Bref, Kierdorf ne fait pas ça en amateur et a même implémenté une détection des coins assistée par machine learning (c’est un modèle ONNX) pour ceux qui veulent la totale.

Dans le même genre, on a aussi OpenScan qui est une autre alternative privacy-friendly qui cartonne mais MakeACopy va plus loin avec ses fonctionnalités notamment d’OCR. L’app est disponible sur Android 10 et plus, et fonctionne même sur des téléphones d’entrée de gamme. Le développeur précise que les futures versions incluront le multi-pages, l’export du texte éditable, et plus de langues pour l’OCR, tout ça en gardant le principe du 100% offline.

Bref, MakeACopy c’est le scanner de documents qu’on aurait dû avoir depuis le début. Pas besoin de compte, pas de cloud, pas de tracking, pas de pubs… juste un soft qui fait son job.

Vous pouvez télécharger MakeACopy sur le Play Store ou F-Droid , et si vous trouvez ça bien, parlez-en autour de vous, histoire d’aider votre prochain qui se galère surement encore avec Camscanner.

❌