Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 2 décembre 2025Flux principal

CM-Colors - Un petit changement de couleurs pour une accessibilité maximum

Par : Korben
2 décembre 2025 à 11:09

L’accessibilité web c’est comme le tri sélectif… tout le monde dit que c’est génial mais azy, j’ai pas le temps. Et pourtant, c’est super important car près de 80% des pages web ont des problèmes de contraste de texte.

C’est le souci noumber ouane détecté sur le million de sites analysés chaque année par WebAIM . En gros, si vous avez un site, y’a de fortes chances que certains visiteurs galèrent à lire votre contenu, et je ne vous parle pas uniquement des personnes malvoyantes, hein… y’a aussi le daltonisme qui touche environ 8% des hommes et 0,5% des femmes. Rajoutez à ça les gens qui lisent leur téléphone en plein soleil, ceux qui ont une dalle de laptop toute pourrie, et vous comprendrez vite que le problème concerne pas mal de monde.

Alors est ce que vous connaissez les normes WCAG ?

Hé bien c’est le standard international pour l’accessibilité web. Ainsi pour être conforme au niveau AA (le minimum recommandé), votre texte doit avoir un ratio de contraste d’au moins 4,5:1 avec son arrière-plan. Pour le niveau AAA (l’idéal), c’est 7:1. Et là vous vous dites “super, je vais calculer ça à la main pour mes 47 couleurs de palette, mais va bien te faire cuire le cul, Korben”. (Oui, c’est comme ça que je vous imagine quand vous lisez mes articles).

Heureusement, y’a un outil qui vient de sortir et qui va vous changer la vie : CM-Colors . Vous lui donnez vos couleurs, et il les ajuste automatiquement pour qu’elles soient accessibles, le tout en modifiant les teintes le moins possible pour garder votre design intact.

L’installation est super fastoche…. C’est du Python donc un petit pip install cm-colors et hop c’est réglé. Ensuite, vous pouvez l’utiliser soit en ligne de commande directement sur vos fichiers CSS, soit via l’API dans votre code. Par exemple, vous avez un gris #5f7887 sur un fond #e6f0f5 qui passe pas les tests, hop, CM-Colors le transforme automatiquement en #5c6f7b et maintenant c’est conforme AA. Et la différence à l’œil nu est quasi invisible. Bref, c’est nickel pour l’accessibilité !

from cm_colors import ColorPair

# Your colors
pair = ColorPair("#999999", "#ffffff")

# Fix them and preview in the terminal
fixed_color, success = pair.make_readable(show=True)

print(f"Use {fixed_color} instead of #999999")
# Output: Use #8e8e8e instead of #999999

Le truc vraiment cool, c’est que l’outil gère plusieurs niveaux de lisibilité. Y’a “Readable” qui correspond au AA, “Very Readable” pour le AAA, et même une option large_text=True pour les gros titres qui ont des exigences moins strictes. Vous pouvez donc adapter selon vos besoins et pour les devs qui bossent sur de gros projets, y’a aussi une fonction make_readable_bulk qui permet de corriger plusieurs paires de couleurs d’un coup.

from cm_colors import make_readable_bulk

my_colors = [
 ("#777", "#fff"),
 ("#888", "#000"),
]

results = make_readable_bulk(my_colors)

for color, status in results:
 print(f"{color} is {status}")

Vous lui balancez une liste de tuples (texte, fond) et il vous retourne tout ça au propre. Et si vous voulez traiter directement vos fichiers CSS, la commande cm-colors styles.css génère un nouveau fichier styles_cm.css avec toutes les couleurs corrigées. L’outil peut même générer des rapports HTML pour visualiser les changements avant/après.

Alors oui, je sais, se taper de l’accessibilité c’est un peu relou car on a toujours l’impression que c’est du temps perdu sur des détails. Mais dites vous que ça impacte vraiment l’expérience de millions d’utilisateurs, donc ça vaut le coup d’y passer 5 minutes, surtout avec un outil automatisé !

Bref, CM-Colors c’est gratuit, c’est open source sous licence GPL-3, et ça peut vous éviter pas mal de galères. Toute la documentation est ici et y’a même une démo interactive sur leur site si vous voulez tester avant d’installer.

Context7 - Vos assistants IA vont enfin arrêter d'utiliser de la doc obsolète

Par : Korben
2 décembre 2025 à 06:51

Scène du crime, mardi matin, vous demandez à Claude Code de vous générer un middleware Next.js qui vérifiera un JWT dans les cookies. Et l’IA vous pond sans sourciller 15 lignes de code bien propres, bien commentées… Elle est parfaitement confiante et vous ça vous rassure. Vous copiez son œuvre, vous collez. Et là, PAF, une erreur de compilation !!

Hé oui, la fonction qu’elle a utilisée n’existe plus depuis Next.js 14. En gros, Claude Code a halluciné tranquillement avec de la vieille doc pourrie de 2020.

Et dire qu’on a passé 20 ans à se foutre de la gueule des devs qui copient-collent du code depuis de vieux posts Stack Overflow alors qu’aujourd’hui, on copie colle sans réfléchir ce que nous donne une IA qui fait exactement pareil ! C’est ça le progrès les amis !

Hé bien Context7 vient régler exactement ce problème ! Il s’agit d’un serveur MCP (Model Context Protocol) développé par Upstash qui branche votre assistant de code sur la documentation officielle à jour, comme ça vous esquivez les fonctions dépréciées, les API fantômes, et les best practices d’il y a trois ans.

Context7 est donc compatible avec Cursor, Claude Code, Windsurf, VS Code, Zed, Gemini CLI, et tous les éditeurs qui supportent le protocole MCP (donc à peu près tout ce qui existe…) et une fois que c’est en place, y’a plus qu’à l’oublier. Si vous hésitez, y’a une démo ici pour tester .

Mais avant de commencer, sachez que vous aurez besoin de Node.js 18+ pour la méthode locale. Et pour la méthode serveur distant, juste un navigateur et votre éditeur de code.

La méthode serveur distant consiste à aller sur context7.com , à vous créer un compte gratuit, à récupérer une clé API, puis à ajouter cette config dans votre éditeur comme ceci :

{
 "mcpServers": {
 "context7": {
 "url": "https://mcp.context7.com/mcp",
 "headers": {
 "CONTEXT7_API_KEY": "votre_cle_api_ici"
 }
 }
 }
}

Pour Cursor, ouvrez les settings (Cmd+,), cherchez “MCP Servers”, et collez ça dans la config JSON. Pour Claude Code, c’est dans .claude/settings.json à la racine de votre projet. Sauvegardez, redémarrez l’éditeur, et c’est bon.

Et deuxième méthode d’install, c’est en local via npx. Après c’est la même clé API mais la config est légèrement différente :

{
 "mcpServers": {
 "context7": {
 "command": "npx",
 "args": ["-y", "@upstash/context7-mcp", "--api-key", "votre_cle_api_ici"]
 }
 }
}

Voilà, avec cette méthode, le serveur MCP tourne sur votre machine ce qui vous offre un peu plus de contrôle. Et une fois que c’est en place, vous utilisez Context7 en ajoutant simplement “use context7” dans vos prompts. Par exemple : “Créez un middleware Next.js qui vérifie un JWT valide dans les cookies et redirige les utilisateurs non authentifiés vers /login. Utilisez context7”.

L’IA va alors interroger le serveur MCP Context7, récupérer la doc officielle Next.js à jour, et générer du code qui marche vraiment. Et la liste des libs supportées grandit régulièrement : Next.js, React, Vue, Svelte, Tailwind, TypeScript, et des dizaines d’autres…

Voilà, ça prend 3 minutes à installer, ça sauve des heures de debug débile sur des APIs qui n’existent plus, et c’est gratuit pour un usage perso !

Et dans six mois vous aurez oublié que c’est installé et vous vous demanderez comment vous faisiez avant…

Merci à itchrisdeb pour l’info !

ALTCHA - Le CAPTCHA qui ne file pas vos données à Google

Par : Korben
2 décembre 2025 à 06:32

Vous savez ce qui est marrant avec reCAPTCHA ? C’est que pendant des années, on nous a fait déchiffrer des plaques d’immatriculation floues, cliquer sur des feux tricolores bizarres, et identifier des vélos volés dans des images pixelisées, tout ça pour prouver qu’on était pas un robot. Alors qu’en fait, on entrainait gratos les IA de Google à reconnaitre ce genre de choses… Du coup, faudrait savoir s’en passer maintenant.

Et ça tombe bien puisqu’il existe une alternative qui change le game : ALTCHA . C’est un système de protection anti-spam et anti-bot open source qui utilise le Proof-of-Work à la place des puzzles visuels. Comme ça, au lieu de faire bosser votre cerveau ramolli pour Google, c’est votre processeur qui fait le boulot, tout ça en local, depuis chez vous, sans envoyer le moindre octet de donnée à Mountain View.

En gros, quand vous validez un formulaire, votre navigateur résout un petit calcul cryptographique. Pour un humain avec un ordinateur normal, c’est transparent et instantané mais pour un bot qui essaie de spammer 1000 formulaires par seconde, ça devient très vite coûteux en ressources. Et le plus beau c’est qu’il n’y a pas besoin de serveurs externes, pas de tracking, pas de cookies, pas de fingerprinting puisque tout se passe en local.

En plus, ALTCHA pèse 30 KB une fois compressé alors que reCAPTCHA c’est 300 KB… Vous vous demandez pourquoi reCAPTCHA est si gros en vrai ? Hé bien c’est parce qu’il est composé d’un tas de scripts de tracking, de fingerprinting, d’analyse comportementale et j’en passe…

ALTCHA est sous licence MIT , donc vraiment libre et ça fonctionne avec tous les navigateurs modernes (Chrome 67+, Firefox 63+, Safari 11+), avec plus de 50 langues dispo et niveau conformité, c’est carré sa Cnil : GDPR, WCAG 2.2 AA, HIPAA, CCPA…etc.

ALTCHA détecte aussi les headless browsers (les navigateurs sans interface graphique utilisés pour automatiser), les scripts automatisés, et même les bots qui utilisent du machine learning. Le système analyse le contenu et le contexte utilisateur pour adapter le niveau de protection et vous pouvez le déployer partout sans problème : AWS, Azure, Kubernetes, Docker, ou juste sur votre serveur web classique. Il y a même un plugin WordPress si vous voulez pas vous embêter avec du code.

En plus, comme c’est à 100% auto-hébergé, vous ne dépendez d’aucun service externe. Alors que quand reCAPTCHA tombe en panne (spoiler : ça arrive régulièrement), votre site est pété.

Bref, si vous en avez marre de faire bosser les visiteurs de votre site gratos pour Google qui en profite pour les tracker, jetez un œil à ALTCHA . Pour une fois que l’Europe arrête de mendier ses outils de sécurité auprès des géants américains et qu’en plus c’est meilleur, ce serait dommage de s’en priver.

Hier — 1 décembre 2025Flux principal

Nano-PDF - Éditez vos PDF grâce à l'IA Nano Banana

Par : Korben
1 décembre 2025 à 13:10

Modifier un PDF, c’est toujours la galère surtout si c’est un PDF avec que des images sans texte sélectionnable. Soit vous avez Adobe Acrobat qui coûte une couille, soit vous vous tapez des outils en ligne douteux, soit vous exportez en Word et vous priez pour que la mise en page survive. Bref, vous faites vos trucs de losers….

Mais ça c’était sans compter sur Nano-PDF qui propose une approche radicalement différente : Vous décrivez ce que vous voulez changer en langage naturel, et l’IA se chargera du reste.

Par exemple, si vous avez une présentation PDF avec une faute de frappe sur la slide n°5, au lieu de galérer avec un éditeur, vous tapez juste

`nano-pdf edit ma_presentation.pdf 5 "Corrige la faute sur le mot 'investisement'"`

Et hop, c’est réglé. Vous voulez mettre à jour un graphique avec les données de 2025 ? Pareil, vous décrivez le changement et l’outil se débrouille !

Nano-PDF utilise le modèle Gemini 3 Pro Image de Google (surnommé “Nano Banana Pro”) pour interpréter vos instructions et générer les modifications visuelles. Le workflow technique est d’ailleurs bien fichu puisque les pages PDF sont converties en images via Poppler , envoyées au modèle avec votre prompt, puis les images générées sont reconverties en PDF avec une couche de texte restaurée par OCR via Tesseract. Du coup, vos PDF restent sélectionnables et cherchables après modification, contrairement aux solutions qui vous filent des images aplaties.

Côté fonctionnalités, y’a pas mal de choses sympas. Vous pouvez par exemple éditer plusieurs pages en une seule commande, créer de nouvelles slides qui respectent le style visuel de votre deck existant, même utiliser des pages de référence pour que l’IA comprenne mieux votre charte graphique, et le traitement par lot est géré en parallèle pour gagner du temps sur les grosses présentations.

L’installation passe par pip avec

`pip install nano-pdf`

Et comme je vous le disais, il vous faudra aussi Poppler pour le rendu PDF et Tesseract pour l’OCR. Et attention, petit détail qui a son importance, l’API Gemini Pro Image nécessite un compte payant. Faudra sortir la thune car les clés gratuites ne permettent pas de générer des images… donc bon, prévoyez quelques euros de crédit Google Cloud si vous voulez tester.

Le truc cool, c’est par défaut c’est du 4K en résolution, mais vous pouvez descendre en 2K ou 1K si vous voulez économiser sur les coûts d’API. Y’a aussi une option --use-context qui envoie tout le texte du PDF au modèle pour qu’il comprenne mieux le contexte de vos modifications. Et si vous créez une nouvelle slide, cette option est activée par défaut pour que le résultat soit cohérent avec le reste du document.

Voilà, si vous passez votre vie à modifier des présentations PDF et que vous en avez marre des workflows à rallonge, installez Nano-PDF . C’est open source sous licence MIT, et ça change la vie !

Merci Lorenper pour le partage !

Furnace - Le tracker qui transforme votre PC en console 8 bits musicale

Par : Korben
1 décembre 2025 à 09:46

Si vous avez grandi avec les bips et les blops des consoles 8 bits et que vous avez toujours rêvé de composer vos propres musiques façon NES, Game Boy ou Mega Drive, pas besoin d’investir dans un Ableton Live ou un FL Studio à whatmille boules car je vous ai trouvé un truc qui va vous permettre de composer de la musique 8 bit comme un chef !

Ça s’appelle Furnace et c’est un tracker de chiptune open source qui émule plus de 60 puces sonores différentes et vous fera peut-être regretter de pas avoir appris le solfège quand vous étiez plus jeune..

Alors pour ceux qui ne connaissent pas, un tracker c’est un logiciel de composition musicale où on empile des notes et des patterns les uns sur les autres, un peu comme dans les jeux de rythme (Guitar Hero ?), sauf que là c’est vous qui créez la musique. Et Furnace, c’est probablement le plus gros tracker multi-système jamais créé avec plus de 200 configurations prêtes à l’emploi dispo.

Le truc vraiment cool, c’est que ce logiciel utilise des cœurs d’émulation de qualité comme Nuked, MAME, SameBoy ou encore reSID pour reproduire fidèlement le son du hardware original. Donc que vous vouliez le son crunchy du Commodore 64, les nappes FM de la Mega Drive ou les samples de l’Amiga, tout y est émulé avec une précision quasi parfaite !

Côté puces supportées, y’a vraiment de quoi faire… La famille Yamaha FM au complet (YM2151, YM2612, YM2413, l’OPL3…), les puces Nintendo (NES, SNES, Game Boy), le mythique SID du C64, les puces d’arcade Neo Geo et CPS-1, et même des trucs plus exotiques comme l’Atari 2600 ou le Vectrex. En tout, le tracker gère jusqu’à 32 puces simultanées soit 128 canaux au total… De quoi composer une symphonie 8 bits de compétition.

L’interface est entièrement modulable et vous pouvez arranger les fenêtres comme bon vous semble. Y’a même un oscilloscope par canal avec centrage de la forme d’onde pour les perfectionnistes et si vous utilisiez DefleMask avant, bonne nouvelle puisque Furnace charge et sauvegarde les fichiers .dmf et .dmw donc vous pouvez migrer tranquillou.

Pour l’export, c’est pas mal non plus puisque vous pouvez sortir vos compos en WAV (par puce ou par canal), en VGM, en ZSM pour le Commander X16, et même directement en ROM Atari 2600 ou 400/800. Hé oui, vous pouvez littéralement mettre votre musique sur une vraie cartouche si ça vous éclate, les nerdzzzz.

Le projet tourne sous licence GPL, donc c’est gratuit et open source et il est dispo pour Windows, macOS (Intel et Apple Silicon), Linux et FreeBSD.

Voilà, si vous avez la fibre chiptune et que vous cherchez un outil complet pour composer de la musique rétro, foncez tester Furnace . Peut-être que ça vous permettra enfin de créer la bande son du jeu vidéo de vos rêves !!!

À partir d’avant-hierFlux principal

Gradio 6 débarque pour créer des interfaces encore plus fluides

Par : Korben
27 novembre 2025 à 07:30

Si vous bidouiller un peu de machine learning et que vous avez la flemme de coder une interface web from scratch pour montrer vos jolis modèles, vous connaissez probablement Gradio , cette librairie Python qui permet de créer des démos interactives en quelques lignes de code.

Hé bien, excellente nouvelle, la version 6 vient de sortir et elle apporte pas mal de nouveautés intéressantes.

La grosse news de cette mise à jour , c’est d’abord la refonte complète de l’architecture avec le passage à Svelte 5 . Pour ceux qui s’en fichent du frontend, ça veut dire concrètement que vos apps seront plus légères et plus rapides à charger. L’équipe a aussi bossé sur l’optimisation des files d’attentes (quand y’a du monde sur votre démo), surtout pour les serveurs MCP (Model Context Protocol), donc si vous hébergez des trucs sur Hugging Face Spaces, vous devriez sentir la différence.

Côté fonctionnalités, y’a aussi quelques ajouts sympas comme le support natif des sous-titres pour les vidéos et l’audio, une nouvelle interface “MultimodalTextbox” améliorée pour le mobile (qui était franchement pas terrible avant), et pour ceux qui font des apps multipages, y’a maintenant un composant “Navbar” dédié à ça !

Le truc qui va plaire aux devs aussi, c’est qu’on peut désormais écrire des composants web personnalisés directement en HTML/JavaScript inline dans le code Python. Comme ça, plus besoin de sortir l’artillerie lourde avec des outils de build externes. Vous collez juste votre HTML, votre JS, et c’est parti mon kiki.

Par contre, attention si vous avez des projets existants… Y’a des changements qui vont casser des trucs. Par exemple, le format tuple dans le Chatbot a été supprimé, le composant Sketch est déprécié, et pas mal de paramètres ont bougé dans les composants graphiques natifs. L’équipe a quand même prévu un guide de migration avec des warnings de dépréciation pour vous aider à faire la transition.

A partir de maintenant, seule la branche 6.x sera maintenue, donc si vous êtes encore sur une vieille version, c’est le moment de migrer. La mise à jour se fait classiquement avec un

pip install --upgrade gradio

Notez que Gradio 6 nécessite Python 3.10 minimum et le support de Python 3.14 a été ajouté pour vous, les early adopters ^^.

Voilà, si vous faites du ML ou autre et que vous voulez montrer vos démos sans vous prendre la tête avec du React ou du Vue, Gradio reste une valeur sûre, et avec cette version 6 qui arrive, ce sera encore plus fluide et rapide !

Source

Des outils de formatage de code ont exposé des milliers de mots de passe

Par : Korben
26 novembre 2025 à 17:56

Bon, j’étais un petit peu occupé aujourd’hui parce que c’est mercredi et c’est le jour des enfants, mais je ne pouvais pas finir ma journée sans vous parler de cette histoire incroyable.

Si vous faites partie des gens qui utilisent des sites comme JSONFormatter ou CodeBeautify pour rendre votre JSON lisible ou reformater du code, et bien figurez-vous que des chercheurs en sécu viennent de découvrir que ces outils ont laissé fuiter des tonnes de données sensibles durant des années. Et quand je dis tonnes, c’est pas une figure de style puisque ce sont plus de 80 000 extraits de code contenant des credentials en clair qui ont fuité, soit plus de 5 Go de données.

En effet, les chercheurs de WatchTowr ont découvert que la fonction “Recent Links” de ces plateformes permettait d’accéder à tous les bouts de code collés par les utilisateurs. Les URLs suivaient un format prévisible, ce qui rendait le scraping automatique hyper fastoche pour n’importe qui, et c’est comme ça qu’on a découvert que JSONFormatter a exposé durant 5 ans de données les données de ses utilisateurs. Et du côté de CodeBeautify, ça a duré 1 an.

Les chercheurs ont mis la main sur des identifiants Active Directory, des identifiants de bases de données et services cloud, des clés privées de chiffrement, des tokens d’accès à des repos Git, des secrets de pipelines CI/CD, des clés de passerelles de paiement, des tokens API en pagaille, des enregistrements de sessions SSH, et même des données personnelles de type KYC. Bref, le jackpot pour un attaquant, quoi.

Et côté victimes, c’est un festival puisqu’on y retrouve des agences gouvernementales, des banques, des assurances, des boîtes d’aéronautique, des hôpitaux, des universités, des opérateurs télécom… et même une entreprise de cybersécurité. On a même retrouvé les credentials AWS d’une bourse internationale utilisés pour leur système Splunk, ainsi que des identifiants bancaires provenant de communications d’onboarding d’un MSSP (Managed Security Service Provider). C’est cocasse comme dirait Macron.

Et pour prouver que le problème était bien réel et exploitable, les chercheurs de WatchTowr ont utilisé un service appelé Canarytokens dont je vous ai déjà parlé. Ils ont implanté de faux identifiants AWS sur les plateformes et ont attendu de voir si quelqu’un y accédait…

Résultat, quelqu’un a tenté de les utiliser 48 heures après que les liens étaient censés avoir expiré, et 24 heures après leur suppression supposée. Les données restaient donc accessibles bien au-delà de ce que les utilisateurs pouvaient imaginer.

Et le pire dans tout ça c’est qu’au moment de la publication des articles, les liens “Recent Links” étaient toujours accessibles publiquement sur les deux plateformes. Bref, aucune correction n’a été déployée.

Donc, voilà, si vous avez utilisé ces outils par le passé et que vous y avez collé du code contenant des identifiants et autres clés API (même par inadvertance), c’est le moment de faire une petite rotation de vos secrets.

Et même si c’est une évidence, de manière générale, évitez de balancer du code sensible sur des outils en ligne dont vous ne maîtrisez pas la politique de conservation des données.

Source

Ce mec héberge son site web sur un vieux smartphone

Par : Korben
26 novembre 2025 à 06:40

Vous avez surement un vieux smartphone qui traîne au fond d’un tiroir, non ? Bah au lieu de le laisser pourrir ou de le balancer à la déchetterie, pourquoi ne pas en faire un vrai serveur web ?

Je sais ce que vous pensez… Ce mec est fou. Et pourtant, c’est exactement ce qu’a fait Louis Merlin avec son projet Far Computer . Son site tourne littéralement sur un Fairphone 2 posé dans un tiroir, avec PostmarketOS comme système d’exploitation. Le site affiche en temps réel les stats de la machine donc au moment où j’écris ces lignes, 5% de CPU, 280 Mo de RAM utilisés sur 1.8 Go disponibles… C’est presque de la puissance gâchée pour servir quelques pages statiques, mdr.

Ce projet s’inscrit dans cette mouvance du “sustainable computing” où l’idée c’est de donner une seconde vie aux appareils qu’on jette après 2-3 ans alors qu’ils ont encore plein de ressources à offrir. D’ailleurs, PostmarketOS est parfait pour ça puisque c’est une vraie distrib Linux basée sur Alpine, ultra légère, et qui supporte plus de 200 appareils différents, des vos vieux Nokia N900 aux tablettes en passant par les liseuses…

D’ailleurs le guide d’installation dispo sur far.computer/how-to est hyper bien fait si vous voulez vous lancer. En gros vous avez besoin d’un PC Linux (ou une VM), vous installez pmbootstrap, vous flashez le téléphone en mode bootloader, et hop, une fois PostmarketOS installé, vous vous connectez en SSH, vous configurez le WiFi avec nmcli, vous créez votre dossier /var/www/html/, vous lancez httpd et voilà. Votre vieux téléphone est devenu un serveur web.

Alors bien sûr, pour mon site avec son million de visiteurs uniques par mois, ça le ferait moyen et faudrait quand même coller un CDN devant pour encaisser la charge, mais pour un projet perso, un blog à faible trafic, une API interne ou juste pour le plaisir de dire aux inconnus dans la rue, “Hey bonjour, on ne se connait pas mais mon site tourne sur un téléphone”, c’est vraiment cool (et un peu creepy).

Certains vont même plus loin en montant des clusters Kubernetes avec plusieurs vieux smartphones . Quand on sait que ces machins ont souvent des specs supérieures à un Raspberry Pi et qu’ils consomment que dalle en électricité, je me dis qu’il y a vraiment un truc à explorer.

Point important à garder en tête quand même, évitez de laisser le téléphone branché en permanence sur le chargeur car les batteries n’aiment pas trop ça, et ça peut finir en feu de joie improvisé. Idéalement faut virer la batterie si c’est possible ou mettre en place une gestion de charge intelligente.

Le code source du projet Far Computer est dispo sous licence CC BY-NC-SA 4.0 donc vous pouvez vous en inspirer, le modifier, le partager… tant que c’est pas pour du commercial bien sûr et que vous gardez la même licence.

Voilà, vous savez ce qu’il vous reste à faire si vous avez des vieux smartphones qui prennent la poussière.

Ackify - Pour confirmer la lecture d'un document

Par : Korben
21 novembre 2025 à 08:34

Benjamin, lecteur de korben.info, m’a envoyé un email pour me parler d’ Ackify , son nouveau projet open-source. L’idée avec Ackify c’est de pouvoir confirmer qu’un document a bien été lu !

Je parle pas de signature électronique, hein. Pour ça y’a déjà DocuSign, Adobe Sign, HelloSign…etc. Non, je vous parle des cas où vous avez juste besoin de prouver que Thérèse de la compta a bien reçu, ouvert et lu le PDF de la nouvelle procédure RGPD. Et pour ça, les solutions du marché sont soit surdimensionnées, soit inexistantes, du coup, les boîtes bidouillent avec des Google Forms pourris ou des macros Excel qui traînent dans le coin depuis 2003.

Ackify tourne en Docker distroless, s’installe en 5 minutes avec un script, et fonctionne sur PostgreSQL 16. L’authentification se fait via Magic Link sans mot de passe, ou OAuth 2 si vous préférez Google, GitHub ou GitLab. Ensuite, une fois connecté, vous lisez le document, vous cliquez sur “J’ai lu”, et c’est terminé. Une signature cryptographique Ed25519 est générée, le checksum SHA-256 du document est vérifié, et tout part dans un audit trail immuable.

Le principe est donc super solide et chaque utilisateur ne peut signer qu’une seule fois par document. Ensuite, vous en tant qu’admin, vous avez un dashboard pour tracker qui a lu quoi. Il y a également des rappels automatiques par email pour ceux qui traînent et des widgets que vous pouvez intégrer dans votre intranet si ça vous amuse !

Sans oublier que c’est multi-lingue !

Bref, que ce soit pour obtenir des attestations de lecture de politiques de sécurité, des formations internes avec validation, la prise en compte de directive RGPD, des procédures de conformité…etc, Ackify pourra vous aider sans avoir à sortir l’artillerie lourde de la signature électronique traditionnelle.

Voilà, c’est gratuit, open source et vous pouvez avoir tous les détails sur le site officiel du projet : ackify.eu .

System.css - Donnez un look 100% retro Apple à votre site web

Par : Korben
20 novembre 2025 à 10:02

Si vous aimez tout ce qui est rétro, vous avez peut-être déjà essayé de donner un look MS Dos , Windows 95 , Windows 98 , Windows XP ou encore Windows 7 à votre site web.

Ce que vous n’avez jamais osé faire, c’est de lui donner un look Apple System 6 !

Et ça c’est quand même un OS qui est sorti en 1988 soit 7 ans avant Windows 95 et ce qui est incroyable c’est qu’il avait déjà une interface parfaitement mature avec des fenêtres, des icônes, des menus déroulants et tout ça était en noir et blanc, mais c’était pas moche, bien au contraire !

Et ce qu’on oublie c’est que Windows 3.0 a débarqué deux ans plus tard en 1990 avec une interface… étrangement familière. Alors on ne va pas se mentir, Microsoft s’est LARGEMENT inspiré de ce qu’Apple faisait depuis 1984 avec le premier Macintosh qui se sont eux-mêmes inspiré des interfaces vues lors de la visite de Steve Jobs au Xerox PARC.

Apple qui ne doute de rien, a même attaqué Microsoft en justice pour ça en 1988. Le procès a été perdu, mais bon, l’histoire retient qui a copié qui !

Du coup, plutôt que de continuer à cloner les clones, system.css ferme la boucle en revenant à la source. Ce projet est développé par Saket Choudhary et prend son inspiration directe des guidelines de design d’Apple pour System 6, la dernière version monochrome de macOS avant l’arrivée de System 7 en couleur en 1991.

Le truc cool avec system.css, c’est que ça fonctionne exactement comme 98.css. Y’a aucun JavaScript… Vous incluez juste le fichier CSS via CDN ou npm, et hop, tous vos composants HTML prennent instantanément l’apparence d’une interface Macintosh de 1988. Des boutons arrondis, des fenêtres avec une bordure de 19 pixels, des barres de titre, des menus déroulants incroyables, des checkboxes carrées, des boites de dialogues avec double bordure. Tout est là !

L’installation se fait en deux lignes. Via CDN, vous balancez ce code dans votre HTML:

<link rel="stylesheet" href="https://unpkg.com/@sakun/system.css">

Ou via npm, c’est :

`npm i @sakun/system.css`

C’est compatible avec React, Vue, Svelte, ou du HTML vanilla pur jus !

La page de démo affiche d’ailleurs tous les composants disponibles et tout respecte scrupuleusement les spécifications originales de l’OS.

Voilà, avec system.css , vous pouvez donc créer des interfaces web qui ressemblent à celles que les gens utilisaient quand internet n’existait pas encore pour le grand public. Impec pour filer un petit coup d’vieux à votre prochain site web !

Merci à Lorenper pour l’info !

Linus Torvalds - Le vibe coding c'est cool, mais pas pour du code critique

Par : Korben
19 novembre 2025 à 11:08

Linus Torvalds vient de donner son avis sur l’IA et le vibe coding et ça ne va pas plaire à tout le monde, ahahaha.

Hé oui car pendant que le monde tech se déchire entre les évangélistes de l’IA qui veulent tout automatiser et les énervés qui refusent l’IA par principe idéologique, Linus débarque dans le game avec un avis… de complet normie.

Lors de l’Open Source Summit à Séoul qui vient d’avoir lieu, Linus a partagé sa vision sur l’IA générative et le fameux “vibe coding”. Et son avis, c’est que l’IA c’est juste un outil de plus !

Ah putain, ça fait plaisir de lire ça ! ( Tout comme cet article d’ailleurs )

Le vibe coding, pour ceux qui débarquent, c’est ce terme inventé par Andrej Karpathy d’OpenAI qui consiste à décrire ce que vous voulez coder à un LLM. Ce dernière génère alors le code, et vous testez si ça marche ou si ça marche pas. Et ensuite vous demandez des ajustements et ainsi de suite !

Autant dire que c’est devenu un sujet chaud pour pleiiiins de raisons.

Bref, Linus se déclare “plutôt positif” sur le vibe coding mais uniquement comme point d’entrée en informatique. Pour des petits projets, des prototypes rapides…etc c’est top car ça permet à des gens qui ne savent pas coder de faire des trucs super ! Mais après pour du code critique en production, il est cash en expliquant que ça risque d’être “horrible, horrible d’un point de vue maintenance”. Et je ne peux pas lui donner tort.

Linus n’utilise pas personnellement d’IA pour coder mais il voit bien que des gens testent l’IA pour travailler sur du code critique dans le noyau Linux et ça il s’en méfie à raison car les mainteneurs du kernel se prennent régulièrement des bugs reports et des security notices complètement bidons générés par des gens qui utilisent mal les IA.

Les crawlers IA posent aussi des problèmes techniques sur kernel.org car ces bots qui aspirent tout le code pour nourrir leurs modèles font ramer les serveurs. Quoiqu’il en soit, Linus est plutôt modéré sur le sujet de l’IA générative pour coder et attend avec impatience le jour où l’IA sera un truc moins hype. En gros, qu’on arrête d’en parler H24 et qu’on l’utilise juste quand c’est pertinent…

C’est vrai que d’un côté, vous avez ces fifous pro-IA à toutes les sauces qui pensent qu’on va tous devenir des prompt engineers et que les devs vont disparaître (spoiler : non). Et de l’autre, les donneurs de leçons en pureté technologique qui refusent l’IA en bloc sans jamais se poser la moindre question.

Du coup, je vous avoue que je suis content de voir qu’au milieu de tout ce bordel, y’a ce bon vieux Linus qui nous explique que c’est juste un stupide outil et qu’il faut simplement apprendre à l’utiliser intelligemment.

Y’aura bien sûr des comiques qui vont dire que Linus s’est “radicalisé” car avoir un avis nuancé en 2025, c’est devenu extrémiste de ce que j’ai pu voir ces derniers jours, mais sachez que Linus a un peu de bagage historique. Il se souvient par exemple, comme je le disais en intro, du même genre de débats quand les compilateurs sont arrivés. A l’époque, y’avait les puristes du pissage de code qui hurlaient que ça allait tuer le métier de “programmeur” alors qu’au final, ça a juste augmenté la productivité, la sécurité et que ça a permis de faire des trucs plus complexes.

Voilà… l’IA, c’est TOUT PAREIL. Ça va changer la manière dont on code au quotidien, mais ça va pas remplacer les devs (pas tout de suite en tout cas). Ça va juste les rendre plus productifs comme n’importe quel nouvel outil dispo dans votre boite à outils.

Et pour les fans de vibe coding qui veulent quand même l’utiliser sérieusement, gardez en tête les limites du truc. N’oubliez pas que vous ne pouvez pas comprendre ce que le code fait si vous ne le passez pas en revue. Et vous ne pourrez pas le débugger proprement, le maintenir sur le long terme, ou encore le sécuriser si vous ne comprenez pas précisément ce qu’il fait. Donc forcez-vous un peu ;-) !

Merci Linus !

Source

Google Antigravity - Bienvenue dans l'ère du développeur qui ne développe plus

Par : Korben
18 novembre 2025 à 21:38

Oh non, vilain Korben va encore parler de méchante IA, lol ! Car oui, j’sais pas si vous avez vu, mais Google vient de lancer Antigravity et tout le monde s’emballe et un Mars (uh uh !) en disant que c’est LE nouvel IDE magique pour coder avec des agents IA ! Et c’est surtout une grosse pub pour son nouveau modèle Gemini 3 sorti en même temps, faut bien le dire !

Et pour le coup, faut reconnaître que niveau timing, Google a frappé fort puisque Gemini 3 débarque moins d’une semaine après la sortie de GPT-5.1 d’OpenAI et seulement deux mois après Claude Sonnet 4.5. Hé oui, la guerre des modèles fait rage et personne ne veut laisser les autres prendre l’avantage, à ma plus grande joie (Oui, j’aime la tech et tester tous ces trucs) !

Sur le papier Antigravity est donc une plateforme de développement “agent-first” où les agents IA ont un accès direct à votre éditeur de code (un VS Code as usual), votre terminal et votre navigateur. Comme ça, ils peuvent écrire des specs, coder vos idées les plus folles, puis tester et valider tout ça pendant que vous, de votre côté, vous pouvez continuer à écrire des saloperies sur Mastodon !

Que demande le peuple ? lol

Et ces petits agents IA sont très forts pour produire ce que Google appelle des “artefacts”. En gros, ce sont des listes de tâches, des plans d’implémentation, des screenshots, ou encore des enregistrements vidéo de ce qu’ils ont fait ou prévoient de faire. Et vous, de votre côté, votre seul job c’est de valider ces artefacts et de commenter ce qui est produit.

Félicitations, vous venez d’avoir une promotion ! Vous n’êtes plus développeur, vous êtes maintenant chef de projet !

On peut bien sûr, toujours éditer le code, mais on va arrêter de faire semblant, ce n’est clairement plus l’objectif puisque ce sont les agents qui s’en occupent. Et ces derniers sont capables d’apprendre de vos retours en se construisant une base de connaissance interne avec vos feedbacks afin d’affiner les process et de tendre le plus efficacement possible vers vos objectifs.

Voilà… Maintenant, si vous aimez vraiment écrire du code avec vos petits doigts boudinés, ça ne sera pas fun, c’est certain. Par contre, si comme moi, vous êtes un piètre codeur mais que vous avez des tas d’idées folles et que vous aimez orchestrer, piloter, et valider des trucs, vous allez sur-kiffer !

Mis à par Gemini 3, Antigravity supporte aussi GPT-OSS, et les modèles d’Anthropic (Claude Sonnet 4.5 pour être précis) et d’OpenAI. L’outil est pour le moment gratuit en preview publique pour Mac, Windows et Linux et les limites d’utilisation de Gemini 3 Pro (en mode Low) sont très généreuses selon Google.

Et pour ceux qui se demandent si Gemini 3 c’est du vent ou du solide, sachez que le modèle cartonne sur les benchmarks avec un score de 1501 Elo sur LMArena (record absolu), 37.5% sur Humanity’s Last Exam (niveau PhD quand même), 91.9% sur GPQA Diamond, et 76.2% sur SWE-bench Verified qui teste spécifiquement les capacités de coding. Bref, sur le papier, c’est du lourd.

Google a même prévu une version “Deep Think” de Gemini 3 pour les abonnés Ultra qui arrivera dans les prochaines semaines, avec encore plus de capacités de raisonnement pour les tâches complexes. Et avec plus de 650 millions d’utilisateurs mensuels sur Gemini, on sent que Google veut vraiment en faire son fer de lance et détrôner OpenAI et Anthropic dans le cœur des codeurs !

Bref, maintenant à voir ce que ça donne en vrai et si ça fonctionne mieux que Windsurf ou Cursor, mais ça, je vous le dirai plus tard quand je me serais un peu plus amusé avec… Antigravity, c’est peut-être l’avenir du dev, ou c’est peut-être juste Google qui essaie de vous forcer à changer de taf sans vous demander votre avis… qui sait ?

On verra bien si leur mayonnaise prend, mais en attendant, si vous testez, dites-moi ce que vous en pensez, je suis curieux.

Docker Manager - Pour gérer vos conteneurs depuis votre smartphone

Par : Korben
17 novembre 2025 à 11:09

Vous vous souvenez de la dernière fois où vous avez dû redémarrer un container Docker en urgence depuis votre téléphone, planqué dans les chiottes du resto un jour de St Valentin ?

Le minuscule clavier, la connexion SSH qui rame, les commandes qu’on tape mal parce que l’autocorrect veut absolument transformer “docker ps” en “docker pas”, l’écran trop petit pour lire les logs… Bref, la grosse merde !!

Heureusement, Docker Manager débarque pour transformer ce cauchemar en expérience qui fait plaisir aux yeux. C’est une app Android qui gère vos containers Docker à distance, et c’est tellement bien foutu que vous allez enfin arrêter d’ouvrir votre laptop n’importe où juste pour faire un simple restart.

C’est vrai que faire du SSH depuis un smartphone, ça a toujours été possible. Y’a même plein d’apps terminal mobiles, de clients fait pour ça, même des bidouilles pour se connecter à vos serveurs. Mais “possible” et “agréable”, c’est pas vraiment la même chose.

Grâce à Docker Manager ce sera donc possible ET agréable ! Vous gérez déjà Docker, vous connaissez déjà les commandes, vous savez ce que vous faites mais au lieu de vous faire taper des commandes dans un terminal de 5 pouces, l’app vous offre une interface utilisateur carrée avec des boutons, des statistiques en temps réel, des logs lisibles, et même un shell interactif quand vous en avez vraiment besoin !

Vous connectez donc vos serveurs via SSH (mot de passe ou clé, comme d’hab), et hop, vous aurez accès à tout. Start/stop/restart de containers, inspection des images, gestion des volumes et des networks, stats CPU/RAM en direct… Tout ce que vous feriez normalement en SSH, mais sans vous arracher les yeux sur un terminal mobile.

Autre truc sympa, l’app supporte plusieurs serveurs, donc vous pouvez switch entre votre VPS perso, votre homelab, et votre serveur de prod en deux tapotages ^^. Elle gère aussi les VPN comme Tailscale, donc si vos serveurs sont derrière un réseau privé, pas de problème. Elle propose même des thèmes light/dark, parce que oui, même en pleine nuit à 3h du matin quand un container plante, vous avez le droit à votre petit confort visuel.

L’app supporte aussi Podman. Vous configurez juste votre CLI Docker custom, et ça marche ! Et en plus, c’est open source ! Vous pouvez même faire du cleanup système pour virer les images et containers qui traînent histoire de faire un peu de ménage.

L’app est dispo sur le Play Store et sur GitHub pour ceux qui veulent build depuis les sources ou juste regarder le code. Testez, vous verrez, ça change la vie.

Merci à Friendly_0day pour le partage !

P2P Media Loader - Le retour discret de BitTorrent dans votre navigateur

Par : Korben
13 novembre 2025 à 10:22

BitTorrent c’était le diable dans les années 2000. Y’a eu des procès, des fermetures de trackers, et une guerre totale contre le piratage . Mais ça reste quand même une belle techno, notamment pour certaines plateformes de streaming un peu niche et solutions d’entreprise qui s’en servent discrètement afin d’économiser des millions en frais de CDN.

Car oui, avec le P2P, c’est vous qui payez la bande passante (en partie) ^^.

P2P Media Loader , c’est son nom est donc une lib JavaScript open source qui utilise WebRTC pour faire du streaming vidéo peer-to-peer directement dans votre browser. Vous regardez une vidéo, votre navigateur se connecte à d’autres viewers et vous échangez des segments vidéo entre vous. En gros, c’est comme BitTorrent, mais en version HTML5.

P2P Media Loader est donc la solution parfait pour réduire les coûts de bande passante des plateformes de streaming. Et tout ça de manière totalement transparente !

Techniquement, ça repose donc sur WebRTC et des trackers (comme BitTorrent) qui permettent aux navigateurs de se trouver entre eux ( y’a une démo ici ). Le projet utilise le protocole de signalisation de WebTorrent, ce qui veut dire que vous pouvez utiliser des trackers publics pour débuter, ou installer votre propre tracker si vous voulez gérer des gros volumes.

Et là, ça devient vraiment intéressant niveau scalabilité car avec un petit VPS à 3,50 €/mois et le tracker wt-tracker , vous pouvez gérer jusqu’à 20 000 viewers en simultané. Et si vous passez sur Aquatic (un tracker écrit en Rust), un serveur dédié 8 cœurs à 10-30€/mois peut tenir une charge de 100 000 viewers en simultané. Et si vous êtes vraiment radin (coucou les Auvergnats), Oracle Cloud offre un tier gratuit avec 4 cœurs ARM et 24 Go de RAM qui peut gérer des pics jusqu’à 100k peers sans rien débourser.

Et pour aller au-delà du million de viewers, il faudra passer sur du sharding (découpage en plusieurs trackers) avec différentes stratégies… Soit par contenu, soit par région géographique, soit par hash… Bref, des techniques classiques de distribution de charge, mais appliquées au P2P.

Le truc cool, je trouve c’est que ça fonctionne aussi bien pour du live que pour de la VOD, et même sur les apps mobiles iOS et Android. D’ailleurs, des projets comme PeerTube l’utilisent déjà pour réduire leurs coûts d’hébergement.

Bref, votre browser devient un mini-CDN en tout discrétion et ça permet aux personnes qui montent des infras de streaming, d’économiser de la thune.

Merci à Letsar pour le partage !

P2P Live Share - Pour coder à plusieurs sans donner son âme à Microsoft

Par : Korben
13 novembre 2025 à 06:53

Vous connaissez Live Share de Microsoft ? C’est un truc génial dans VS Code qui permet de coder à plusieurs en temps réel, de partager des terminaux, de debug ensemble. Sauf qu’il y a un petit détail relou : il faut un compte Microsoft ou GitHub. Et comme par hasard, toutes vos sessions doivent passer par les serveurs de Redmond.

Sympa donc pour la télémétrie.

Heureusement, P2P Live Share fait exactement la même chose, mais en peer-to-peer. Pas besoin de vous créer un compte, ça ne transite par aucun serveur intermédiaire, et surtout Microsoft ne mate pas votre code. Vous donnez simplement l’URL de la session à votre pote, il la colle dans son VS Code, et vous êtes connectés en direct, en P2P les amis, grâce à WebRTC !

Et l’extension fait tout ce qu’on attend d’un outil de collaboration à savoir du partage de code en temps réel, une synchronisation des curseurs, des terminaux partagés, du port forwarding, et même un chat intégré.

Une fois installé, quand vous lancez une session, P2P Live Share génère une URL unique avec un ID de room. Vous envoyez cette URL à votre collègue, il clique sur “Join”, et hop, vous êtes connectés en WebRTC direct.

D’ailleurs, selon la doc officielle , l’extension utilise plusieurs serveurs de signaling pour garantir la connexion : BitTorrent, Firebase, IPFS, Nostr comme ça, si l’un tombe, les autres prennent le relais. C’est du vrai décentralisé et vous pouvez même partager des ports, comme avec avec Live Share classique.

Comme ça, vous lancez un serveur web local sur le port 3000, et votre collègue peut y accéder directement depuis son navigateur. C’est super pratique pour tester une app en développement sans déployer quoi que ce soit.

Le terminal partagé fonctionne aussi très bien ! Vous ouvrez un shell, et votre pote peut taper des commandes dedans en temps réel. Bon, niveau sécurité, faut faire confiance à la personne en face mais c’est le même principe qu’avec Live Share.

Ce projet est open source sous licence MIT , donc vraiment libre et tout est chiffré de bout en bout. Alors oui, c’est moins mature que Live Share et forcément, il y aura des bugs mais au moins, vous ne filez pas votre code à Microsoft !

A découvrir ici !

LeechBlock - L'extension qui vous sauve de la procrastination

Par : Korben
12 novembre 2025 à 10:21

650 milliards de dollars, c’est ce que coûte la procrastination aux entreprises américaines chaque année selon les dernières études sur la productivité . En gros, on passe en moyenne 2 heures par jour à glander sur des sites qui n’ont rien à voir avec le boulot. Et je suis le premier concerné, surtout quand YouTube décide de me proposer une vidéo de 3 heures sur l’histoire complète des processeurs alors que j’ai un article urgent à finir et que je dois avancer dans Cyberpunk 2077 !

Heureusement, c’est là qu’intervient LeechBlock NG , une extension gratuite qui fait exactement ce que son nom suggère : elle bloque toutes ces sangsues virtuelles qui aspirent votre temps. Et contrairement à ce que vous pourriez penser, ce n’est pas juste un bête bloqueur de sites… Non non, c’est bien plus que ça, vous allez voir !

L’extension vous permet de configurer jusqu’à 30 ensembles de sites ou de mots clés différents, chacun avec ses propres règles. Vous pouvez par exemple bloquer X, et Mastodon de 9h à 17h en semaine, limiter Reddit à 10 minutes par heure, et interdire complètement YouTube après 22h pour éviter de tomber dans le trou noir des vidéos recommandées avant de dormir.

Ce que j’aime bien aussi c’est la possibilité d’utiliser des wildcards. Comme ça, au lieu de bloquer juste facebook.com, vous pouvez bloquer *.facebook.com pour couvrir toutes les sous-domaines. Pareil pour les sites de streaming avec *.netflix.com, *.youtube.com, etc. Et si vous avez besoin d’accéder à une page spécifique pour le travail, vous pouvez créer des exceptions. Par exemple, bloquer tout YouTube sauf les chaînes tech dont vous avez vraiment besoin.

La fonction “Lockdown” est aussi cool que brutale car ça boque instantanément tous vos sites configurés pendant une durée déterminée. C’est parfait quand vous sentez que votre volonté commence à faiblir et que l’envie de juste vérifier vite fait ce que partagent vos potes nazincels sur X.com devient irrésistible.

Il est aussi possible de recevoir un avertissement avant tout blocage pour que vous sachiez que le moment fatidique approche.

Et pour les plus malins qui pensent pouvoir contourner le système en désinstallant l’extension, LeechBlock propose une protection par mot de passe. Mettez un mot de passe aléatoire et donnez le à un collègue ou un ami et comme ça, vous serez bloqué pour de vrai. Sinon, vous pouvez aussi configurer un mot de passe de 32, 64 ou 128 caractères aléatoires que l’app vous obligera à recopier lettre par lettre pour accéder aux options. C’est bien relou, mais efficace !

LeechBlock reste à ce jour l’option gratuite la plus complète du marché. Y’a aussi StayFocusd sur Chrome a une interface plus jolie, mais LeechBlock offre beaucoup plus de flexibilité niveau configuration.

L’extension fonctionne sur Firefox, Chrome, Edge et tous les navigateurs basés sur Chromium comme Brave, Opera ou Vivaldi. Et surtout, son code est open source et dispo sur GitHub !!

Voilà, LeechBlock ne va pas changer votre vie du jour au lendemain, mais c’est un bon premier pas pour reprendre le contrôle de votre temps passé en ligne. Et vu que c’est gratuit et open source, vous n’avez vraiment aucune excuse pour ne pas essayer !

NoLongerEvil - Un nouveau souffle pour les thermostats NEST

Par : Korben
11 novembre 2025 à 09:42

Vous vous souvenez quand Google avait pour devise “Don’t Be Evil” ?

Hé bien, ils ont tellement bafoué sur leurs valeurs qu’un hacker vient de sortir un firmware appelé “No Longer Evil” pour ressusciter les thermostats Nest que Google vient également d’assassiner froidement.

En effet, le 25 octobre dernier, Google a coupé le support technique de ses thermostats Nest Gen 1 et Gen 2. Plus d’app, plus de contrôle à distance et plus d’intégrations smart home… Les thermostats continuent de chauffer selon les presets enregistrés, mais tout le reste est mort. Du coup, Google vous propose gentiment d’upgrader vers la Gen 4 à 149,99 dollars au lieu de 279 euros… Presque 50% de réduc, comme c’est généreux !

Cody Kociemba , le développeur derrière le projet collaboratif Hack/House, a décidé que non et c’est pour cela qu’il a lancé NoLongerEvil , un firmware custom qui redonne vie aux Gen 1 et 2.

Ce firmware modifié intercepte la couche de communication du thermostat comme ça, au lieu de parler aux serveurs Google, il redirige tout le trafic vers un serveur qui héberge une réplique de l’API Nest, développée par reverse engineering. Votre thermostat croit donc toujours qu’il cause avec Google, mais en réalité il parle à nolongerevil.com . Et vous, vous retrouvez le contrôle à distance, les réglages fins, et tout et tout sans Google dans la boucle.

L’installation passe par le bootloader OMAP en mode DFU. Vous flashez trois composants : x-load.bin (first-stage bootloader), u-boot.bin (second-stage bootloader), et uImage (kernel Linux). Vous aurez donc besoin d’un ordi Linux ou macOS, d’un câble USB, et d’au moins 50% de batterie sur le thermostat. Windows marche théoriquement avec MingW ou CygWin, mais les retours sont mitigés pour le moment…

Le mec a même reçu 15 000 balles de la part de la FULU Foundation qui “crowdfunde” des récompenses pour les développeurs qui libèrent des appareils proprios. Bien joué !

Et l’intégration Home Assistant est prévue dans son projet. Le firmware backend et l’API server seront d’ailleurs open sourcés bientôt donc chacun pourra aussi héberger son serveur. Kociemba prévient quand même que son projet est hyper expérimental donc ne flashez pas un thermostat qui serait critique pour votre chauffage parce que si ça foire, vous allez vous les geler cet hiver ^^.

En tout cas, maintenant les propriétaires de Nest Gen 1 ou 2 ont maintenant le choix de garder leur matos pleinement fonctionnel ! Et ça c’est cool !

Source

Bash-screensavers - Des économiseurs d'écran pour votre terminal

Par : Korben
10 novembre 2025 à 10:00

Un économiseur d’écran, je pense que tout le monde voit ce que c’est.

Bon c’était très utile à l’époque des vieux écrans CRT pour éviter qu’ils ne gardent une trace fantôme à cause d’une image statique, mais aujourd’hui sur nos écrans modernes c’est devenu complétement inutile. Toutefois on continue à les utiliser parce que c’est joli et sympa.

Et bien bash-screensavers c’est pareil. Ce projet transforme non pas votre écran, mais juste votre terminal en feu d’artifice ASCII, en matrice, ou en simulation de vie cellulaire. C’est tout aussi joli et sympa même si bien sûr faire tourner ces screensavers comme ça consomme probablement plus d’énergie CPU que de laisser votre terminal en pause avec du texte statique.

Bash-screensavers propose donc 11 thèmes différents … Il y a l’alpha qui affiche des pixels colorés aléatoires, le bouncing avec son “O” qui rebondit façon Pong, le classique matrix qui simule la pluie de code vert des films Wachowski, pipes qui génère un labyrinthe de tuyaux infini, fireworks qui lance des feux d’artifice ASCII, life qui implémente le jeu de la vie de Conway, rain pour une pluie apaisante, speaky qui parle de façon dramatique, stars qui affiche un champ d’étoiles scintillantes, tunnel qui vous fait voler dans un tunnel digital, et vibe pour tout ce qui est simulation de vibe coding.

L’installation est également hyper simple :

git clone https://github.com/attogram/bash-screensavers.git
cd bash-screensavers
./screensaver.sh

Vous arrivez alors sur un menu interactif qui vous propose de choisir parmi les 11 screensavers. Ou vous pouvez lancer directement un screensaver spécifique avec ./screensaver.sh matrix, ou un random avec ./screensaver.sh -r. Ctrl+C pour sortir.

Chaque screensaver est en réalité un script bash autonome placé dans le dossier gallery/. Par exemple, gallery/matrix/matrix.sh contient tout le code pour recréer l’effet Matrix et quand vous regardez le code, vous réalisez que c’est de l’interprété ligne par ligne un peu nul, pas super optimisé, avec des boucles while true, des sleep 0.05 pour ralentir l’animation, et des appels à tput cup pour positionner le curseur à chaque frame.

Tenez, prenons bouncing. Le script doit calculer la position du “O”, détecter les collisions avec les bords du terminal, inverser la vélocité, effacer l’ancienne position, afficher la nouvelle, attendre un peu, et recommencer. Ça consomme du CPU pour un effet visuel qu’on pourrait obtenir en CSS avec 5 lignes de code et zero conso de CPU dès le premier rendu. Mais bon, c’est du script bash alors c’est trop cooool !

Quoiqu’il en soit, mon préféré c’est life. C’est le Jeu de la Vie de Conway où vous avez une grille de cellules, et chaque cellule peut être vivante ou morte. ET à chaque génération, vous appliquez ces règles : une cellule vivante avec 2 ou 3 voisins vivants survit, sinon elle meurt. Et une cellule morte avec exactement 3 voisins vivants redevient vivante. Implémenter ça en bash, ça veut donc dire parcourir une matrice 2D, compter les voisins pour chaque cellule, stocker l’état suivant, et redessiner le tout.

Le vrai but de bash-screensavers, vous l’aurez compris, ce n’est donc pas de protéger votre écran. Ça on s’en fout. Non, le vrai but, c’est de signaler à vos collègues les boulzors que : “Je travaille, ne touchez pas à mon terminal”. Hé oui, la nature humaine est mal faites car si quelqu’un voit un terminal avec du texte statique, il peut penser que la session est abandonnée alors que s’il voit un terminal avec des pipes ASCII qui poussent en temps réel, il sait que quelqu’un a lancé ça volontairement.

Le projet inclut même une section Not Ready For Primetime avec des screensavers expérimentaux qui ne sont pas encore assez bien pour figurer dans la galerie principale. Et tout le monde peut apporter sa petite contribution.

Merci à Lorenper pour l’info.

EuroLLM - Le LLM européen qui tourne sur votre laptop

Par : Korben
6 novembre 2025 à 10:00

Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui, EuroLLM vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop.

Une seule commande Ollama , et c’est parti mon kiki !!!

Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit !

Un projet 100% européen

EuroLLM, c’est en réalité une coalition de labos européens : Instituto Superior Técnico (Lisbonne), University of Edinburgh , Université Paris-Saclay , Unbabel , et d’autres et c’est financé par Horizon Europe et l’ EuroHPC , et ce modèle supporte les 24 langues officielles de l’UE, plus 11 langues supplémentaires (arabe, chinois, hindi, japonais, coréen, russe, turc…).

EuroLLM-9B , le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.

Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B).

Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi.

Maintenant comment l’installer ?

La méthode la plus simple, c’est via Ollama :

ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF

Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention, erurollm avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB.

Si vous préférez Python et Hugging Face Transformers :

from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "utter-project/EuroLLM-9B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))

Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi :

ollama run cas/eurollm-1.7b-instruct-q8

Alors pourquoi c’est important ?

EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.

C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique.

La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B est déjà en preview sur Hugging Face , ce qui ouvre la voie à de l’OCR multilingue, de l’analyse de documents visuels, ou encore à la création d’assistants vocaux dans n’importe quelle langue…

Voilà j’ai trouvé ça cool à tester et un grand merci à Letsar pour le partage !

❌
❌