Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 6 mars 2026Korben

AntScan : ils utilisent un accélérateur de particules pour scanner 2 000 fourmis

Par : Korben
6 mars 2026 à 15:10

Des chercheurs ont utilisé un accélérateur de particules du Karlsruhe Institute of Technology pour scanner 2 200 fourmis de 800 espèces différentes en quelques jours. Le résultat : des modèles 3D d'une précision au micromètre, qui révèlent muscles, systèmes nerveux et dards. Le tout est accessible gratuitement en ligne sur le portail antscan.info , depuis n'importe quel ordinateur.

Un synchrotron pour radiographier des fourmis

Le projet AntScan est né d'une collaboration entre Evan Economo, entomologiste à l'université du Maryland, et Thomas van de Kamp, physicien au Karlsruhe Institute of Technology en Allemagne. L'idée : utiliser le synchrotron du KIT, un accélérateur de particules qui produit un faisceau de rayons X très intense, pour scanner des fourmis en micro-tomographie.

Un bras robotisé fait tourner chaque spécimen devant le faisceau, et environ 3 000 images sont capturées par fourmi. Le tout est ensuite reconstruit automatiquement en modèle 3D. La résolution atteint le micromètre, ce qui permet de voir l'intérieur des insectes : muscles, tube digestif, système nerveux et dards.

Six ans de travail en une semaine

2 200 spécimens, 800 espèces, 212 genres. Tout ça en quelques jours. Avec un scanner de laboratoire classique, ce travail aurait pris six ans de fonctionnement continu. Avec le synchrotron du KIT et le bras robotisé qui change les échantillons toutes les 30 secondes, 2 000 spécimens ont été traités en une seule semaine.

L'IA s'est chargée du reste : estimer la position de chaque fourmi et produire les reconstructions 3D automatiquement.

Un atlas accessible à tous

Les modèles 3D sont disponibles gratuitement sur le portail antscan.info. N'importe qui peut y accéder depuis un ordinateur, faire pivoter les fourmis, zoomer sur les détails et même les « disséquer », virtuellement bien sûr, rangez votre scalpel. L'équipe a conçu le projet comme un modèle reproductible : la méthode peut être adaptée à d'autres petits invertébrés, ce qui en fait un point de départ pour numériser la biodiversité à grande échelle. Le portail fournit aussi les fichiers bruts pour les chercheurs qui veulent aller plus loin dans l'analyse.

C'est le genre de projet qui donne envie de fouiller le site pendant des heures. Utiliser un accélérateur de particules pour scanner des fourmis, sur le papier c'est un peu disproportionné, mais quand on voit le résultat, six ans de travail compressés en une semaine et 800 espèces disponibles en 3D pour tout le monde, ça force le respect.

Le fait que tout soit en accès libre change la donne. La vraie question, c'est ce qui vient après : si la méthode fonctionne pour les fourmis, elle peut fonctionner pour des milliers d'autres espèces. Perso, je trouve que c'est le genre d'utilisation de l'IA et de la puissance de calcul qui fait plaisir à voir, loin des polémiques habituelles.

Sources : IEEE , Phys.org

CleanCloud - Le nettoyeur cloud qui ne casse rien

Par : Korben
6 mars 2026 à 14:09

Le gaspillage du cloud, c'est un peu le secret de polichinelle du devops. Tout le monde sait qu'il y a des volumes EBS détachés qui traînent, des snapshots vieux de 6 mois, des Elastic IP à 3,65 $/mois qui servent à rien... mais bon, on nettoie pas. Parce qu'on a trop les miquettes de casser un truc en prod. Mais entre le volume de 500 Go "temporaire" créé en 2024 et le NAT Gateway qui facture 32 $/mois dans le vide, ça chiffre assez vite.

CleanCloud va vous permettre de remédier à ça. Il s'agit d'un petit CLI Python compatible Linux, macOS et Windows (dispo via pip ou pipx) qui va scanner vos comptes AWS et Azure pour débusquer toutes ces ressources orphelines. Le truc, c'est qu'il tourne uniquement en lecture seule, donc pas de mutation, pas de suppression, et zéro modification de tags. Lui se contente de regarder, de prendre des notes, et de vous sortir un bon vieux report.json ou CSV avec tout le détail.

Du coup, côté permissions IAM, c'est le strict minimum... 14 permissions en lecture seule type ec2:Describe*, s3:List* ou rds:DescribeDBInstances. C'est d'ailleurs bien fichu puisque le code vérifie statiquement via AST qu'aucun appel en écriture ne passe. Donc pas besoin de filer vos clés IAM à un outil tiers, et ça c'est plutôt rassurant pour les équipes sécu qui flippent (à juste titre) dès qu'on parle d'accès cloud.

L'outil embarque 20 règles de détection. 10 pour AWS, 10 pour Azure. Côté AWS, ça scanne comme vous l'aurez deviné les volumes EBS non attachés, les vieux snapshots, les logs CloudWatch en rétention infinie, les Elastic IP orphelines, les ENI détachées, les AMI créées en 2022 qui traînent, les NAT Gateways au repos, les instances RDS à l'arrêt...etc.

Côté Azure, même combat avec les disques managés, les IP publiques inutilisées, les VMs stoppées qui continuent de bouffer du stockage Premium SSD.

Pour chaque trouvaille, vous avez un score de confiance (LOW, MEDIUM, HIGH) et une estimation du coût mensuel gaspillé en dollars. En fait c'est assez bien foutu, le rapport vous donne le type de ressource, la région, l'âge du truc et combien ça vous coûte.

Hop, un pipx install cleancloud et c'est parti :

cleancloud scan --provider aws --all-regions

Y'a même un mode démo sans aucun credential requis, histoire de voir la tête du rapport JSON avant de brancher vos vrais comptes. Perso, je trouve ça bien pour voir à quoi ça ressemble :

cleancloud demo

Et pour ceux qui veulent aller plus loin, le scanner s'intègre dans vos pipelines CI/CD. GitHub Actions, Azure DevOps, Docker CI, peu importe. Vous collez un --fail-on-cost 100 (exit code 2 si le gaspillage dépasse 100 $/mois) ou un --fail-on-confidence HIGH et hop, le build pète si y'a du déchet. De quoi automatiser le ménage. Vous mettez juste cette commande dans votre CI et c'est plié.

D'ailleurs, la config supporte aussi le filtrage par tags. Vous créez ce fichier cleancloud.yaml à la racine de votre projet, vous excluez vos ressources de prod tagguées env:production, et le scan ignore ce qui doit l'être. Attention par contre, si vos ressources sont mal tagguées (et on sait tous que c'est souvent le cas...), le filtre ne servira à rien.

Côté sécurité, l'outil ne fait aucun appel vers des serveurs tiers et cause uniquement avec les API AWS et Azure de vos propres comptes, et supporte aussi l'auth OIDC avec des credentials temporaires. Voilà même si c'est un projet super jeune encore, c'est plutôt bien pensé pour les environnements corporate. C'est sous licence MIT et le code Python est sur GitHub donc tout est vérifiable.

Bref, si votre facture cloud vous pique les yeux, un pip install cleancloud et comme ça, vous en saurez plus... C'est gratuit, c'est open source, et surtout ça ne casse rien !

Des hackers iraniens ont infiltré une banque et un aéroport américains

Par : Korben
6 mars 2026 à 14:05

MuddyWater, un groupe de hackers rattaché aux services de renseignement iraniens, s'est infiltré dans les réseaux d'une banque, d'un aéroport et d'un éditeur de logiciels américains avec deux nouvelles portes dérobées. L'opération, repérée par Symantec, s'est intensifiée après les frappes américaines et israéliennes sur l'Iran fin février.

Deux portes dérobées inédites

C'est l'équipe Threat Hunter de Symantec qui a levé le lièvre. Depuis début février 2026, le groupe MuddyWater (aussi connu sous le nom de Seedworm) a déployé deux malwares jusqu'ici inconnus. Le premier, Dindoor, utilise Deno, un environnement d'exécution JavaScript, et a été signé avec un certificat émis au nom d'une certaine "Amy Cherne".

Le second, Fakeset, est codé en Python et signé par un certain "Donald Gay", un nom déjà lié à d'anciens outils du groupe comme Stagecomp et Darkcomp. Dans les deux cas, les attaquants ont tenté d'exfiltrer des données vers le cloud Wasabi via Rclone, un outil de synchronisation bien connu des administrateurs système.

Des cibles sensibles, un lien avec Israël

Côté victimes, on retrouve une banque américaine, un aéroport, un éditeur de logiciels lié à la défense et à l'aérospatiale qui a des opérations en Israël, et des ONG aux Etats-Unis et au Canada. MuddyWater était déjà présent sur ces réseaux début février, mais l'activité a nettement augmenté après le 28 février et le lancement de l'opération Epic Fury, les frappes militaires coordonnées des Etats-Unis et d'Israël contre l'Iran.

Les frappes ont conduit à la mort du guide suprême Ali Khamenei le 1er mars, et les chercheurs notent que les opérations cyber iraniennes se sont accélérées dans la foulée.

Le FBI confirme le lien avec Téhéran

Le FBI, la CISA et le NCSC britannique considèrent que MuddyWater opère pour le compte du ministère iranien du Renseignement depuis 2018. Ce qui facilite le rattachement, c'est la réutilisation de certificats de signature entre les nouvelles portes dérobées et les outils plus anciens du groupe.

Google, Microsoft et Kaspersky ont d'ailleurs confirmé l'analyse de Symantec. Quant à l'objectif exact, les chercheurs restent prudents : espionnage, collecte de renseignements, ou préparation de futures actions de sabotage, difficile de trancher. Le groupe privilégie en général le phishing et l'exploitation de vulnérabilités dans des applications exposées sur Internet pour s'introduire dans les réseaux.

Le plus étonnant dans cette histoire, c'est la durée. Des semaines d'infiltration sans que personne ne bronche, sur des réseaux qui ne sont pas exactement anodins. Et avec le conflit actuel entre l'Iran, les Etats-Unis et Israël, on se doute bien que Symantec n'a gratté que la surface.

Sources : Security.com , Cyble

ARC Raiders lisait vos DMs Discord en douce

Par : Korben
6 mars 2026 à 13:57

Le Discord Game SDK, c'est ce petit bout de code que les devs de jeux vidéo intègrent pour afficher votre statut, gérer les invitations entre potes... sauf que dans ARC Raiders, le truc ouvrait carrément une connexion complète au serveur Discord. Du coup, vos DMs privés se retrouvaient jusqu'il y a peu, logués en clair sur votre disque dur.

C'est Timothy Meadows, un ingénieur en sécurité, qui a découvert le pot aux roses. En fouillant dans les fichiers de log du jeu (le chemin exact c'est AppData\Local\PioneerGame\Saved\Logs\discord.log), il est tombé sur des conversations privées Discord en clair.

Et cerise sur le gâteau, le fichier contenait aussi le Bearer token d'authentification Discord du joueur. En gros, la clé qui donne accès à TOUT votre compte !

Le problème vient du fait que le SDK se connecte avec un token utilisateur complet, exactement comme le ferait l'app Discord elle-même. La gateway pousse alors tous les events vers cette connexion, y compris les messages privés.

Sauf que le jeu ne filtre rien et balance TOUT dans un fichier log sur le disque. Ce n'est donc pas une backdoor volontaire mais juste du code mal branlé qui ne trie pas ce qu'il reçoit.

Meadows a bien sûr tenté de signaler la faille à Embark Studios un mois avant de rendre l'info publique. Mais comme d'hab, pas de réponse et pas de bug bounty non plus...

Du coup, il a publié tranquillou ses trouvailles sur son blog le 3 mars et Embark a réagi 2 jours plus tard avec un hotfix qui désactive enfin le logging du SDK.

Seuls les joueurs ayant lié leur compte Discord à ARC Raiders sont touchés et c'est peut-être votre cas.... Mais bon, vu que le jeu vous le propose dès l'installation, y'a probablement pas mal de monde dans le lot.

Le token Bearer avait une durée de validité d'environ 167 heures (en gros, une semaine), ce qui laisse une sacrée fenêtre pour quiconque aurait accès au fichier log. Un malware, un pote curieux, un PC partagé en LAN... les scénarios ne manquent pas... Suite à cela, Embark a sorti le communiqué classique en mode "vos données n'ont pas quitté votre machine, on n'a rien lu, on ne lira rien". OK, cool story bro, sauf que le vrai souci c'est pas Embark en fait, c'est Discord car leur SDK donne un accès beaucoup trop large aux devs tiers.

Car quand vous liez votre compte à un jeu, vous pensez autoriser l'affichage de votre pseudo et de votre statut et pas du tout l'accès à vos DMs. D'ailleurs, après l'incident, la page d'autorisations du jeu est passée de "cette application ne peut PAS lire vos messages" à "cette application PEUT lire et envoyer des messages". Hop, ni vu ni connu !

Côté protection, c'est pas la mer à boire, suffit de changer votre mot de passe Discord dans les réglages de l'app (ça invalide tous les tokens actifs), Et désactivez l'intégration Discord dans les paramètres d'ARC Raiders, puis supprimez le fichier discord.log dans le dossier du jeu.

Attention, si vous êtes du genre parano, faites aussi le ménage dans vos autorisations Discord, parce que ARC Raiders est sûrement pas le seul jeu à avoir ce genre de problème...

Bref, méfiez-vous des jeux qui demandent à se connecter à votre Discord... c'est pas la première fois que ça tourne mal !

Source

Tapo C665G KIT - La caméra 4K qui tourne sans WiFi ni courant

Par : Korben
6 mars 2026 à 13:30
-- Article en partenariat avec Tapo --

La Tapo C665G KIT de TP-Link est une caméra 4K avec 4G intégrée et panneau solaire. C'est le genre de matos qu'on peut poser n'importe où sans tirer le moindre câble d'alimentation.

Moi, au départ, je voulais l'installer dans ma forêt pour surveiller les allées et venues des chevreuils, sauf que le panneau solaire doit être orienté plein sud et sous les arbres niveau lumière, c'est pas ça. Du coup je l'ai fixée sur une poutre de ma terrasse. Juste des vis à visser, rien de sorcier.

Au moment de la config, chez moi, j'ai jamais réussi à la paramétrer directement avec la carte SIM. Il a fallu passer d'abord par le WiFi, et ensuite seulement basculer sur la SIM. Là, ça a fonctionné nickel. Normalement c'est censé marcher direct en 4G, mais bon... Pensez aussi à désactiver le code PIN de votre carte SIM avant de l'insérer, sinon la caméra ne pourra pas se connecter au réseau. Mais moi, c'est pas ça qui m'a coincé.

Après la 4G accroche bien sur les bandes LTE, donc pas de souci. Mais comme la caméra est collée à la maison, c'était un peu con de mobiliser un forfait juste pour ça... du coup je suis repassé en WiFi. D'ailleurs elle gère le WiFi bi-bande, 2.4 et 5 GHz.

Côté image, le capteur Starlight envoie du 4K plutôt propre. De jour c'est net et de nuit, y'a deux modes : l'infrarouge classique qui porte à 10 mètres, et les projecteurs intégrés qui passent en vision nocturne couleur. Comme ça, plus besoin de deviner si c'est un chat noir ou un cambrioleur en sweat à capuche. Y'a aussi un zoom numérique x18 ce qui est pas mal pour identifier ce qui se passe au fond de mon jardin.

La caméra pivote sur 360° en horizontal et 90° en vertical et le truc marrant, c'est qu'elle vous suit quand vous vous déplacez. Elle tourne toute seule pour garder le sujet dans le cadre. Y'a même un mode patrouille qui la fait tourner automatiquement pour filmer différents endroits. C'est sympa, mais ça consomme un peu plus de batterie parce que ça sollicite le moteur.

La rallonge entre le panneau solaire et la caméra est également assez long, donc vous pouvez vraiment placer le panneau solaire loin si besoin. Et les ports sont étanches, donc pas de flotte qui rentre.

Pour l'instant avec les journées bien ensoleillées, zéro souci d'autonomie. TP-Link annonce 270 jours en WiFi sans solaire (C'est un test en labo portant sur 230 secondes d'utilisation par jour en mode WiFi) et 45 min de soleil direct pour alimenter une journée complète.

Reste à voir cet hiver comment ça se comporte maintenant...

La détection IA distingue les personnes, les animaux domestiques, les véhicules et les visages. Reconnaissance faciale comprise, et tout est traité en local sur la caméra comme ça, rien ne part dans le cloud . Et ce qui est cool, c'est qu'on peut désactiver les notifications pour les visages connus. Genre votre famille arrive, pas d'alerte. L'amant de votre femme débarque, bim, notification. On choisit ce qu'on veut surveiller... mouvement, personnes, animaux, véhicules, visages. Vous paramétrez et basta.

Le mode capture 24/7 est malin. En veille, la caméra enregistre à 1 image par seconde pour économiser la batterie et dès qu'elle détecte quelque chose, elle passe en capture complète. Comme ça on ne rate rien sans exploser l'autonomie. Par contre il faut une carte microSD pour ça (jusqu'à 512 Go) et comme j'en n'ai pas sous la main, j'ai pas pu tester cette fonctionnalité. Faut que j'en achète une !!

Y'a aussi un mode qui désactive l'enregistrement et la diffusion pour protéger la vie privée. Donc pour ceux qui aiment se balader tout nu chez eux, c'est quand même pratique. L'audio bidirectionnel avec réduction de bruit permet également de parler à travers la caméra. Y'a même une sirène de 93 dB... bon faut pas la déclencher par erreur ^^. Et le boîtier IP65 tient de -20°C à 45°C. Pluie, gel, canicule... ça encaisse tout. Et bien sûr, ils n'ont pas lésiné avec la sécurité puisque tout est chiffré en AES avec SSL/TLS.

Côté automatisation, on peut déclencher des scénarios quand on arrive ou on part de chez nous et ça se combine très bien avec d'autres appareils Tapo comme leurs ampoules, les interrupteurs, les prises connectées et j'en passe. Ah et c'est aussi compatible Google Assistant et Alexa. Et tout se pilote depuis l'appli Tapo... Voilà on fait ce qu'on veut quoi.

Pour les bidouilleurs, petite parenthèse, si vous avez d'autres caméras sur votre réseau, n'oubliez pas que Motion sous Linux gère la surveillance multi-caméras et que Cameradar permet de tester la sécurité de vos flux RTSP. Ça peut servir !

Bref, pour 200 balles c'est une caméra autonome qui fait le taf. Et le fait qu'elle ait son propre panneau solaire, franchement c'est top quand on n'est pas électricien et qu'on a pas envie de tirer des câbles sous le toit.

Vous pouvez l'acheter ici si vous voulez !

Il fait rouler une voiture électrique avec 500 batteries de vapoteuses

Par : Korben
6 mars 2026 à 12:45

L'initiative vient de Chris Doel, ingénieur chez Jaguar Land Rover et YouTubeur, qui a récupéré les cellules lithium de 500 vapoteuses jetables pour en faire un pack batterie, avec l'idée improbable d'alimenter une Reva G-Wiz, la micro-voiture électrique des années 2000. Il a roulé une trentaine de kilomètres en conditions réelles, passage au drive compris.

500 vapoteuses dans une G-Wiz

La G-Wiz c'est une micro-voiture électrique indienne fabriquée par Reva au début des années 2000. Classée comme quadricycle lourd (et pas comme voiture), elle pesait 400 kg et roulait à l'origine avec huit batteries au plomb. Doel a remplacé tout ça par un pack maison : 500 cellules lithium récupérées dans des vapoteuses jetables, assemblées en 14 modules en série pour sortir environ 50 volts. La capacité totale est de 2,5 kW. Et le tout se recharge en USB-C, oui oui, comme votre téléphone.

29 km avant la panne

Côté performances, on est sur du modeste mais fonctionnel. La G-Wiz version vapoteuse roule à environ 56 km/h, volontairement bridée pour ne pas trop solliciter les cellules de récup. À basse vitesse, le moteur tire dans les 160 ampères, contre 90 à 100 ampères à 50 km/h. Le freinage régénératif récupère une dizaine d'ampères, c'est anecdotique. Doel a quand même réussi à faire ses courses, passer au drive et rentrer presque chez lui avant que le pack ne lâche : environ 29 km au total. La température des cellules n'a pas dépassé 29°C pendant le trajet, grâce à un boîtier en aluminium isolé.

Le projet absurde et rigolo, mais le problème derrière un peu moins. Au Royaume-Uni, on jette environ 8 millions de vapoteuses par semaine. Rien qu'en 2022, plus de 40 tonnes de lithium ont été perdues dans ces déchets, assez pour équiper 5 000 voitures électriques. Le pays a interdit les vapoteuses jetables en juin 2025, mais le problème reste entier à l'échelle mondiale. Doel avait d'ailleurs déjà utilisé un pack identique pour alimenter son atelier. Et il résume bien la situation : on devrait revoir ce qu'on considère comme un déchet, parce que l'obsolescence programmée touche de plus en plus d'objets du quotidien.

Bref pendant qu'on s'inquiète de la pénurie de lithium pour les voitures électriques, des millions de cellules parfaitement fonctionnelles finissent à la poubelle chaque semaine dans des vapoteuses jetables. Le décalage est quand même absurde, et ce genre de projet a au moins le mérite de le rendre visible.

Sources : Hackaday , Interesting Engineering

Bureautique : l'Europe lance son alternative à Microsoft 365, mais utilise quand même Excel

Par : Korben
6 mars 2026 à 11:41

Une startup néerlandaise vient de lancer Office EU, une suite bureautique 100 % européenne et open source, présentée comme l'alternative directe à Microsoft 365 et Google Workspace.

Dans le même temps, la Document Foundation reproche à la Commission européenne d'imposer le format Excel comme seul format dans une consultation publique sur le Cyber Resilience Act.

Office EU, la suite cloud made in Europe

Office EU a été lancé le 4 mars depuis La Haye, aux Pays-Bas. Derrière le projet, on trouve EUfforic Europe BV, une entreprise fondée en 2024 et dirigée par Maarten Roelfs. La suite est construite sur Nextcloud Hub et utilise Collabora Online pour l'édition de documents, le tout hébergé sur des serveurs Hetzner à Helsinki.

Le pitch est simple : mails, fichiers, agenda, documents collaboratifs et appels, sans passer par un acteur américain. Les prix sont annoncés comme "comparables" à ceux du marché, et le déploiement se fait pour l'instant sur invitation.

La Commission européenne prise en flagrant délit

Pendant ce temps, la Document Foundation (l'organisation qui gère LibreOffice) a publié une lettre ouverte pour dénoncer un choix assez embarrassant de la Commission européenne. Pour recueillir les retours sur les lignes directrices du Cyber Resilience Act, Bruxelles a mis en ligne un formulaire uniquement au format .xlsx.

Autrement dit, un fichier Excel. Pas de version en format ouvert, pas de .ods. La Foundation parle de "biais structurel" et rappelle que l'Union européenne défend depuis des années les standards ouverts et la réduction de la dépendance aux fournisseurs propriétaires. Comme l'a formulé Italo Vignoli : "Participer pleinement à une consultation publique européenne nécessite une licence Microsoft. Le message est quand même assez clair."

L'Europe prêche, mais ne pratique pas toujours

Cette contradiction arrive à un moment où le discours sur l'indépendance numérique du continent n'a jamais été aussi fort. Le "Made in Europe" ne concerne plus que les voitures ou l'aluminium : les logiciels aussi sont dans le viseur, et des projets comme Office EU ou CollabNext en France montrent qu'il y a une vraie demande.

Sauf que voilà, quand l'Europe elle-même impose un format propriétaire complètement américain pour ses propres consultations, ça flingue un peu le message. La Document Foundation demande simplement que les templates soient aussi fournis en format ouvert. Ce qui ne coûte quasiment rien à mettre en place.

Le timing de ces deux annonces est presque trop beau. On a d'un côté une startup européenne qui se lance avec une suite bureautique souveraine. De l'autre, la Commission utilise Excel comme seul format pour une consultation sur la cybersécurité.

Sur le papier, Office EU a du mérite, mais il va falloir bien plus qu'un hébergement à Helsinki pour convaincre des entreprises de lâcher Microsoft 365. La compatibilité des fichiers, les fonctions avancées d'Excel, les intégrations avec Teams et Outlook, c'est ça le vrai verrouillage, bien plus que l'emplacement des serveurs.

Bref, c'est ubuesque, tant que la Commission n'arrivera pas à se passer d'Excel pour un simple formulaire, le discours sur la souveraineté numérique va continuer à sonner très creux.

Sources : The Register , Document Foundation

pyinfra - Du Python au lieu du YAML pour gérer vos serveurs

Par : Korben
6 mars 2026 à 10:35

Ansible, c'est bien. Mais du YAML à perte de vue pour configurer trois serveurs c'est pas non plus l'idéal. Hé bien ça tombe bien car y'a maintenant pyinfra , qui fait tout pareil sauf qu'on écrit du Python. En gros, votre script de déploiement c'est juste du code Python normal avec des imports, des boucles, des conditions... tout ça, tout ça...

Ce projet existe depuis 2014, il est sous licence MIT et côté perfs, c'est de ce que j'ai lu, jusqu'à 10 fois plus rapide qu'Ansible sur des déploiements massifs (genre plusieurs milliers de machines). Bon, sur le papier c'est bien, mais en fait ça dépend surtout de votre infra SSH et de la latence réseau.

Alors ça marche comment ?

Hé bien vous installez le bazar avec uv tool install pyinfra et hop, vous pouvez déjà lancer des commandes sur vos serveurs comme ceci :

pyinfra mon-serveur.net exec -- echo "hello world"

Ça fonctionne en SSH sur le port 22, sur des conteneurs Docker, ou même en local. Le truc est complètement agentless, du coup pas besoin d'installer quoi que ce soit sur les machines cibles. Suffit d'un accès shell POSIX tout ce qu'il y a de plus classique et c'est réglé.

Bon, ça c'est pour l'ad-hoc mais en fait le vrai kiff, ce sont les opérations déclaratives. Je vous montre... Vous créez un fichier deploy.py et dedans, vous mettez ça :

from pyinfra.operations import apt, systemd

apt.packages(
 name="Install nginx",
 packages=["nginx"],
)

systemd.service(
 name="Ensure nginx is running",
 service="nginx.service",
 running=True,
 enabled=True,
)

C'est du bon vieux Python sans DSL bizarre (Domain-Specific Language), pas d'indentation YAML qui vous pète entre les doigts à 3h du mat parce qu'il manque un espace. Et si vous voulez une boucle ? bah for. Une condition ? bah if. Ou encore importer boto3 pour causer avec AWS depuis votre Debian 12 ? No problemo !

Et pour cibler vos machines, suffit de créer un fichier inventory.py comme ceci :

targets = ["@docker/ubuntu", "mon-serveur.net", "autre-serveur.net"]

Puis ensuite un petit : pyinfra inventory.py deploy.py et c'est parti mon kiki. L'outil gère le parallélisme sur 50 serveurs, les diffs (pour voir ce qui va changer AVANT d'appliquer), et le mode dry-run pour les plus prudents.

Côté intégrations, ça cause avec Terraform, Docker, Vagrant... et comme c'est du Python, vous avez accès à tout l'écosystème. Genre, vous voulez checker l'état d'une API avant de déployer ? Un import requests et c'est plié. La doc sur docs.pyinfra.com est plutôt complète, et y'a même la gestion des secrets intégrée avec variables d'environnement, fichiers chiffrés, HashiCorp Vault ou AWS Secrets Manager.

Ça tourne depuis Linux et macOS (et Windows via WSL), mais les cibles doivent être des systèmes POSIX donc pas de déploiement natif sur Windows. Et si votre inventaire contient 3 000 machines avec des configs SSH différentes... bon courage pour le debug en cas de souci (le mode -vvv aide, mais bon...).

Bref, si vous en avez marre du YAML et que Python c'est votre truc, allez jeter un oeil.

Merci à Letsar pour la découverte !

Proton Mail a aidé le FBI à démasquer un manifestant anonyme

Par : Korben
6 mars 2026 à 10:34

Proton Mail, le service de messagerie chiffré qui vend de la confidentialité à tout prix, a transmis des données de paiement aux autorités suisses. Ces données ont ensuite atterri entre les mains du FBI, qui a pu identifier la personne derrière un compte mail anonyme lié au mouvement Stop Cop City à Atlanta.

Une carte bancaire et c'est plié

Le FBI enquêtait sur Defend the Atlanta Forest, un groupe affilié au mouvement Stop Cop City qui s'opposait à la construction d'un centre d'entraînement de police dans un parc d'Atlanta. Pour identifier qui se cachait derrière une adresse Proton Mail utilisée par le groupe, les Américains sont passés par un traité d'entraide judiciaire avec la Suisse (le MLAT).

Le 25 janvier 2024, les autorités suisses ont donc renvoyé au FBI le nom complet de la personne qui avait payé l'abonnement Proton avec sa carte bancaire. Les mails restent chiffrés, personne n'a lu quoi que ce soit, mais le simple fait d'avoir utilisé une carte de crédit a suffi à lever l'anonymat.

Déjà vu en 2021

Proton avait déjà fait parler en 2021, quand l'entreprise avait fourni l'adresse IP d'un militant écologiste français du collectif Youth for Climate, sur ordre d'un tribunal suisse. L'information avait transité par Europol et avait conduit à des arrestations en France.

Proton avait ensuite discrètement retiré de son site la mention "nous n'enregistrons pas votre adresse IP". Côté communication, le discours est rodé : Edward Shone, responsable de la comm chez Proton, assure que l'entreprise n'a rien transmis directement au FBI et ne fournit que "les informations limitées dont elle dispose" quand la justice suisse l'exige.

Ce que Proton sait de vous

Le chiffrement de bout en bout, ça fonctionne. Proton ne peut pas lire vos mails, et personne ne remet ça en question. Mais l'entreprise conserve les données de facturation, et si vous avez payé par carte bancaire, votre nom et vos coordonnées sont dans leurs fichiers.

Proton propose des moyens de paiement anonymes (cryptomonnaies, espèces par courrier), mais dans les faits, peu d'utilisateurs y pensent. La personne identifiée dans cette affaire n'a d'ailleurs jamais été inculpée, mais son identité est entre les mains du FBI.

Il faut vraiment garder en tête que le chiffrement protège le contenu de vos messages, pas votre identité. Proton a beau vendre de la confidentialité, l'entreprise reste soumise au droit suisse comme toutes les autres. Payer un service "confidentiel" avec sa carte Visa et espérer rester anonyme, autant mettre un cadenas sur une porte vitrée...

Sources : 404Media , YCombinator

SSH dans l'initramfs - Rebootez vos serveurs chiffrés sans stress

Par : Korben
6 mars 2026 à 10:08

Le chiffrement complet du disque, tout le monde vous dit que c'est la base. LUKS sous Linux, BitLocker sous Windows, FileVault sous macOS... sauf que personne vous dit quoi faire quand votre serveur reboot à 3h du mat et qu'il attend sagement sa passphrase.

Là, vous êtes coincé !!!!

Parce que oui, le truc vicieux avec le chiffrement intégral, c'est qu'au démarrage, le système ne peut pas lire le disque tant que vous n'avez pas tapé le mot de passe. Du coup, si votre machine est dans un datacenter ou chez un hébergeur, ben... faut se déplacer physiquement. Et ça c'est bien relou !!!

La solution, c'est d'embarquer un serveur SSH directement dans l' initramfs (oui, le mini OS qui tourne AVANT votre vrai système, sur le port 22). En gros, votre machine boot, charge l'initramfs, lance un serveur SSH... et vous n'avez plus qu'à vous connecter à distance pour taper la passphrase. Comme ça le disque se déverrouille et le boot continue. Voilà quoi, c'est simple la vie quand on lit Korben.info !! loool

L'initramfs, c'est quoi exactement ?

Alors pour ceux qui débarquent, l'initramfs c'est une archive compressée dans /boot/initramfs-linux.img qui contient un système Linux minimal. Son boulot, c'est de préparer le terrain avant de passer la main au vrai OS, genre charger les modules noyau, détecter le matériel, monter les systèmes de fichiers... et dans notre cas, demander la passphrase LUKS. Genre un second OS, mais en version bonsaï !

Installer Dropbear dans l'initramfs

Dropbear , c'est un serveur SSH ultra-léger (environ 110 Ko) parfait pour l'initramfs. L'article de jyn qui m'a inspiré pour cet article , recommande Arch Linux avec mkinitcpio, mais sachez que sous Debian/Ubuntu le paquet dropbear-initramfs fait le même boulot avec update-initramfs.

Sur Arch, vous installez mkinitcpio-systemd-extras puis vous modifiez /etc/mkinitcpio.conf pour ajouter les hooks réseau et Dropbear :

HOOKS=(base systemd autodetect microcode modconf kms keyboard sd-vconsole block sd-encrypt filesystems fsck systemd-network dropbear)

Attention, l'ordre des hooks compte. Le réseau doit être configuré AVANT Dropbear, sinon votre serveur SSH démarre sans interface réseau. Pas super utile donc !

Configurer le réseau dans l'initramfs

Ensuite faut créer un fichier de config réseau dans /etc/systemd/network-initramfs/. En fait, c'est du systemd-networkd classique, donc si vous avez déjà configuré ça, c'est pareil. Un simple fichier .network avec DHCP fait le job en Ethernet (et pour un serveur, c'est clairement recommandé). Pour les plus paranos, une IP statique marche aussi, sauf que faudra pas oublier de la mettre à jour si vous changez de réseau.

La touche Tailscale

Après si votre serveur est derrière un NAT ou un firewall, bah... le SSH classique ne passe pas. Du coup, jyn a eu la bonne l'idée d'embarquer Tailscale dans l'initramfs aussi. Comme ça, la machine rejoint votre réseau privé Tailscale dès le boot, même avant le déchiffrement du disque.

Vous lancez setup-initcpio-tailscale, ça vous donne un lien d'authentification sur login.tailscale.com et c'est réglé. Après faut penser à configurer les ACL Tailscale pour que SEULE votre machine d'admin puisse se connecter à l'initramfs car OUI ON NE LAISSE PAS UN PUTAIN DE SSH ouvert sur un système pré-boot sans protection, HEIN ?? HEIN ?? Donc faites ça !!

Les précautions de sécurité

Vous vous en doutez, y'a quand même quelques pièges à éviter. D'abord, les clés SSH de Dropbear dans l'initramfs (stockées dans /etc/dropbear/) doivent être DIFFÉRENTES de celles d'OpenSSH dans /etc/ssh/. Parce que l'initramfs n'est pas chiffré (bah oui, il doit tourner avant le déchiffrement), donc ces clés sont techniquement accessibles à quelqu'un qui a un accès physique au disque.

Ensuite, attention, limitez ce que Dropbear peut faire. Pas de shell complet, juste la commande systemd-tty-ask-password-agent qui sert uniquement à taper la passphrase. Comme ça, même si quelqu'un arrive à se connecter, il ne peut rien faire d'autre.

Et désactivez aussi l'expiration des clés Tailscale pour la machine initramfs via --auth-key avec un token non-éphémère, sinon votre serveur va se retrouver éjecté du réseau au pire moment.

Reconstruire et tester

Une fois tout configuré, un petit mkinitcpio -P pour reconstruire l'initramfs et c'est bon. Si ça ne marche pas du premier coup, vérifiez les logs avec journalctl -b. Mais attention, testez ça sur une VM ou une machine avec accès console (IPMI, iDRAC, KVM-over-IP) d'abord, parce que si le réseau de l'initramfs ne monte pas, votre serveur devient une brique inaccessible... et là, c'est le vrai drame de votre vie qui commence (et la découverte de France Travail) !

Au prochain reboot, votre serveur va donc démarrer, charger l'initramfs, se connecter à Tailscale, lancer Dropbear... et attendre patiemment que vous tapiez la passphrase depuis votre canapé.

Si vous gérez des serveurs chiffrés à distance, c'est le genre de setup un peu touchy à la base mais qui change la vie. Comme ça, plus besoin de supplier / soudoyer / menacer (chacun sa technique) le technicien du datacenter d'astreinte de brancher un clavier ^^.

Découvrir le tuto complet de Jyn ici !

WebP animé vs GIF - Le guide pour enfin virer vos animations de 1987

Par : Korben
6 mars 2026 à 09:55

Le GIF, c'est un format que j'adore mais qui date de 1987. Ouais c'est super vieux quoi (désolé les gens qui sont né cette année là ou avant...On est ensemble...loool). C'est l'époque où Rick Astley cartonnait et où Internet n'existait même pas encore pour le grand public. Et pourtant, y'a encore plein de gens qui s'en servent pour leurs animations avec notamment de la transparence. Alors c'est cool mais aujourd'hui, je vous propose qu'on règle ça une bonne fois pour toute.

Le problème du GIF en fait c'est assez technique puisque ça se compose de 8 bits de couleur (256 couleurs max) et surtout d'un alpha 1 bit. Chaque pixel est donc soit totalement opaque, soit totalement transparent, y'a pas d'entre-deux. Du coup quand vous avez une animation avec des bords arrondis ou des ombres portées, vous vous retrouvez avec des bords tout crénelés et moches. Ça donne un effet "découpage aux ciseaux de maternelle" qu'on aime bien parce que ça fait très rétro mais bon, on peut faire mieux aujourd'hui.

Car avec le WebP animé, c'est une autre histoire. Là on passe à 24 bits de couleur (plus de 16 millions de couleurs) et un alpha 8 bits, c'est-à-dire 256 niveaux de transparence au lieu de juste oui/non. Les dégradés, les ombres, les bords anti-aliasés... tout ça passe nickel et vos animations ont enfin l'air pro au lieu de sortir d'un site GeoCities.

Et niveau poids, y'a pas photo. Google annonce ~64% de réduction en lossy par rapport au GIF même si en pratique, comptez entre 50 et 70% de gain selon la complexité de l'animation. Cela veut dire que sur une page web avec plusieurs animations, ça fait une SACRÉE différence niveau temps de chargement.

Et côté compatibilité, en 2026 la question ne se pose plus puisque Chrome, Firefox, Safari (depuis iOS 14 en 2020), Edge... bref tout le monde supporte le WebP animé. Donc ces conneries de compatibilité, c'est plus une excuse !

Convertir avec gif2webp (la méthode recommandée)

L'outil officiel de Google s'appelle gif2webp (il est inclus dans libwebp ) et c'est ce qu'il y a actuellement de plus fiable pour ce job.

Installez-le d'abord comme ceci :

# macOS
brew install webp

# Ubuntu/Debian
sudo apt install webp

# Windows (via chocolatey)
choco install webp

Ensuite, la conversion de base est plutôt simple :

# Lossy, qualité 70, boucle infinie
gif2webp -lossy -q 70 -loop 0 -m 4 input.gif -o output.webp

# Mode mixed (le meilleur ratio en général)
# Choisit automatiquement lossless ou lossy frame par frame
gif2webp -mixed -q 70 -loop 0 -m 4 input.gif -o output.webp

# Compression max (plus lent, fichier plus petit)
gif2webp -lossy -q 70 -loop 0 -m 6 input.gif -o output.webp

Le paramètre -m c'est la méthode de compression, de 0 (rapide) à 6 (lent mais meilleur ratio). Perso, -m 4 je trouve que c'est le sweet spot comme on dit. Et le mode -mixed est intéressant aussi parce qu'il analyse chaque frame et décide tout seul si c'est mieux en lossy ou lossless.

Avec ffmpeg

Après si vous avez déjà ffmpeg installé (et si vous êtes sur ce blog, y'a de bonnes chances), ça marche aussi :

# Conversion basique GIF vers WebP animé
ffmpeg -i input.gif -c:v libwebp_anim -loop 0 -lossless 0 -q:v 70 output.webp

# Qualité max (lossless)
ffmpeg -i input.gif -c:v libwebp_anim -loop 0 -lossless 1 output.webp

Le -c:v libwebp_anim force l'encodeur WebP animé (sans ça, ffmpeg choisit parfois le mauvais codec et vous obtenez un WebP statique avec juste la première frame... pas génial). Le -q:v va de 0 à 100, et je pense que 70 c'est un bon compromis.

Avec ImageMagick

Avec celui là c'est comme ça :

magick input.gif -coalesce -quality 80 -loop 0 output.webp

Le -coalesce est important car les GIF optimisés stockent souvent juste les différences entre frames pour gagner de la place. Cette option reconstruit chaque frame en entier avant la conversion, sinon vous risquez des artefacts visuels bien moches.

Conversion en masse

Après convertir UN fichier c'est bien, mais si vous avez 200 GIFs à migrer, faut automatiser :

# Convertir tous les GIFs d'un dossier
for f in *.gif; do
 gif2webp -mixed -q 70 -m 4 "$f" -o "${f%.gif}.webp"
 echo "$f converti"
done

# Avec un rapport de taille avant/après
for f in *.gif; do
 gif2webp -mixed -q 70 -m 4 "$f" -o "${f%.gif}.webp"
 size_gif=$(stat -f%z "$f" 2>/dev/null || stat -c%s "$f")
 size_webp=$(stat -f%z "${f%.gif}.webp" 2>/dev/null || stat -c%s "${f%.gif}.webp")
 ratio=$((100 - size_webp * 100 / size_gif))
 echo "$f: -${ratio}%"
done

Intégrer sur un site web

Ensuite pour mettre vos images animées sur votre site web, la méthode propre, c'est l'élément <picture> qui permet de proposer un fallback GIF pour les (rares) navigateurs récalcitrants :

<picture>
 <source srcset="animation.webp" type="image/webp" />
 ![](animation.gif)
</picture>

Après je pense que le fallback GIF n'est vraiment plus indispensable pour le web classique mais par contre si vous envoyez des animations par email comme un le bon boomer que vous êtes, gardez le GIF en fallback parce que les clients mail, c'est un autre monde.

Ah et attention, j'ai lu certains articles qui suggèrent d'utiliser @supports en CSS pour détecter le WebP. Genre @supports (background: url(truc.webp)). Sauf que ça ne marche PAS. La règle @supports teste si une déclaration CSS est syntaxiquement valide, pas si le navigateur sait décoder le format d'image. Donc elle passera toujours, même sans support WebP. Donc si vous avez besoin d'une détection côté CSS, utilisez plutôt image-set() avec type(), mais franchement le <picture> fera le job.

Et l'AVIF animé dans tout ça ?

Alors vous avez peut-être entendu parler de l' AVIF , le format qui fait encore mieux que le WebP en compression. Pour les images statiques, c'est vrai, l'AVIF déchire (support Chrome, Firefox, Safari).

Mais pour les animations ? Bah c'est pas encore ça. Chrome n'affiche que la première frame, Safari ne le supporte pas du tout, et Firefox le cache derrière un flag (image.avif.sequence.enabled).

Bref, on en reparlera dans 2-3 ans.

Quel format pour quel usage ?

Hé oui, y'a un choix à faire parce que le WebP animé n'est pas non plus LA solution à tout. Voici ce que je vous propose en fonction de ce que vous voulez proposer comme animation :

  • WebP animé : stickers, emojis, petites animations en boucle avec transparence. Le meilleur ratio poids/qualité pour ce cas.
  • Vidéo MP4/WebM : si votre animation dépasse 5 secondes ou n'a pas besoin de transparence, une vidéo sera TOUJOURS plus légère. Un MP4 pèse ~50% de moins qu'un WebP animé pour le même contenu. Utilisez ``.
  • Lottie : pour les animations vectorielles (icônes, UI), c'est imbattable en poids (quelques Ko) et c'est scalable. Faut juste le player JS (~60 Ko mis en cache). J'suis sûr que vous ne connaissiez pas !!
  • APNG : si vous avez besoin de lossless absolu (logos, texte animé), c'est supporté partout mais c'est lourdingue.

Voilà, si vous avez encore des GIFs animés avec transparence qui traînent sur votre site, vous savez maintenant ce qu'il vous reste à faire.

Amusez-vous bien !

Chardet : quand une IA réécrit un logiciel open source en cinq jours et change sa licence

Par : Korben
6 mars 2026 à 09:13

Le développeur Dan Blanchard a utilisé Claude d'Anthropic pour réécrire intégralement chardet, une bibliothèque Python téléchargée 130 millions de fois par mois, et passer sa licence de LGPL à MIT. L'auteur original conteste, la Free Software Foundation dénonce, et Bruce Perens, père de la définition open source, déclare que « toute l'économie du logiciel est morte ». Carrément.

Cinq jours et un changement de licence

Chardet est un outil qui détecte l'encodage des caractères dans un fichier texte. C'est une bibliothèque Python utilisée un peu partout, avec 130 millions de téléchargements par mois. Son mainteneur, Dan Blanchard, voulait depuis dix ans l'intégrer à la bibliothèque standard de Python, mais la licence LGPL l'en empêchait : elle impose que toute version modifiée reste sous les mêmes termes. Il a donc utilisé Claude d'Anthropic pour réécrire le code en partant d'un dépôt vide, sans accès au code source original.

Résultat : cinq jours de travail, un gain de vitesse de 48x, et un passage à la licence MIT, bien plus permissive. Le plagiat a été analysé par l'outil JPlag, et on y retrouve seulement 1,3% de similarité entre l'ancien et le nouveau code, autant dire rien. Sauf que Mark Pilgrim, le créateur original de chardet, conteste : pour lui, la licence LGPL s'applique quoi qu'il arrive, et une réécriture par IA ne change rien.

Le copyleft à l'épreuve de l'IA

Le problème dépasse en fait chardet. Armin Ronacher, créateur du framework Flask, résume bien la situation : « Le copyleft dépend du copyright et de la friction pour s'imposer. Mais comme le code est ouvert par définition, on peut le réécrire sans difficulté de nos jours. »

Bruce Perens, qui a écrit la définition même de l'open source, va plus loin : « Toute l'économie du développement logiciel est morte, finie, terminée. »

Il raconte aussi avoir construit une plateforme SRE complète en quelques jours avec Claude, un travail qui prenait des mois auparavant. Pour lui, les licences propriétaires comme open source perdent toute pertinence si n'importe quel logiciel peut être recréé par une IA en une semaine.

Un flou juridique total

Parce que oui, du côté du droit, c'est le vide total et la prise en compte du contenu généré par IA est peu appréhendée par les textes juridiques. Ce qui pourrait peut-être même dire que le code produit par Claude n'est peut-être pas protégeable. Et la Free Software Foundation enfonce le clou : « Il n'y a rien de propre dans un LLM qui a ingéré le code qu'on lui demande de réécrire. »

Le nœud du problème, c'est que Claude a été entraîné sur des milliards de lignes de code, dont probablement chardet lui-même. Simon Willison, développeur respecté, admet d'ailleurs que « les arguments des deux côtés sont entièrement crédibles ». On n'est pas rendus.

Ce qui se joue ici en fait, c'est surtout la question de savoir si les licences logicielles ont encore un sens quand une IA peut recréer n'importe quel code en quelques jours. Et la réponse, pour le moment, c'est que personne ne sait.

La justice américaine refuse de se prononcer, les fondations open source dénoncent sans pouvoir empêcher, et les développeurs comme Ronacher haussent les épaules. Et ça ne concerne pas que les développeurs : chaque application sur votre Mac, votre iPhone ou votre navigateur dépend de bibliothèques open source. Si leur modèle économique et juridique s'effondre, on le sentira tous passer.

Sources : The Register , Simon Willison

Hier — 5 mars 2026Korben

Europol démantèle Tycoon 2FA, la plus grosse plateforme de phishing au monde

Par : Korben
5 mars 2026 à 17:16

Europol, Microsoft et plusieurs agences de six pays européens viennent de mettre hors service Tycoon 2FA, une plateforme de phishing vendue sur abonnement qui contournait la double authentification. 330 domaines ont été saisis, et le développeur principal a été identifié au Pakistan.

Une machine à phishing sur abonnement

Pour mieux vous poser le tableau, le Tycoon 2FA fonctionnait comme un service clé en main pour cybercriminels. Pour 120 dollars les dix jours ou 350 dollars par mois, n'importe qui pouvait accéder à un panneau de contrôle avec des pages de phishing prêtes à l'emploi, qui imitent les interfaces de connexion de Microsoft 365, Outlook, Gmail ou même SharePoint.

Le kit interceptait les sessions d'authentification en temps réel, ce qui permettait de contourner la double authentification sans que la victime ne se doute de quoi que ce soit. Depuis août 2023, la plateforme a généré des dizaines de millions de mails de phishing par mois. Microsoft estime en fait que Tycoon 2FA représentait à elle seule 62 % des tentatives de phishing bloquées mi-2025, c'est faramineux.

100 000 organisations touchées dans le monde

64 000 incidents de phishing ont été reliés à la plateforme, et près de 100 000 organisations ont été compromises à travers le monde, dont des hôpitaux, des écoles et des administrations publiques.

Les États-Unis arrivent en tête avec 179 000 victimes, suivis du Royaume-Uni, du Canada, de l'Inde et de la France avec 6 823 victimes identifiées. Si vous utilisez Microsoft 365 ou Outlook au quotidien, c'est le genre de kit qui ciblait directement vos identifiants. Le développeur principal, un certain Saad Fridi basé au Pakistan, a été identifié par Trend Micro dès novembre 2025 sous les pseudos "SaaadFridi" et "Mr_Xaad".

L'opération a mobilisé les polices de six pays (Lettonie, Lituanie, Portugal, Pologne, Espagne et Royaume-Uni) sous la coordination du Centre européen de lutte contre la cybercriminalité d'Europol.

330 domaines saisis d'un coup

Microsoft a mené la partie technique en neutralisant 330 domaines qui servaient de pages de phishing et de panneaux de contrôle. Cloudflare, Coinbase, Intel 471, Proofpoint, SpyCloud et Trend Micro ont aussi participé à l'opération. La plateforme n'a toujours pas donné lieu à des arrestations à ce stade. Le développeur a été identifié, mais aucune interpellation n'a été annoncée.

Le fait que des boîtes privées comme Microsoft et Trend Micro travaillent main dans la main avec Europol est interessant, et ça produit des résultats. Mais 330 domaines saisis sur une infra qui en générait de nouveaux toutes les 24 à 72 heures, on peut se demander combien de temps ça va tenir.

La France est le cinquième pays le plus touché avec presque 7 000 victimes, et quand on sait que le phishing représente 43 % des cyberattaques déclarées par les entreprises françaises, ça donne une idée de l'ampleur du problème.

On espère que cette opération servira d'exemple, mais d'autres plateformes du même genre sont probablement déjà en train de prendre le relais.

Sources : The Hacker News , Europol

Près de 900 employés de Google et OpenAI réclament des limites sur l'IA militaire

Par : Korben
5 mars 2026 à 16:35

Plus de 600 employés de Google et OpenAI ont signé une lettre ouverte baptisée « We Will Not Be Divided », pour demander des limites claires sur l'usage militaire de l'IA. Le nombre de signataires est monté à près de 900 en quelques jours. Il y a deux gros problèmes dans cette histoire : la surveillance de masse et les armes autonomes. Le contexte est tellement tendu que le Pentagone a même blacklisté Anthropic pour avoir refusé de coopérer.

Une lettre, deux lignes rouges

La lettre, publiée le 28 février sur le site notdivided.org, a d'abord réuni 573 employés de Google et 93 d'OpenAI. En quelques jours, le compteur est monté à près de 900 signatures, dont 800 côté Google. Les signataires posent deux lignes rouges : pas de surveillance de masse des citoyens américains, et pas de systèmes d'armes autonomes sans supervision humaine. « Les responsables gouvernementaux tentent de pousser les entreprises d'IA à abandonner certaines limites éthiques. Cette stratégie ne fonctionne que si aucun de nous ne sait où se situent les autres », peut-on lire dans la lettre.

Anthropic blacklisté par le Pentagone

Tout est parti d'un bras de fer entre Anthropic et le Pentagone. Le département de la Défense avait donné un ultimatum à Anthropic : lever ses restrictions sur Claude pour permettre son utilisation dans la surveillance domestique et les armes autonomes, ou perdre ses contrats fédéraux. Anthropic a refusé. La réponse a été immédiate : Trump a ordonné l'arrêt de toute utilisation des produits Anthropic par les agences fédérales, et le secrétaire à la Défense Pete Hegseth a désigné l'entreprise comme « risque pour la chaîne d'approvisionnement ». Le gouvernement a même menacé d'invoquer le Defense Production Act, une loi datant de la guerre de Corée, pour forcer Anthropic à coopérer. Et quelques heures après ce refus, OpenAI annonçait un accord avec le Pentagone pour déployer ses modèles sur les réseaux classifiés.

Altman tente de calmer le jeu

Sam Altman a organisé une session de questions-réponses sur X le samedi 1er mars. Il a reconnu que l'accord avait été « précipité » et que « les apparences ne sont pas bonnes ». Sa justification : vouloir « désamorcer » les tensions entre le Pentagone et Anthropic, et éviter que le gouvernement ne force les entreprises privées à coopérer. Sauf que l'accueil a été glacial. L'application Claude est montée à la deuxième place de l'App Store en téléchargements, les bureaux d'OpenAI à San Francisco ont été recouverts de graffitis, et l'un des employés d'OpenAI, Leo Gao, a qualifié les protections du contrat de « décoration de vitrine ».

Le timing d'OpenAI, qui a signé avec le Pentagone le jour même où Anthropic se faisait blacklister, est quand même difficile à avaler. Altman peut dire ce qu'il veut, ça ressemble surtout à du pur opportunisme. Le plus parlant, c'est que le grand public a spontanément pris le parti d'Anthropic, et que les propres employés d'OpenAI contestent l'accord. Perso, j'attends de voir si les lignes rouges réclamées par les salariés déboucheront sur de vraies politiques internes. Pour le moment, c'est Anthropic qui sort grandi de cette séquence, l'air de rien.

Sources : Techradar , Digital Information World

Surfshark et IA générative : l'outil des attaquants devient celui des défenseurs

Par : Korben
5 mars 2026 à 13:25
-- Article en partenariat avec Surfshark --

On entend beaucoup parler de l'IA générative ces derniers temps. Et dans les médias classiques, c'est souvent pour s'en inquiéter (pas ici, vous savez que j'essaye de rester positif). Il faut quand même reconnaitre que : phishing plus convaincant, deepfakes, malware qui s'adapte tout seul... la liste des risques est longue et légitime.

Mais il y a un angle qu'on oublie parfois : cette même technologie peut aussi renforcer sérieusement nos défenses. C'est exactement la position que défend Surfshark depuis quelques mois. Pas en mode "l'IA va tout résoudre", mais avec une approche pragmatique. À savoir comment utiliser ces outils pour anticiper, tester et contrer les menaces avant qu'elles n'arrivent jusqu'à vous. Je vous explique comment ça fonctionne, ce que ça change concrètement, et pourquoi c'est une bonne nouvelle pour votre sécurité au quotidien.

L'IA générative n'est pas juste un outil d'attaque

Quand on parle de cybersécurité et d'IA, le premier réflexe est de penser aux cybercriminels. C'est vrai, ils l'utilisent. Pour écrire du code malveillant plus vite, personnaliser des campagnes de phishing, ou générer des variantes de malware qui contournent les signatures classiques. Mais les équipes de défense ont accès aux mêmes capacités. La différence ? L'intention et le cadre d'utilisation.

La "generative AI", dans ce contexte, c'est la capacité à produire du contenu nouveau à partir de modèles entraînés. Cela peut être du texte, du code ou encore des scénarios d'attaque simulés. Ce n'est pas de la magie. C'est de l'ingénierie appliquée à la sécurité. Concrètement, ça permet trois choses essentielles :

D'abord, la détection proactive. Au lieu d'attendre qu'une menace soit identifiée pour la bloquer, les modèles peuvent simuler des milliers de variantes d'attaques plausibles, puis entraîner les systèmes de détection à les reconnaître. C'est comme faire des exercices d'incendie avant que le feu ne se déclare.

Ensuite, l'analyse comportementale. L'IA peut modéliser ce à quoi un trafic réseau "normal" ressemble pour votre infrastructure, puis signaler les écarts subtils qui échapperaient à des règles statiques. Pas besoin que l'attaque corresponde à une signature connue, si le comportement est suspect, le système alerte.

Enfin, l'automatisation des réponses. Quand un incident est détecté, chaque minute compte. L'IA peut résumer les alertes, suggérer des actions de confinement, isoler un compte compromis, générer un rapport pour l'équipe, etc. Les analystes gardent la main sur les décisions stratégiques, mais ne perdent plus de temps sur des tâches répétitives.

Comment Surfshark met ça en pratique

Surfshark n'utilise pas l'IA générative pour faire du marketing ou ajouter des fonctionnalités gadget. L'approche est plus terre-à-terre.

Leur équipe sécurité s'appuie sur ces modèles pour tester en continu leurs propres défenses. Ils génèrent des scénarios d'attaque réalistes, adaptés à leur infrastructure, puis vérifient que leurs systèmes réagissent comme prévu. C'est une forme de "pen-testing" augmenté, plus rapide et plus exhaustif que les méthodes manuelles.

Un autre usage concret c'est l'entraînement des équipes. Plutôt que de se baser uniquement sur des incidents passés, ils peuvent créer des simulations dynamiques, avec des variantes imprévisibles. Ça permet de préparer les analystes à des situations qu'ils n'ont jamais rencontrées, sans attendre qu'elles arrivent pour de vrai.

Côté produit, certaines fonctionnalités bénéficient indirectement de ces avancées. CleanWeb , par exemple, qui bloque pubs et trackers, s'appuie sur des modèles capables d'identifier des schémas de collecte de données de plus en plus sophistiqués. L'IA ne remplace pas les listes de blocage, mais elle aide à les mettre à jour plus vite, face à des acteurs qui adaptent leurs techniques en permanence.

Et pour ceux qui s'inquiètent de la confidentialité, Surfshark précise que les données utilisées pour entraîner ces modèles sont soit synthétiques, soit anonymisées. Rien de ce que vous faites via leur VPN ne sert à nourrir des modèles externes. La politique no-logs, auditée par Deloitte ou très récemment SecuRing (audit en janvier 2026), reste la règle.

Utiliser l'IA en sécurité sans se mettre en danger

Si vous êtes tenté d'expérimenter avec des outils d'IA générative dans votre propre environnement, quelques précautions s'imposent. Déjà, ne partagez jamais d'informations sensibles avec des plateformes publiques comme ChatGPT, Claude, etc. Même si l'outil semble inoffensif, vos requêtes peuvent être conservées, analysées, ou fuiter en cas de brèche. Pour du travail sur des configurations, des logs ou des politiques de sécurité, privilégiez des environnements contrôlés, en local ou avec des fournisseurs qui garantissent la confidentialité des données.

Formez vos équipes. L'IA peut générer du code, du texte, des scénarios très convaincants ... mais elle peut aussi se tromper, introduire des biais, ou proposer des solutions qui semblent logiques alors qu'elles créent des failles. Un œil humain reste indispensable pour valider, contextualiser et décider.

Enfin, gardez une approche critique. L'IA n'est pas une solution miracle. Elle amplifie les capacités humaines, mais ne les remplace pas encore. Une bonne hygiène de sécurité (mises à jour, authentification forte, segmentation réseau) reste la base. L'IA vient en couche supplémentaire, pas en fondation.

Vous le savez maintenant, je ne suis pas de ceux qui voient l'IA comme une menace absolue, ni comme une panacée. C'est juste un outil. Comme un marteau : ça dépend de la main qui le tient.

Ce qui me convainc dans l'approche de Surfshark depuis plusieurs années, c'est le pragmatisme. Pas de promesses grandioses, pas de discours "disruptif". Juste une volonté d'utiliser ce qui fonctionne pour améliorer la protection, tout en restant transparent sur les limites et les risques. Si vous cherchez un VPN qui intègre une réflexion sérieuse sur l'avenir de la cybersécurité, sans sacrifier la simplicité ni la confidentialité, Surfshark coche les cases. L'IA générative n'est pas l'argument principal de leur offre, cela dit c'est un atout discret qui renforce la crédibilité technique de l'ensemble.

L'offre du moment

Surfshark propose toujours son offre à 87% de réduction plus trois mois offerts sur l'engagement 24 mois. Cela revient à 1,99 euro HT par mois (2.39€/mois TTC), avec une garantie satisfait ou remboursé de trente jours. Vous pouvez tester le service, vérifier par vous-même les performances, la facilité d'usage, la réactivité du support et vous avez en plus l' Alternative ID inclus. Si ça ne correspond pas à vos attentes, vous êtes remboursé, sans justification. C'est le prix d'un sandwich triangle par mois pour protéger un nombre illimité d'appareils !

En plus, du 25 février au 23 mars (et dans la limite du stock disponible), Surfshark frappe fort encore plus fort avec une offre exclusive en partenariat avec CALM, l’application de méditation et de sommeil la plus téléchargée au monde. En choisissant un abonnement Surfshark de 1 ou 2 ans, vous obtenez automatiquement 12 mois de CALM Premium offerts, quelle que soit la formule choisie. Elle est pas belle la vie ?

Profitez de l'offre à prix cassé !

Note : il s'agit d'un lien affilié. Cela ne change rien pour vous, mais cela me permet de continuer à produire ce type de contenu indépendant, sans recourir à la publicité intrusive.

Windows est lent ? 9 astuces pour booster les performances de votre PC

Par : Korben
5 mars 2026 à 10:54

Votre PC Windows rame ? Vous ouvrez Chrome et il met 10 secondes à afficher une page vide ? Sans parler de Windows Update qui mouline en arrière-plan et qui transforme votre PC en radiateur ?

Et bien il existe quelques astuces simples pour regagner en fluidité, améliorer la vitesse et la réactivité de votre système, le tout sans avoir à tout réinstaller ou à acheter du nouveau matos.

Je vais vous montrer 9 manipulations concrètes qui peuvent vraiment faire la différence, surtout si votre PC commence à prendre de l'âge ou si vous avez peu de RAM. Rien de révolutionnaire, juste des réglages qui marchent.

Ce qu'il faut savoir avant de commencer

Ces astuces fonctionnent sur Windows 10 et Windows 11. Certaines désactivent des fonctionnalités visuelles ou des services en arrière-plan, donc vous allez gagner en performances mais perdre quelques animations ou fonctions que vous n'utilisez peut-être jamais. C'est un compromis.

  • Prérequis : avoir un compte administrateur sur votre PC.
  • Temps estimé : 15-20 minutes pour tout appliquer.
  • Et surtout, créez un point de restauration avant de commencer (cherchez "Créer un point de restauration" dans le menu Démarrer).

Comme ça, si quelque chose se passe mal, vous pourrez revenir en arrière.

1. Désactiver les effets visuels

Windows affiche des animations partout : les fenêtres qui s'ouvrent en fondu, les ombres sous les icônes, les transitions en 3D. C'est joli mais ça bouffe du GPU, c'est-à-dire de la puissance graphique, et du CPU pour rien.

Tapez "performances" dans la barre de recherche Windows et ouvrez "Ajuster l'apparence et les performances de Windows". Dans l'onglet "Effets visuels", cochez "Ajuster afin d'obtenir les meilleures performances". Windows va tout désactiver d'un coup.

Si c'est trop moche, vous pouvez garder quelques effets utiles comme "Lisser les polices d'écran" (sinon le texte est illisible) et "Afficher des ombres sous les fenêtres" (pour mieux distinguer les fenêtres). Tout le reste, c'est du cosmétique.

Impact : libère 10-15% de CPU sur les PC avec GPU intégré. Vous verrez surtout la différence quand vous ouvrez plusieurs fenêtres en même temps.

2. Désactiver les programmes au démarrage

En général, quand vous installez un logiciel, il s'ajoute automatiquement au démarrage de Windows. Résultat : votre PC met 3 minutes à démarrer parce qu'il charge Skype, Steam, OneDrive, Adobe Creative Cloud, Spotify, et 15 autres trucs dont vous n'avez pas besoin dès le boot.

Appuyez sur Ctrl+Shift+Echap pour ouvrir le Gestionnaire des tâches. Allez dans l'onglet "Démarrage". Vous allez voir tous les programmes qui se lancent automatiquement. Faites un clic droit sur ceux que vous n'utilisez pas immédiatement au démarrage et choisissez "Désactiver".

Attention, ne désactivez pas les pilotes système (tout ce qui vient de Microsoft, Intel, AMD, Nvidia). Gardez votre antivirus aussi. Le reste, vous pouvez le lancer manuellement quand vous en avez besoin.

Impact : le démarrage de Windows passe de 2-3 minutes à 30-45 secondes. Et vous économisez de la RAM dès le lancement du système.

3. Nettoyer le disque avec Storage Sense

Windows accumule des fichiers temporaires, c'est-à-dire des données de cache, des anciennes mises à jour, des téléchargements oubliés, et tout ça prend de la place pour rien. Si votre disque est plein à 90% ou plus, Windows ralentit drastiquement.

Allez dans Paramètres > Système > Stockage et activez "Assistant de stockage" (Storage Sense en anglais). Il va nettoyer automatiquement les fichiers temporaires et la Corbeille tous les 30 jours.

Pour un nettoyage immédiat, cliquez sur "Libérer de l'espace maintenant" dans les mêmes paramètres. Cochez "Fichiers temporaires", "Corbeille", et "Téléchargements" (seulement si vous êtes sûr de ne rien y garder). Windows va scanner et supprimer.

Impact : peut libérer de 5 à 20 Go selon votre utilisation. Si vous étiez à plus de 90% d'occupation disque, vous allez sentir la différence immédiatement.

4. Mettre à jour Windows et les pilotes

Je sais, Windows Update c'est l'ennemi quand ça force un redémarrage en plein boulot. Mais des pilotes obsolètes ou un Windows pas à jour, ça peut vraiment plomber les performances. Microsoft corrige des bugs de performance dans les mises à jour mensuelles.

Allez dans Paramètres > Mise à jour et sécurité > Windows Update et cliquez sur "Rechercher des mises à jour". Installez tout ce qui est proposé. Faites pareil pour les pilotes via "Options avancées" > "Mises à jour facultatives".

Si vous voulez être sûr d'avoir les derniers pilotes graphiques, allez direct sur le site de votre fabricant (Intel, AMD, ou Nvidia selon votre GPU) et téléchargez la dernière version. Les pilotes fournis par Windows Update ont souvent du retard par rapport aux versions disponibles chez le fabricant.

Impact : variable. Parfois 0%, parfois +20% de performances sur les jeux ou les logiciels qui utilisent le GPU. Ça dépend vraiment de votre config et des bugs que Microsoft a corrigés entre temps.

5. Désactiver OneDrive (si vous ne l'utilisez pas)

OneDrive, c'est le service de stockage cloud de Microsoft, c'est-à-dire un espace de sauvegarde en ligne qui synchronise vos fichiers automatiquement. Le problème, c'est qu'il tourne en permanence en arrière-plan et il monopolise de la bande passante et du CPU pour synchroniser vos fichiers.

Si vous ne l'utilisez pas, désactivez-le. Clic droit sur l'icône OneDrive dans la barre des tâches (près de l'horloge) > Paramètres > décochez "Lancer OneDrive automatiquement quand je me connecte à Windows". Quittez OneDrive.

Si vraiment vous ne voulez plus voir OneDrive, vous pouvez le désinstaller. Tapez "Ajouter ou supprimer des programmes" dans le menu Démarrer, cherchez Microsoft OneDrive, et cliquez sur Désinstaller.

Impact : libère 5-10% de CPU en moyenne et réduit les accès disque. Surtout visible sur les PC avec disque dur mécanique (HDD).

6. Désactiver les services Windows inutiles

Windows lance des dizaines de services en arrière-plan, c'est-à-dire des programmes systèmes qui tournent en permanence même si vous ne les utilisez jamais. Vous pouvez en désactiver quelques-uns sans risque si vous ne les utilisez pas.

Tapez "services.msc" dans le menu Démarrer pour ouvrir la console des services. Voici les services à désactiver si vous ne les utilisez pas (clic droit > Propriétés > Type de démarrage : Désactivé) :

  • Expériences des utilisateurs connectés et télémétrie : c'est le service qui collecte des données sur votre utilisation de Windows et les envoie à Microsoft. Désactivez-le sans souci.
  • Service de routage de messages Push du protocole WAP : encore un service de collecte de données et de télémétrie. Rien à voir avec le WAP des années 90, vous pouvez le désactiver.
  • SysMain (Superfetch) : c'est un service qui précharge des applications en RAM et gère la compression mémoire. Sur un SSD, Windows ajuste déjà le prefetch automatiquement, mais le désactiver peut libérer des ressources sur les PC avec peu de RAM.
  • Windows Search : si vous n'utilisez jamais la recherche Windows, désactivez. Attention, ça va ralentir les recherches si vous changez d'avis.

Attention, ne touchez pas aux services que vous ne connaissez pas. Si vous désactivez un truc critique, Windows peut planter au démarrage. D'où l'importance du point de restauration créé au début.

Impact : libère 5-10% de CPU et 200-500 Mo de RAM selon les services désactivés.

7. Ajuster les options d'alimentation

Si vous êtes sur un PC portable, Windows limite les performances pour économiser la batterie. Même branché sur secteur, il peut rester en mode "Équilibré", c'est-à-dire un compromis entre performances et consommation électrique.

Tapez "alimentation" dans le menu Démarrer et ouvrez "Options d'alimentation". Sélectionnez le mode "Performances élevées" (ou "High Performance" en anglais). Si vous ne le voyez pas, cliquez sur "Afficher les modes supplémentaires".

Sur Windows 11, allez dans Paramètres > Système > Alimentation et batterie > Mode d'alimentation et sélectionnez "Meilleures performances".

Impact : le CPU et le GPU tournent à pleine vitesse en permanence. Gain de 10-20% sur les tâches CPU intensives (encodage vidéo, compilation, jeux). Mais la batterie va tenir moitié moins longtemps si vous êtes débranché.

8. ReadyBoost avec une clé USB (seulement si vous avez un HDD)

ReadyBoost, c'est une vieille fonctionnalité Windows qui utilise une clé USB comme mémoire cache supplémentaire. Ça peut aider les PC avec peu de RAM et un disque dur mécanique lent.

Branchez une clé USB rapide (USB 3.0 minimum, au moins 4 Go d'espace libre). Ouvrez l'Explorateur Windows, faites un clic droit sur la clé USB > Propriétés > onglet ReadyBoost. Cochez "Dédier ce périphérique à ReadyBoost" et validez.

Attention, si vous avez un SSD, ReadyBoost ne sert à rien. Votre SSD est déjà plus rapide qu'une clé USB. Ne l'activez que si vous avez un HDD.

Impact : gain de 5-10% sur les temps de chargement des applications si vous avez moins de 4 Go de RAM et un HDD. Zéro gain avec un SSD.

9. Fermer les applications et redémarrer régulièrement

Ça paraît bête mais beaucoup de gens laissent leur PC allumé pendant des semaines sans jamais redémarrer. Windows accumule des processus zombies en mémoire, des handles de fichiers non libérés, et la RAM se remplit progressivement.

Fermez les applications que vous n'utilisez pas (surtout Chrome avec ses 50 onglets ouverts). Redémarrez votre PC au moins une fois par semaine. Ça libère la RAM et ça remet les services système à zéro.

Dans le Gestionnaire des tâches (Ctrl+Shift+Echap), regardez l'onglet "Processus" et triez par utilisation mémoire. Si vous voyez des applications qui bouffent 1-2 Go alors que vous ne les utilisez pas, fermez-les.

Impact : peut récupérer 2-4 Go de RAM si vous n'aviez pas redémarré depuis longtemps. Windows redevient fluide instantanément.

Vérifier l'impact des modifications

Une fois que vous avez appliqué ces astuces, ouvrez le Gestionnaire des tâches (Ctrl+Shift+Echap) et regardez l'onglet "Performances". Vous devriez voir l'utilisation CPU et RAM baisser significativement au repos.

Au repos, un Windows 11 optimisé utilise environ 2-3 Go de RAM et 5-10% de CPU. Si vous êtes au-dessus, c'est qu'il y a encore des services ou programmes qui tournent inutilement en arrière-plan.

Si après tout ça votre PC rame toujours, le problème vient peut-être du matériel. Un disque dur qui commence à lâcher, de la RAM défectueuse, ou un PC trop ancien. À ce stade, un SSD et de la RAM supplémentaire feraient plus de différence que n'importe quel réglage logiciel.

Ce qu'il ne faut PAS faire

J'ai vu plein de tutos qui recommandent des trucs douteux pour "booster" Windows. Voici ce qu'il ne faut surtout pas faire :

Ne téléchargez pas de logiciels d'optimisation automatique ou tous les trucs qui promet de "nettoyer le registre". Ces outils créent parfois plus de problèmes qu'ils n'en résolvent et certains installent même des adwares.

Ne désactivez pas Windows Defender sous prétexte qu'il consomme du CPU. Oui, sa protection temps réel tourne en permanence, mais elle est bien optimisée et consomme peu de ressources en usage normal. Si vous le désactivez, vous allez choper un malware qui va vraiment ralentir votre PC.

Notez que dans ma vidéo, je dis que Windows Defender "tourne en arrière-plan uniquement" pour faire des scans. C'est pas tout à fait exact : en réalité, sa protection temps réel (Antimalware Service Executable) tourne en permanence pour surveiller chaque fichier que vous ouvrez ou téléchargez. C'est justement pour ça qu'il ne faut pas le désactiver. Ça consomme un peu de CPU, mais c'est le prix à payer pour ne pas se retrouver avec un cryptominer qui vous bouffe 100% du processeur.

Ne modifiez pas le registre Windows si vous ne savez pas ce que vous faites. Un mauvais réglage et Windows ne démarre plus.

Et surtout, sauvegardez vos données régulièrement. Ces astuces sont sans risque si vous avez créé un point de restauration, mais un plantage est toujours possible. Mieux vaut prévenir que pleurer devant un écran noir.

Voilà, vous avez de quoi remettre votre PC d'aplomb !

Source

Yolobox - Lâchez vos agents IA sauvages sans flinguer votre home

Par : Korben
5 mars 2026 à 10:07

J'avoue que faire tourner un agent IA en mode YOLO sur votre machine, y'a de quoi flipper un peu. Un mauvais prompt et hop, votre répertoire home part en fumée.

Mais heureusement, pour ça y'a Yolobox , un outil en Go qui fait tourner vos agents IA dans un conteneur Docker isolé. En gros, l'agent a les pleins pouvoirs dans son bac à sable par défaut comme ça, votre répertoire home reste intouchable. Claude Code, Codex, Gemini CLI, GitHub Copilot, tout est compatible, préconfiguré et prêt à l'emploi.

En fait avec Yolobox, seul votre dossier projet est monté en lecture-écriture avec le même chemin que sur votre machine et comme ça, l'agent bosse comme si de rien n'était. Sauf que tout le reste (vos clés SSH, vos credentials, vos photos de vacances à la plage naturiste et j'en passe...) est inaccessible depuis le conteneur. L'agent peut faire sudo, installer ce qu'il veut, déglinguer sa config... en fait RIEN ne s'échappe.

L'installation tient en une ligne :

brew install finbarr/tap/yolobox

Par contre, faut Docker Desktop qui tourne derrière, car sans ça, rien ne démarre. Ensuite c'est yolobox claude pour lancer Claude Code, yolobox codex pour Codex, yolobox gemini pour le CLI Google. Ou yolobox run suivi de n'importe quelle commande si vous avez un agent custom...

Côté sécu, y'a 4 niveaux qui vont du basique au parano. Le mode par défaut avec isolation conteneur standard. Un cran au-dessus avec --no-network et --readonly-project pour couper le réseau et passer le projet en lecture seule. Ensuite du Podman rootless. Et le niveau max avec isolation VM complète, parce que des fois faut pas déconner. Ça supporte aussi le runtime Apple Container pour ceux qui veulent rester full macOS.

Et les outils de dev sont déjà embarqués dans l'image : Node.js 22, Python 3, Go, Bun, ripgrep, fzf, jq... Les volumes persistants gardent également vos installations entre les sessions, donc pas besoin de tout réinstaller à chaque lancement.

Attention quand même, ça ne marche pas contre un escape de conteneur délibéré car hé, Docker reste Docker. Mais si vous utilisez Claude Code en mode autonome et que vous faites du vibe coding, c'est le minimum vital pour éviter qu'un agent aille fouiller là où il faut pas .

Bref, allez voir ça et merci à Lorenper pour le partage !

Chronoquoi ?

Par : Korben
5 mars 2026 à 09:58
— Article rédigé par l’ami Remouk (DansTonChat) – Merci à lui —

Découvert au détour d'un post reddit, intrigué par le concept et le fait que le jeu ait été réalisé par une seule personne, j'ai demandé une clef au développeur, qui s'avère être français. Il a gentiment accepté, et comme j'ai sincèrement (spoiler) adoooooré l'aventure proposée, je vous en parle ! Il s'agit de Chronoquartz .

Dès le début, c'est le bordel : les méchants volent le chronoquartz et blabla y a rien qui va, y a le feu partout c'est la catastrophe. Résultat : on se retrouve en prison. Bah super. Ça commence bien.

Heureusement, on est malin, on sort de la prison, on avance, on explore quelques salles en évitant les gardes, on se heurte à quelques portes fermées, et au bout de 10 déplacements BIM on se retrouve à notre point de départ.

Quoi ?!

Ok alors attention c'est un peu compliqué à expliquer… Mais en gros, on est dans une boucle temporelle. À chaque fois qu'on change de pièce, ça compte comme un "tour". Et on a 10 tours avant que la boucle ne recommence à zéro. On remonte dans le temps, au tour "0" et on refait 10 tours. Durant ces 10 tours, vous pouvez chercher des indices, qui, mis bout à bout, vous permettrons d'avancer plus loin.

C'est un peu "un jour sans fin" mais dans un jeu vidéo.

Dis comme ça, c'est assez flou, j'en suis conscient. Mais manette en main, on se prend immédiatement au jeu, on s'habitue très vite à cette mécanique, et on voit où le développeur veut en venir. C'est très malin et bien pensé !

On progresse tranquillement, c'est super satisfaisant, et quand on commence à être à l'aise avec le concept, PAF l'aventure "s'ouvre" encore plus, de nouvelles mécaniques arrivent, et c'est… Trop bien !

C'est donc un jeu de réflexion / exploration / énigmes, mais dans lequel on doit réfléchir de manière très différente de d'habitude. Il faut souvent "sortir du cadre" et penser "out of the box" comme disent les américains (ouais je suis bilingue).

Les graphismes sont super mignons, joliment pixelisés, c'est bien fait (aucun bug ou quoi que ce soit), tout est fluide comme il faut. Les musiques sont tops ! C'est vraiment très bien foutu, immense bravo à Infinite Stairs.

En dehors de 2 ou 3 indices qui manquaient un peu, selon moi, de clarté (et encore, j'imagine que ça dépend des gens ?), j'ai trouvé que c'était très futé, très malin.

Le genre de problèmes devant lesquels où on se creuse la tête à fond, puis on a un déclic et MAIS OUI BIEN SÛR ça devient absolument évident. :D

En conclusion, un petit jeu (comptez 6-7h pour voir la fin) à petit prix (10€) qui m'a marqué par l'originalité de son concept, de ses énigmes. L'idée est pourtant casse-gueule mais c'est vraiment réussi, intelligent, globalement bien équilibré, si vous aimez vous creuser la tête : je conseille fortement !

Dispo sur PC (Steam) et Nintendo Switch

Shuffle - Quand 4 IA redesignent votre site (et c'est moche)

Par : Korben
5 mars 2026 à 09:48

Shuffle , c'est un outil qui vous propose de redesigner votre site web avec 4 modèles d'IA différents. Vous collez votre URL, vous décrivez ce que vous voulez... et boom, Claude Opus 4.6, GPT-5.2, Gemini 3 Pro et Kimi K2.5 vous pondent chacun leur version. J'ai testé sur ma home. Verdict : c'est moche de fou !

Vous arrivez sur la page, vous entrez l'adresse de votre site, vous tapez un petit prompt du genre "modernise mon blog tech" et vous lancez la machine. Les 4 modèles bossent alors en parallèle et au bout de 30 secondes environ, vous avez 4 propositions de redesign à comparer côte à côte.

Je trouvais le concept cool, sauf que dans la pratique, c'est une autre histoire. Comme je vous le disais en intro, j'ai testé sur korben.info, et les 4 IA ont eu exactement la même idée lumineuse : tout foutre en thème sombre. QUATRE sur QUATRE ! Pas un seul n'a osé proposer autre chose qu'un fond #1a1a2e dégeu avec des accents néon bleu-vert. Original, hein !!

Les 4 propositions de redesign de korben.info... toutes en dark mode. Désolé si votre site ressemble à ça.

On dirait que pour les IA, "blog tech" = "dark mode obligatoire"... et du coup ça ressemble à tous les médias tech génériques qu'on retrouve partout. Sauf si vous précisez "fond clair" dans le prompt, mais même là, c'est pas garanti.

Claude Opus a pondu une esthétique "hacker" avec du code Matrix en fond vert (carrément, on se laaache). GPT-5.2 a carrément rebaptisé le site "KORBEN NEXT" avec une baseline inventée de toute pièce, "La veille tech qui va droit au but"... euh, merci mais non merci j'aime pas le foot. Gemini 3 Pro a opté pour un style magazine éditorial et Kimi K2.5 (le modèle chinois de Moonshot AI) a sorti le gradient hero classique, propre... ou plutôt fade.

Bah ouais, les IA analysent la structure, les catégories, les images... mais le résultat c'est finalement toujours le même template sombre "tech media 2024" qu'on a vu un million de fois. Alors que pour moi, Korben.info c'est pas du tout cette ambiance.

Mais l'outil a quand même des qualités puisque l'éditeur visuel permet de modifier le résultat en drag-and-drop sans toucher au CSS, et vous pouvez même exporter le code dans 4 formats : Next.js, Laravel, WordPress ou HTML classique. En fait, ça peut servir de très bon point de départ si vous avez la flemme de partir d'une page blanche et si votre webdesigner est devenu injoignable depuis qu'il est parti à Punta Cana.

Côté prix, y'a une version gratuite mais limitée à quelques générations, et après puis c'est 24 dollars par mois...etc.

Ça aurait pu être un excellent outil mais malheureusement, les modèles sont formatés sur les mêmes tendances, les mêmes palettes, les mêmes layouts. C'est dommage je trouve. Voilà, après je pourrais vous faire une conclusion bien neuneu genre "C'est pas demain qu'une IA remplacera un vrai directeur artistique qui comprend l'identité d'une marque." mais la réalité, c'est que un humain moyen motivé qui sait ce qu'il veut peut avoir un truc incroyablement bien généré par IA s'il prend le temps le temps de se former et qu'il ne lâche rien ! Tenez par exemple, 100% du template graphique de mon site a été généré à l'aide de l'IA et moi derrière pour la fouetter...

Voilà, si vous voulez rigoler un peu, allez tester votre site sur Shuffle mais ne vous attendez pas à un miracle !

❌
❌