Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 3 septembre 2025Flux principal

Les milliardaires et leurs bunkers de luxe ou quand les rats quittent le navire qu'ils ont coulé

Par : Korben
3 septembre 2025 à 18:41

Je viens de lire un article super intéressant sur pourquoi les milliardaires sont en train de se faire fabriquer des bunkers un peu partout dans le monde, et franchement, ça me dégoûte.

Ils feraient mieux d’investir pour nous sortir de la merde collective dans laquelle ils nous ont mis plutôt que d’aller se cacher comme des rats. Les mecs n’ont jamais ouvert une conserve de leur vie, et je donne pas cher de leur peau après l’apocalypse.

D’après cet article, Douglas Rushkoff, un théoricien des médias, s’est retrouvé un peu par hasard à une conférence dans le désert pour ultra-riches. Lui pensait qu’il était là pour discuter du futur de l’humanité, mais visiblement, non, les mecs voulaient juste savoir où construire leurs bunkers. Alaska ou Nouvelle-Zélande ? Bitcoin ou Ethereum pour payer la construction ? C’était apparemment leur seule préoccupation.

Douglas Rushkoff

Et ces bunkers ne sont pas de simples abris, hein… Ce sont de vrais palaces souterrains. Ron Hubbard, qui dirige la société Atlas Survival Shelters et se décrit comme “l’Amazon des bunkers”, a construit des milliers de ces trucs. Il a par exemple bossé pour les frères Tate (vous savez, ceux qui sont accusés de trafic d’êtres humains), pour MrBeast, et même pour Mark Zuckerberg à Hawaii.

D’après Hubbard, un bunker “confortable” d’un demi-million de dollars, ça se compose de huit à neuf pièces, deux chambres, une cuisine, une salle de bain, une salle de décontamination, et même une pièce pour le générateur. Certains ont des salles de cinéma souterraines, des caves à vin climatisées, et même des poteaux de strip-tease (je vous jure, les frères Tate en voulaient dans leur bunker).

Selon Vice qui a également abordé le sujet, au Kansas, un ancien silo de missiles a été transformé en “Survival Condo Project” où avec 3 millions de dollars vous pouvez acheter un appartement clé en main entouré de 3 mètres de béton armé. En Nouvelle-Zélande, les milliardaires de la Silicon Valley sont également convaincus que ce pays sera l’un des rares à survivre à ce qu’ils appellent sombrement “l’Événement”.

Zuckerberg, par exemple, est en train de se faire construire un bunker de 460 mètres carrés sous son ranch à Kauai, avec des espaces de vie, une salle technique, une trappe d’évacuation, des portes insonorisées à code, son propre approvisionnement en nourriture, un réservoir d’eau et un système de pompage. Le tout pour la modique somme de 270 millions de dollars.

Et Douglas Rushkoff leur a expliqué plusieurs fois, en vain, que “la survie réussie est un sport d’équipe”. En gros, pour survivre, vos voisins doivent aussi survivre. Sinon, ils viendront frapper à la porte de votre bunker, vous sortiront de là et vous tueront. Mais bon, ces génies refusent les solutions “pro-sociales”… Leur compréhension du succès est uniquement individuelle. Pour eux, c’est “le gagnant rafle tout” et tant pis pour les autres…

Hubbard précise aussi que 99% de ses clients sont “très chrétiens” et qu’il ne vend quasiment jamais de bunkers à des gens de gauche ou des démocrates. Selon lui, c’est parce que les gens de droite se gèrent eux-même tandis que les gens de gauche pensent que le gouvernement viendra les aider. Lol.

Ron Hubbard

Voilà, et si vous n’avez pas la place pour vous faire creuser un méga-bunker, il y a aussi des entreprises qui installent des panic rooms blindées dans les maisons. Leurs clients vivent souvent dans des villes et ils veulent un endroit où se barricader en cas de cambriolage ou d’assaut. Mais le plus dingue dans tout ça, c’est qu’à présent, les milliardaires de la tech sont passés à autre chose … Ils sont quasiment tous convaincus qu’ils pourront “télécharger leur conscience dans le cloud”.

Rushkoff, qui a écrit un livre entier sur le phénomène ("Survival of the Richest: Escape Fantasies of the Tech Billionaires"), explique qu’il a été surpris par le niveau d’intelligence de ces milliardaires de la tech. Et attention c’est pas un compliment : “Aucun de ceux que j’ai rencontrés n’était de vrais programmeurs, de vrais inventeurs, de vrais ingénieurs… La plupart étaient juste les potes de vrais ingénieurs, plus capables de vendre la tech ou de construire un business.

Photo Ron Hubbard

Dans cet autre article, Douglas Rushkoff note qu’il y a quand même certaines personnes extrêmement riches qu’il connaît, qui ont eu une expérience mystique qui les a complètement transformés en défenseurs de l’activisme climatique et de l’ économie régénérative . Mais la plupart des autres ultra riches redoublent d’efforts pour faire cavalier seul et laisser l’humanité derrière eux…

Mais alors moi après avoir lu cet article, je me demande maintenant ce qui se passera après “l’Événement” ? Parce que bon, leur argent ne vaudra peut-être plus rien du tout et après ils feront quoi quand leurs réserves de bouffes commenceront pas se réduire ?

Ils viendront surement nous manger.

Photo d’illustration : Ron Hubbard

Les médias de confiance pourraient tirer profit des faux générés par IA

Par : Korben
3 septembre 2025 à 17:53

Je ne l’avais pas forcément anticipé, mais plus l’IA s’amuse à générer de fausses infos, plus les gens se réfugient vers les médias traditionnels. En tout cas, c’est à cette conclusion que sont arrivés les chercheurs de Johns Hopkins, de l’Université nationale de Singapour et de Carnegie Mellon dans une étude publiée récemment .

Ces derniers ont mis en place une collaboration avec Süddeutsche Zeitung , l’un des mastodontes de la presse allemande, pour élaborer un quiz interactif. Le principe c’était de proposer aux lecteurs 5 images et leur demander lesquelles étaient générées par IA. Je vous donne la conclusion direct : 36% des participants ont été incapables d’identifier correctement les fausses images. C’est fou non ?

Et là où ça devient vraiment intéressant, c’est après ce quiz… car une fois confrontés à cette difficulté de distinguer le vrai du faux, les lecteurs ont modifié leur comportement. L’étude montre en effet une augmentation de 2,5% des visites quotidiennes sur le site du journal .

Ça peut paraître peu, mais pour un média en place qui ronronne depuis longtemps, c’est plutôt pas mal. Et comme si ça ne suffisait pas, le taux de désabonnement a également chuté d’un tiers parmi ceux qui ont participé au quiz.

Filipe Campante, l’un des chercheurs de Johns Hopkins, explique que cette sensibilisation crée en fait une prise de conscience car les gens réalisent soudainement la valeur d’avoir des sources fiables dans un océan de contenus douteux. Plus les participants étaient surpris par leur incapacité à distinguer le vrai du faux, plus ils augmentaient leur consommation de contenus vérifiés par la suite.

C’est une forme de vaccination où une petite dose contrôlée de désinformation renforce les défenses de l’esprit critique (Oui, je sais, les “grosses doses” vous ont déjà eu pour certains d’entre vous… snif.)

Et surtout, il semblerait que l’effet persiste dans le temps . Ce n’est donc pas juste un pic temporaire d’intérêt car les lecteurs ont développé une sorte de réflexe de vérification, en se tournant vers des sources fiables quand ils tombaient sur des infos douteuses ailleurs.

Bien sûr, il y a des limites à cette étude car elle a été menée avec un public allemand, déjà habitué à payer pour de l’information de qualité… Faudrait donc voir ce que ça pourrait donner sur le secteur des médias français où tout le monde est habitué à se gaver de confiture gratuite jusqu’à la gerbe…

Quoiqu’il en soit, la tendance de fond reste encourageante.

Pour les médias traditionnels, c’est donc une super opportunité car au lieu de voir l’IA uniquement comme une menace existentielle et de chialer toute la journée sur leur propre sort, ils peuvent l’utiliser comme un argument de différenciation. Cette authenticité peu devenir un sérieux argument marketing et certains journaux commencent déjà à intégrer des modules éducatifs sur la détection de fakes dans leur stratégie d’engagement. C’est pas con, va falloir que j’y pense aussi ^^.

Bref, cette méchante IA, censée remplacer les journalistes et tout ce qui a un cerveau, va peut-être bien finir par renforcer la valeur du journalisme fait par des humains, car les lecteurs ne veulent pas juste de l’information… Non, ils veulent de la confiance. Et pour l’instant (oui, pour l’instant…), cette confiance est encore présente chez les médias qui emploient de vrais journalistes, avec de vraies sources et de vrais processus de vérification…

Quoiqu’il en soit, imaginez ce que pourrait donner si on formait notre jeunesse à tout cela… On pourrait créer une génération beaucoup plus résistante à la désinformation !

Et évidemment, tout cela pourrait s’appliquer à d’autres domaines où l’authenticité devient rare. Je pense par exemple aux artistes qui pourraient bénéficier de cette prolifération d’œuvres générées par IA ou aux photographes qui pourraient voir leur travail à nouveau mis en valeur face aux deepfakes. Visiblement, les gens veulent de l’authenticité donc tout n’est pas foutu, mais bon après, si votre travail est artistiquement sans intérêt et qu’une IA peut faire exactement le même truc que vous, c’est sûr que va falloir vous sortir un peu les doigts ou penser à une reconversion professionnelle.

Voilà, moralité, plus on est bombardé de contenus artificiels, plus on apprécie l’humain qui se cache derrière l’information. En tout cas, pour le moment… ^^

Et n’oubliez pas que vous pouvez suivre mes contenus de confiance et de qualité soit directement sur ce site soit via mon flux RSS .

Source

Obs.js transforme votre site en un caméléon qui s'adapte à chaque visiteur

Par : Korben
3 septembre 2025 à 15:09

Alors rien à voir avec le logiciel de streaming, mais sachez que Harry Roberts, le consultant en performance web derrière CSS Wizardry (et accessoirement un mec qui a bossé avec Google, la BBC et l’ONU), vient de sortir Obs.js .

L’idée de ce truc, c’est de transformer votre site web en véritable caméléon. Au lieu de servir la même expérience à tout le monde, la bibliothèque va détecter en temps réel les conditions de navigation de chaque visiteur. Batterie presque vide ? Connexion 2G pourrie ? Le site s’adapte automatiquement.

Pour cela, Roberts utilise des APIs natives du navigateur qui existent depuis des années mais que presque personne n’exploite vraiment. La Battery Status API et la Network Information API sont là, dans Chrome et consorts, à attendre qu’on leur trouve une utilité. Et voilà, Obs.js débarque et les combine de façon intelligente pour créer quelque chose de vraiment utile.

Mais alors concrètement, ça donne quoi ?

Et bien ce script ajoute des classes CSS directement sur votre balise <html>, comme ça…

<html class="has-latency-low
 has-bandwidth-high
 has-battery-charging
 has-connection-capability-strong
 has-conservation-preference-neutral
 has-delivery-mode-rich">

Et quand vous avez un visiteur avec 5% de batterie, hop, une classe .has-battery-critical apparaît.

.has-battery-critical * {
 animation: none !important;
 transition: none !important;
}

Vous pouvez alors désactiver toutes les animations et transitions avec une simple règle CSS. Plus besoin de JavaScript complexe ou de détection côté serveur. C’est propre !

Mais ça va bien plus loin que la batterie puisqu’Obs.js catégorise aussi la qualité de la connexion de vos visiteurs. Une connexion forte, modérée ou faible, et votre site peut s’adapter en conséquence. Vous pouvez ainsi servir des images haute résolution aux utilisateurs sur fibre, et des versions compressées à ceux qui galèrent en 3G Free ^^ dans le métro.

body {
 background-image: url('banner-4k.jpg');
}

.has-delivery-mode-lite body {
 background-image: url('banner-optimized.jpg');
}

Je trouve cette approche très progressive car si le navigateur ne supporte pas ces APIs ( Safari ne supporte ni Battery ni Network Information API ), le site peut continuer à fonctionner normalement. Roberts recommande d’ailleurs de placer le script directement en inline dans le <head> de votre page, avant tout autre script. Il précise cela pour que la détection se fasse le plus tôt possible et que les classes soient disponibles dès le premier render.

De plus, l’objet window.obs exposé par la bibliothèque vous donne accès à toutes les métriques collectées. Vous pouvez ainsi savoir si le Data Saver est activé, si l’appareil est branché sur secteur, ou même détecter les changements de réseau en temps réel. Imaginez les possibilités pour une progressive web app qui doit gérer des modes offline !

En plus, ce type d’optimisation adaptative peut réduire significativement la consommation de données et améliorer les temps de chargement. Il est possible en implémentant cela et en faisant les aménagements nécessaire, d’économiser jusqu’à 40% de bande passante pour les utilisateurs ayant des connexions lentes. C’est énorme quand on sait que chaque seconde de chargement supplémentaire peut faire perdre 20% de conversions.

La version actuelle est déjà fonctionnelle et disponible sous licence MIT et le support navigateur est principalement orienté Chromium pour l’instant, mais c’est déjà une base solide pour commencer à expérimenter.

Et connaissant le profil de Roberts (le mec a littéralement écrit le livre sur les performances CSS), j’imagine qu’on peut s’attendre à ce que le projet évolue rapidement…

Pour l’implémenter, c’est vraiment simple. Vous récupérez le script sur GitHub, vous le minifiez si nécessaire, et vous le collez dans le head de votre HTML. Pas de npm, pas de webpack, pas de configuration compliquée. C’est à l’ancienne !

Voilà, je me suis dis que pour les développeurs qui me lisent, ça peut vous permettre par exemple d’adapter votre stratégie de lazy loading, de modifier la fréquence de vos appels API, ou même de changer complètement l’architecture de votre app selon le contexte. Vous pourriez par exemple désactiver le polling temps réel des utilisateurs qui ont une petite connexion, et le passer en mode manuel.

Bref, si vous faites du développement web et que vous vous souciez un minimum de l’expérience utilisateur, Obs.js mérite un petit coup d’oeil !

Firefox va ENFIN lire les MKV !

Par : Korben
3 septembre 2025 à 14:35

Attendez, attendez, attendez… Kewaaah ?

Firefox va ENFIN pouvoir lire des fichiers MKV ? En 2025 ? Non mais j’hallucine ! Bah oui parce que pendant des années, on a dû jongler avec des extensions pourries ou convertir nos fichiers comme des barbares, et là Mozilla se réveille tranquillement en mode “ah oui tiens, on pourrait peut-être supporter ce format que tout le monde utilise depuis 10 ans”. Mieux vaut tard que jamais comme on dit !

D’après le bug tracker officiel (mis à jour le 30 août dernier), Mozilla a donc enfin assigné un ingénieur sur le projet. L’implémentation devrait prendre 1 à 2 mois.

Pour ceux qui ne connaissent pas, le MKV (Matroska Video) c’est ce conteneur multimédia flexible qui peut embarquer plusieurs pistes audio, vidéo et sous-titres dans un seul fichier. C’est le format préféré de tous ceux qui téléchargent des films en haute qualité (légalement bien sûr, hein ^^). Chrome et Edge le supportent depuis des lustres et même Windows 10 et 11 le gèrent nativement ! Mais Firefox ? Que dalle…

Le déploiement va donc se faire progressivement, histoire de pas tout casser d’un coup. D’abord il y aura des tests dans Firefox Nightly avec les configs les plus courantes (vidéo H.264 avec audio AAC), puis on étendra aux codecs plus modernes comme VP9 ou AV1 avec Opus ou FLAC. C’est prudent, mais bon, vu le temps qu’ils ont mis à s’y mettre, on va pas chipoter.

Le plus drôle dans tout ça, c’est que le ticket de bug date de… attendez… 2017 ! 8 ans donc pour décider d’implémenter un format vidéo standard.

Pour les développeurs web, ça va simplifier la vie car plus besoin de maintenir deux versions de chaque vidéo sur les sites ou de forcer les utilisateurs Firefox à installer VLC ou autre. On pourra enfin utiliser le MKV pour les vidéos embarquées, avec tous ses avantages : meilleure compression, support des sous-titres softsub (les .srt, ce genre de trucs), le chapitrage…

Notez que l’implémentation ne couvrira pas TOUTES les fonctionnalités du MKV (le format est une usine à gaz quand même), mais comme je vous le disais plus haut, au moins les codecs déjà supportés par Firefox pourront être encapsulés en MKV. C’est déjà ça. On pourra enfin arrêter de convertir nos fichiers ou de changer de navigateur juste pour une vidéo.

En attendant, pour ceux qui ont absolument besoin de lire des MKV dans Firefox aujourd’hui, il reste les solutions de contournement habituelles : extensions tierces (qui marchent une fois sur deux), conversion en MP4 (en perdant des fonctionnalités), ou simplement… utiliser un autre navigateur. Mais bientôt, très bientôt, on pourra enfin rester sur notre bon vieux Firefox pour tout faire.

Alléluia !

Source

BruteForceAI - L'IA qui cracke vos mots de passe

Par : Korben
3 septembre 2025 à 10:34

Si vous faites du pentest, il doit vous arriver parfois de lancer un petit bruteforce sur un formulaire un peu pourri, pour tester les mots de passe classiques gens 1234, ou admin…etc. Mais parfois, certains formulaires de connexion donnent envie de se flinguer… Les sélecteurs CSS changent à chaque rafraîchissement, les noms des champs sont aléatoires…etc bref, ça peut vite être un véritable labyrinthe pour automatiser quoi que ce soit.

Heureusement pour vous les amis, le développeur Mor David s’est occupé du problème et a inventé BruteForceAI, un outil de bruteforce qui comme son nom l’indique, embarque une bonne dose d’intelligence artificielle.

La petite subtilité donc avec BruteForceAI, c’est qu’il ne se contente pas de lancer des milliers de combinaisons en mode berserk. Non, l’outil étudie d’abord la page HTML avec un modèle de langage qui comprend la structure du formulaire. Cette première phase atteint un joli 95% de précision dans l’identification des éléments de connexion, comme ça plus besoin de passer des heures à mapper manuellement les sélecteurs CSS.

C’est un système en deux temps où l’IA déchiffre d’abord le HTML et génère automatiquement les sélecteurs CSS nécessaires. Puis seulement après, l’attaque démarre avec des comportements qui imitent un humain : délais aléatoires, rotation des user-agents, logique de retry intelligente. L’outil peut même détecter les changements dans le DOM pour valider qu’une connexion a réussi.

Pour faire tourner la bête, il vous faudra Python 3.8+, Playwright pour l’automatisation du navigateur, et un modèle LLM. Vous avez le choix entre Ollama en local avec llama3.2:3b (pratique pour rester discret) ou Groq dans le cloud avec llama-3.3-70b-versatile si vous voulez plus de puissance.

Les modes d’attaque proposés sont assez classiques mais efficaces… Par exemple, le mode Brute-Force teste exhaustivement toutes les combinaisons possibles, tandis que le mode Password-Spray est plus subtil puisqu’il teste chaque mot de passe sur plusieurs comptes pour éviter les blocages après X tentatives échouées. Cette dernière technique est d’ailleurs redoutable contre les entreprises qui imposent des politiques de mots de passe uniformes.

D’après une analyse récente de CipherX Labs , l’IA rend le cracking de mots de passe 100 fois plus rapide qu’avec les méthodes traditionnelles. Un mot de passe de 10 caractères, même avec majuscules, minuscules et symboles, est maintenant considéré comme faible. L’aspect éthique est évidemment crucial ici et Mor David insiste sur le fait que l’outil est uniquement destiné aux tests de sécurité autorisés, à la recherche et aux programmes de bug bounty. Si vous faites des choses illégales avec ça, vous irez obligatoirement en prison et ce sera bien fait pour vous !

BruteForceAI dispose aussi d’un système de notifications plutôt bien pensé. Quand l’outil trouve des identifiants valides, il peut vous prévenir via Discord, Slack, Teams ou Telegram. Tout est loggé dans une base SQLite pour l’analyse post-attaque. Le côté multi-threadé permet aussi de lancer plusieurs attaques en parallèle, avec des timing humains pour éviter la détection.

Alors pour se défendre contre ce genre d’outils, les méthodes classiques ne suffisent plus… Par exemple, compter les tentatives de connexion échouées, c’est un peu has been… Non, maintenant il vous faut des systèmes de détection comportementale qui analysent les patterns d’accès en temps réel, du type UEBA (User and Entity Behavior Analytics). Les entreprises qui n’ont pas encore intégré ce genre de solutions sont aujourd’hui des cibles faciles pour les cybercriminels.

En plus, PassGAN et d’autres outils similaires apprennent à partir des bases de données de mots de passe qui ont fuité…. Plus il y a de fuites, plus l’IA devient efficace pour prédire les prochains mots de passe. C’est un cercle vicieux où chaque fuite de données nourrit la machine qui causera les prochaines fuites de données…

Maintenant si vous voulez tester BruteForceAI (sur vos propres systèmes, hein), l’installation est simple :

clonez le repo, installez les dépendances avec pip, téléchargez un des navigateurs Playwright, et c’est parti. Les commandes de base ressemble à ça :

# Etape 1: Analyser le formulaire
python main.py analyze --urls targets.txt --llm-provider ollama --llm-model llama3.2:3b

# Etape 2: Attaquer avec 20 threads
python main.py attack --urls targets.txt --usernames users.txt --passwords passwords.txt --threads 20 --delay 5 --jitter 2

Mais avant de vous lancer, assurez-vous bien d’avoir l’autorisation écrite du propriétaire du système que vous testez.

Bref, si vous utilisez encore des mots de passe de moins de 14 caractères ou si vous n’avez pas activé la double authentification partout où c’est possible, je pense que vous devriez rapidement reconsidérer vos choix de sécurisation…

Source

YouTube Anti-Translate - L'extension qui sauve Patrick des traductions pourries

Par : Korben
3 septembre 2025 à 09:58

Hier, lors du dernier Rendez Vous Tech , mon copain Patrick s’est plaint du nouveau système de traduction par IA de Youtube. Et il a raison, parce que même si ça peut dépanner, c’est plutôt horrible comme système. Puis pour lui qui a un Youtube en anglais (même s’il parle français), voir des vidéos FR également traduites en anglais c’est pénible et je le comprends.

Hé oui car Google, dans toute sa splendeur, n’offre aucune option native pour désactiver ce “bonus”. On peut bien sûr modifier la langue de son compte, mais en retour, faut dire adieu aux recommandations et aux tendances localisées. Bref, en gros, c’est un choix bien merdique…

Heureusement, des développeurs ont pris le taureau par les cornes. L’extension Chrome YouTube Anti-Translate (ou Firefox, chacun ses principes ) fait ainsi exactement ce qu’on attend d’elle puisqu’elle remet les titres originaux, désactive le doublage IA automatique et même les descriptions traduites. Et ce qui est vraiment cool avec cette extension, c’est qu’elle fonctionne partout sur YouTube : page d’accueil, tendances, abonnements, et même sur les Shorts. Elle rectifie aussi les traductions dans les notifications et cerise sur le gâteau, elle fonctionne aussi sur la version mobile (m.youtube.com) si vous utilisez Chrome sur Android.

Il existe aussi une alternative intéressante qui s’appelle YouTube No Translation , qui fait grosso modo la même chose mais avec quelques options supplémentaires, comme la possibilité de choisir une piste audio spécifique par défaut. Par contre, elle ne fonctionne pas sur Firefox Android, contrairement à YouTube Anti-Translate.

Y’a pas de configuration compliquée, pas de clé API à récupérer, ça marche direct et ces extensions ne collectent aucune donnée.

Mais attention tout de même, plusieurs utilisateurs rapportent que YouTube semble activement combattre ces extensions. Certains ont noté des problèmes récents avec la gestion des pistes audio qui disparaissent ou se remettent en doublage automatiquement. C’est un peu le jeu du chat et de la souris en ce moment, entre Google et les développeurs indépendants.

Et pour ceux qui veulent pousser le bouchon un peu plus loin, d’autres extensions complémentaires existent comme SponsorBlock (ici pour Firefox ) pour zapper les pubs intégrées, DeArrow pour remplacer les titres putaclic par des vrais titres descriptifs, ou encore No YouTube Shorts (ici pour Firefox ) pour ceux qui en ont ras le bol du format vertical.

Voilà, j’espère que tu seras content Patrick :-)

Kazeta OS - La distribution Linux qui transforme votre PC en console des années 90

Par : Korben
3 septembre 2025 à 08:09

Vous savez ce qui me manque le plus dans le gaming moderne ?

C’est cette sensation magique d’insérer une cartouche dans une console, d’appuyer sur le bouton power et de se retrouver directement dans le jeu. Pas de mises à jour à rallonge, pas de connexion obligatoire, pas de compte à créer, pas de launcher qui rame. Juste moi, ma manette et le jeu… Oui, je suis vieux.

Toutefois, tout n’est pas perdu pour moi, puisqu’un développeur nostalgique a eu la brillante idée de ressusciter cette expérience avec Kazeta OS , une distribution Linux complètement déjantée.

Alesh Slovak, le cerveau derrière cette idée (et aussi le développeur de ChimeraOS ), a décidé de transformer n’importe quel PC en console de salon façon années 90. Le concept c’est que vous prenez une carte SD, vous y copiez un jeu, vous lui mettez une jolie étiquette et hop, ça devient votre “cartouche”. Une fois insérée dans votre PC sous Kazeta, vous appuyez alors sur le bouton power et vous voilà directement dans le jeu. Pas d’interface, pas de menu compliqué, juste le jeu qui se lance instantanément.

Notez que le nom Kazeta vient du tchèque et signifie “cassette”. Comme Alesh Slovak est d’origine tchèque (mais basé à Waterloo au Canada), il en a profité pour faire un petit clin d’œil linguistique à ses origines.

Kazeta traite donc les cartes SD comme des cartouches en lecture seule. Mais rassurez-vous, vos sauvegardes sont automatiquement stockées sur le disque interne du PC, tout comme sur une vraie console. Et si vous démarrez sans cartouche insérée, vous tombez sur un BIOS rétro style PlayStation où vous pouvez gérer vos sauvegardes. C’est génial non ?

Le système supporte tous les jeux DRM-free que vous pouvez imaginer. Les jeux GOG, itch.io, vos vieux jeux Linux natifs, les jeux Windows via Wine/Proton, et même vos émulateurs préférés. Le développeur a conçu Kazeta pour plusieurs types d’utilisateurs. Je pense d’abord aux non-techos qui se perdent dans les interfaces, mais également aux collectionneurs nostalgiques de jeux physiques, et bien sûr à tous ceux qui veulent préserver leur collection de jeux d’une manière plus tangible.

Après pour installer Kazeta, c’est plutôt cool mais ça demande un peu de préparation. Vous devez d’abord télécharger l’ISO depuis le site officiel, puis vous devez l’installer sur votre PC dédié (pas de dual-boot possible pour l’instant), et ensuite vient la partie fun : Créer vos cartouches. Et pour ça, vous formatez une carte SD, vous y copiez les fichiers du jeu, et optionnellement, vous pouvez même imprimer une étiquette custom pour faire plus authentique. Chaque carte ne doit contenir qu’un seul jeu, exactement comme à l’époque. J’sais pas si c’est très écolo mais vous allez pouvoir acheter des vieux stocks de cartes SD de petite capacité dont personne ne veut plus.

L’OS est écrit principalement en Rust (85% du code) avec une touche de Shell et Docker pour l’infrastructure. Le projet est sous licence MIT et le code source est disponible sur GitHub . C’est un projet encore un peu jeune mais à terme, Kazeta promet de supporter “presque n’importe quel jeu DRM-free, passé ou présent”, ce qui ouvre des possibilités énormes. Imaginez transformer votre bibliothèque Steam (pour les jeux sans DRM), GOG ou même vos vieux CD-ROM en cartouches physiques que vous pouvez ranger sur une étagère.

Il y a également quelques limitations à prendre en compte cependant. Pas de support du dual-boot, pas de machines virtuelles, pas de gestion des GPU hybrides (switchable graphics), pas de multi-écrans, et les contrôleurs Bluetooth ne sont pas encore supportés (mais c’est prévu).

Perso, j’adore ce projet parce qu’il répond à un vrai besoin. On revient aux fondamentaux, un jeu, une cartouche, et on joue. Puis surtout, on pourrait imaginer construire une vraie borne d’arcade ou une console custom avec un Raspberry Pi ou un mini-PC, des slots pour cartes SD façon cartouches (imprimées en 3D), et Kazeta comme OS. Vous pourriez littéralement créer votre propre console de salon personnalisée avec votre bibliothèque de jeux préférés.

A découvrir ici !

ByteBot - L'agent IA qui prend le contrôle de votre ordi (mais dans Docker, faut pas déconner)

Par : Korben
3 septembre 2025 à 07:24

Vous saviez que Claude d’Anthropic avait lancé sa fonction Computer Use et OpenAI son Operator ? Eh bien, pendant que ces géants se livrent une bataille sans merci, un projet open source du nom de ByteBot propose de faire tourner un agent IA autonome sur votre machine. Le tout, avec une approche qui devrait rassurer les plus paranoïaques d’entre nous puisque tout se déroule dans Docker.

Le concept c’est qu’au lieu d’accorder un accès direct à votre système à une IA (ce qui pourrait rapidement virer au cauchemar), ByteBot fait tourner un Ubuntu 22.04 complet avec environnement graphique XFCE dans un conteneur. Ainsi, l’IA peut interagir avec cet environnement isolé via VNC et WebSockets, capturer des images d’écran, cliquer, taper du texte… En somme, elle peut faire tout ce que vous feriez, mais dans sa petite bulle sécurisée.

Il faut donc lui donner vos instructions en langage naturel… par exemple, vous pouvez lui demander de créer un nouveau repository GitHub ou de rechercher des informations spécifiques sur le web. ByteBot analyse alors votre demande, la décompose en étapes et se met au boulot. Il peut même naviguer sur le web, remplir des formulaires, gérer des mots de passe (stockés de manière sécurisée), et bien sûr exécuter des scripts bash ou Python.

Le truc cool, c’est également le mode “takeover”. Si jamais ByteBot galère sur une tâche ou que vous voulez reprendre la main, vous pouvez directement prendre le contrôle du desktop virtuel. C’est comme faire du pair programming avec une IA, sauf que c’est vous qui corrigez ses bêtises au lieu de l’inverse. Et une fois que vous avez montré comment faire, ByteBot apprend et peut reproduire la tâche plus tard.

Pour l’installer, plusieurs options s’offrent à vous. La plus simple reste Docker Compose. Vous clonez le repo, vous créez un fichier .env avec votre clé API (Anthropic, OpenAI ou Google Gemini au choix), et vous lancez le tout avec un docker-compose up. ByteBot se charge de builder les images, de configurer le réseau bridge pour l’isolation, et de monter les volumes persistants pour garder vos données entre les sessions.

git clone https://github.com/bytebot-ai/bytebot.git
cd bytebot
# Ajoutez votre clé de fournisseur d'IA (choisissez-en une)
echo "ANTHROPIC_API_KEY=sk-ant-..." > docker/.env
# Ou : echo "OPENAI_API_KEY=sk-..." > docker/.env
# Ou : echo "GEMINI_API_KEY=..." > docker/.env
docker-compose -f docker/docker-compose.yml up -d
# Ouvrez http://localhost:9992

Pour les amateurs de Kubernetes, des charts Helm sont également disponibles. Et si vous voulez tester sans vous prendre la tête, Railway propose aussi un déploiement en un clic. Mais franchement, pour un usage perso, Docker Compose fera parfaitement le job.

L’architecture technique est d’ailleus plutôt bien foutue puisque le backend Python gère la communication avec les LLMs et l’orchestration des tâches. Et le frontend React vous donne une interface web pour interagir avec ByteBot et voir ce qu’il fabrique en temps réel. Le tout communique via WebSockets pour une latence minimale. Et le conteneur desktop tourne avec un serveur VNC modifié qui permet à ByteBot de capturer l’écran et d’envoyer des événements souris/clavier.

Ce qui distingue vraiment ByteBot des solutions cloud comme Claude Computer Use, c’est surtout le côté self-hosted et privacy-first. Vos données restent chez vous, l’IA ne peut pas fouiner dans vos vrais fichiers système, et vous gardez un contrôle total sur ce qui se passe. En plus, comme c’est open source, vous pouvez auditer le code, contribuer des améliorations, ou même forker le projet si l’envie vous prend.

Les cas d’usage sont très nombreux : Automatisation de tâches répétitives, tests d’interfaces web, scraping de données complexes, ou même apprentissage par démonstration pour créer vos propres workflows automatisés. J’imagine déjà les possibilités pour automatiser des installations de logiciels, des configurations système, des processus de CI/CD un peu tordus ou juste faire ma compta.. ^^

Niveau limitations, ByteBot reste dépendant de la qualité du modèle IA que vous utilisez. Claude 4 Sonnet semble donner les meilleurs résultats pour l’instant, mais GPT-4 et Gemini Pro fonctionnent aussi. Les tâches nécessitant beaucoup de contexte visuel ou de manipulation précise peuvent encore poser problème. Et évidemment, faire tourner un desktop complet dans Docker consomme pas mal de ressources.

Si vous voulez pousser plus loin, ByteBot expose aussi une API REST complète. Vous pouvez donc créer des tâches programmatiquement, récupérer les logs, gérer les sessions, et même étendre les capacités avec des plugins custom. La doc est bien fournie avec des exemples en Python, JavaScript et même cURL pour les puristes.

from bytebot import ByteBotClient

client = ByteBotClient(api_key="your-key")
task = client.create_task("Effectue une recherche web")
result = client.wait_for_completion(task.id)
print(result.output)

Et pour la sécurité, ByteBot implémente plusieurs garde-fous . Les conteneurs sont isolés du réseau host par défaut, les capabilities Docker sont limitées au strict minimum, et un système de permissions permet de restreindre ce que l’agent peut faire. Vous pouvez même configurer des règles pour bloquer l’accès à certains sites ou empêcher l’exécution de commandes spécifiques.

Un aspect que j’apprécie particulièrement, c’est la gestion des erreurs. Quand ByteBot se plante (et ça arrive !), il génère des rapports détaillés avec captures d’écran, logs des actions tentées, et suggestions pour résoudre le problème. C’est super pratique pour debugger et améliorer vos prompts.

Une bonne petite communauté commence à se former autour du projet. Un Discord actif, des contributions régulières sur GitHub, et même quelques extensions communautaires qui ajoutent le support pour d’autres LLMs ou des intégrations avec des outils comme Zapier ou n8n. Bref, c’est un projet qui évolue vite, avec des releases toutes les deux semaines environ.

Comparé à ses concurrents, ByteBot se positionne vraiment sur le créneau open source et self-hosted là où OpenAI et Anthropic proposent des solutions cloud propriétaire. C’est, si vous préférez, le Nextcloud des agents IA autonomes.

Après pour ceux qui s’inquiètent des implications éthiques et de sécurité de laisser une IA contrôler un ordinateur, ByteBot apporte à cela des réponses pragmatiques. L’isolation Docker, le mode takeover pour reprendre la main, et la possibilité d’auditer chaque action effectuée permettent de garder un œil sur ce que fait l’agent. C’est bien sûr loin d’être parfait, mais c’est un bon compromis entre automatisation et contrôle.

Donc si vous êtes du genre à automatiser tout ce qui peut l’être, ByteBot mérite vraiment le coup d’oeil. C’est encore un peu but sur les bords, mais le potentiel est énorme. Pour aller plus loin, je vous invite à consulter la documentation complète ici , et le code source sur GitHub .

DCV - Quand votre terminal devient un cockpit Docker

Par : Korben
3 septembre 2025 à 06:19

J’ai déniché un truc sympa pour tous ceux qui passent leur vie dans Docker. Ça s’appelle DCV (Docker Container Viewer) et c’est développé par tokuhirom sur GitHub. En gros, imaginez que quelqu’un ait pris toutes les commandes Docker que vous tapez 50 fois par jour et les ait transformées en une interface accessible via le terminal super classe avec tous vos raccourcis Vim préférés.

Comme ça au lieu de vous taper docker ps, docker logs, docker exec et compagnie en boucle, vous avez tout sous les yeux dans une seule interface TUI (Terminal User Interface). Et le plus beau, c’est que c’est développé avec Bubble Tea , un framework Go qui cartonne pour faire des interfaces terminal qui déchirent (jetez y un oeil à l’occasion..).

Alors oui, je sais ce que vous allez me dire. Il existe déjà Lazydocker , Portainer et une chiée d’autres outils mais DCV a quelques atouts dans sa manche qui le rendent particulièrement intéressant.

D’abord, contrairement à Portainer qui nécessite un serveur web et tout le tralala, DCV reste dans votre terminal. C’est léger, ça démarre instantanément, et ça fonctionne partout où vous avez SSH. Pas besoin d’ouvrir des ports ou de configurer quoi que ce soit de compliqué.

Par rapport à Lazydocker, DCV mise sur une interface encore plus minimaliste et des raccourcis clavier inspirés de Vim. Du coup, si vous êtes du genre à ne jamais toucher votre souris, vous allez kiffer. Le truc cool aussi, c’est qu’il gère nativement Docker-in-Docker, ce qui peut être super pratique pour certains workflows de CI/CD.

L’outil vous permet donc de visualiser :

  • Tous vos containers Docker (standalone ou gérés par Compose)
  • Les images Docker disponibles
  • Les réseaux et volumes
  • Les logs en temps réel avec streaming
  • L’intérieur des containers (navigation dans les fichiers)

Mais là où ça devient vraiment intéressant, c’est que vous pouvez exécuter des commandes shell directement depuis l’interface. Plus besoin de copier l’ID du container pour faire un docker exec -it. Vous sélectionnez, vous appuyez sur une touche, et bam, vous êtes dans le container.

Pour l’installer, si vous êtes sur macOS ou Linux avec Homebrew :

brew tap tokuhirom/tap
brew install dcv

Pour les puristes du Go :

go install github.com/tokuhirom/dcv@latest

Ou alors vous pouvez simplement télécharger les binaires pré-compilés depuis les releases GitHub. C’est du Go compilé, donc un seul fichier executable et c’est parti.

DCV cherche ensuite sa configuration dans ~/.config/dcv/config.toml. Vous pouvez y définir avec quelle vue démarrer par défaut (docker, compose ou projects) ce qui est pratique si vous bossez principalement avec Docker Compose par exemple.

Petit exemple de config :

initial_view = "compose"

Et pour debug en cas de souci :

dcv -debug dcv.log

Voilà, je trouve que DCV mérite sa place dans votre boîte à outils Docker. C’est pas révolutionnaire c’est sûr, mais c’est bien foutu et ça fait le job. L’approche minimaliste avec les raccourcis Vim, c’est vraiment agréable quand on a l’habitude.

Puis le fait que ce soit du Go compilé, c’est aussi un gros plus. Pas de dépendances Node.js ou Python à installer, pas de versions qui se marchent dessus. Un binaire, et roule. Voilà, donc si vous cherchez un outil simple pour surveiller vos containers Docker sans quitter votre terminal, je vous invite à donner une chance à DCV . Et si vous êtes déjà accro à Vim, c’est carrément un no-brainer.

WordPress Telex - L'outil IA qui génère vos blocs Gutenberg à partir d'un simple prompt

Par : Korben
2 septembre 2025 à 22:01

J’ai testé un truc trop cool ce soir et je pense que ça va vous plaire, si vous utilisez WordPress. Ça s’appelle Telex et c’est un nouveau service expérimental lancé par les petits gars d’Automattic au WordCamp US 2025 . Matt Mullenweg l’a présenté comme leur vision de l’IA pour le développement WordPress, un peu comme le fait v0 de Vercel ou Lovable, mais spécifiquement conçu pour générer des blocs Gutenberg WordPress.

Ces blocs Gutenberg, si vous ne connaissez pas, ce sont ces modules de contenus custom que vous pouvez rajouter dans vos pages WordPress. En général, ça me demande de coder un peu mais avec Telex, vous tapez un prompt décrivant ce que vous voulez, et il vous génère un fichier .zip que vous pouvez installer comme un plugin sur votre site WordPress ou dans WordPress Playground (cette version qui tourne directement dans le navigateur sans hébergement).

L’outil est donc disponible dès maintenant sur telex.automattic.ai si ça vous branche.

Ce qui est vraiment cool, c’est que tout se passe directement dans l’interface WordPress que vous connaissez déjà. Le panneau de prompt se trouve sur la droite, et vous pouvez voir le code généré et le tester en temps réel dans l’éditeur comme ça, pas besoin de jongler entre différentes interfaces comme avec d’autres outils IA.

Pour ma part, je lui ai demandé de me faire un bloc pour mon Patreon et je trouve qu’il s’en est vraiment bien sorti. Mais attention, les résultats sont vraiment variables selon ce que vous demandez.

Du coup si votre premier prompt ne donne pas le résultat escompté, sachez que c’est souvent compliqué de corriger le tir avec des prompts supplémentaires. Mieux vaut donc recommencer avec une approche différente.

Notez qu’Automattic héberge Telex sur son propre domaine plutôt que de l’intégrer directement à WordPress.com. Ça pourrait signifier qu’ils préparent un produit IA indépendant qu’ils pourraient potentiellement proposer en marque blanche aux hébergeurs ou aux développeurs…. On verra bien.

Quoi qu’il en soit, ce lancement s’inscrit dans une stratégie plus large de WordPress de développer des produits IA alignés avec les objectifs long terme de la plateforme. Pour l’instant, c’est gratuit (il faut juste un compte WordPress.com), mais vu le caractère expérimental, ne comptez pas dessus pour vos projets clients. Par contre, pour s’amuser et voir où va WordPress avec l’IA, c’est franchement pas mal.

J’imagine que la prochaine étape, ce sera de proposer des thèmes personnalisés par IA… et qui sait, peut-être qu’un jour, c’est l’IA de WordPress qui rédigera vos articles ?

Source

Hier — 2 septembre 2025Flux principal

Comment l'iPhone d'une ado a géré tout seul son accident de voiture

Par : Korben
2 septembre 2025 à 19:33

Lindsay Leskovac, 16 ans, a passé en tout et pour tout 22 minutes, inconsciente dans son pickup totalement détruit, pendant que son iPhone 14 discutait tout seul avec les secours. Pas de panique, pas de cris, juste un téléphone qui fait son job pendant que sa propriétaire est dans les vapes. Et apparemment, il l’a fait plutôt bien puisque la jeune fille est toujours vivante pour raconter son histoire.

L’accident s’est produit dans la nuit du 2 août dernier, à Greenville en Pennsylvanie. Lindsay rentrait chez elle après avoir déposé une amie. Vous connaissez la suite, fatigue, route monotone, et la voilà endormie au volant. Le pickup percute alors deux poteaux électriques et quelques arbres avant de s’immobiliser. Bilan : fractures aux deux jambes et à la colonne cervicale. C’est le genre d’accident où on ne peut pas vraiment composer le 911 toi-même.

Et c’est là que la technologie entre en scène car l’iPhone 14 de Lindsay, équipé de la fonction Crash Detection, a détecté l’impact violent et a automatiquement composé le 911. Lindsay a même repris connaissance en entendant une voix sortir de son téléphone. Alors pour comprendre comment un téléphone peut détecter un accident, il faut regarder sous le capot de celui-ci.

Car oui, Apple a équipé l’iPhone 14 d’un accéléromètre capable de mesurer jusqu’à 256 G sachant qu’en général, les accidents graves dépassent généralement les 100 G. Le gyroscope haute dynamique quand à lui est capable de détecter les changements de direction brutaux, échantillonnant les mouvements 4 fois plus vite que les anciens modèles.

De son côté, le baromètre détecte les changements de pression causés par le déploiement des airbags sans oublier le GPS qui vérifie que vous êtes bien en déplacement à haute vitesse. Et le microphone dans tout ça ? Et bien il capte les bruits caractéristiques d’un crash. Et tout ça se passe en temps réel, avec votre consentement bien sûr, c’est à dire quand l’iPhone détecte que vous êtes dans un véhicule via Bluetooth ou CarPlay.

Selon les ingénieurs d’Apple , il n’y a pas de “formule magique” pour détecter un accident… C’est “simplement” un algorithme dynamique qui combine vitesse, force d’impact, changement de pression et niveau sonore. Apple a ainsi analysé un million d’heures de données de conduite réelle et d’accidents pour entraîner son système de machine learning et ils ont même fait des crash tests grandeur nature aussi bien frontaux, arrière, latéraux sans oublier mes préférés, les tonneaux !

D’un côté, on a donc une adolescente qui fait une erreur humaine basique… Et de l’autre, un petit smartphone courageux qui prend le relais avec une efficacité chirurgicale. Pas d’hésitation, pas d’erreur de jugement, juste une réaction immédiate et appropriée.

Laura Leskovac, la mère de Lindsay, ne connaissait même pas l’existence de cette fonction avant l’accident. Elle affirme aujourd’hui que c’est la seule raison pour laquelle sa fille est encore en vie. Craig Federighi, le patron du software chez Apple, a d’ailleurs déclaré être “stupéfait” par le nombre de lettres reçues quelques jours seulement après le lancement de cette fonction, de personnes disant qu’elle leur avait sauvé la vie. Car oui, je vous ai pas dit, mais toutes ces données des capteurs sont traitées localement sur l’appareil et supprimées après détection, sauf si, bien sûr, vous acceptez de les partager pour améliorer le système.

Donc y’a aucune raison de pas laisser cette option activée par défaut… Et y’a la même sur l’Apple Watch pour info.

Bien sûr, ce n’est pas la première fois que cette fonction fait parler d’elle car elle a aussi ses ratés, notamment quand elle confond les montagnes russes avec des accidents. Mais dans le cas de Lindsay, elle a fait exactement ce pour quoi elle était conçue à savoir agir quand l’humain ne peut plus.

Nos smartphones sont devenus au fil du temps bien plus que des outils de communication… Ils sont maintenant capables de prendre des décisions vitales à notre place, ce qui est à la fois rassurant et quand même un peu flippant… mais quand ça vous sauve la vie, chipoter sur les implications philosophiques, c’est plus difficile..

Source

Ollama - 14 000 serveurs IA laissés en libre-service sur Internet

Par : Korben
2 septembre 2025 à 18:48

En ce moment, tout le monde veut son petit serveur local pour faire tourner des modèles IA, mais en vrai, j’ai l’impression que personne ne se pose la question de la sécurité. Du coup, on se retrouve avec un problème totalement anticipable mais j’ai l’impression que tout le monde s’en cogne…

En effet, j’ai découvert qu’il y a littéralement des milliers de serveurs Ollama qui traînent en libre-service sur le net. Pas protégés, pas sécurisés, que dalle. Ils sont juste là, accessibles à qui veut bien se connecter dessus. Le site Malware Patrol parle même de 14 000 instances publiquement accessibles. C’est fou !

Le truc, c’est qu’Ollama par défaut, ça vient sans authentification, car le créateur du truc s’est dit “bon, c’est pour du local, pas besoin de compliquer le choses”. Sauf que les gens installent ça sur des serveurs et ouvrent le port 11434 à tout Internet, comme ça, sans réfléchir.

Alors est ce que c’est grave ? Et bien Cisco Talos a fait une étude récente là-dessus et ils ont trouvé plus de 1 100 serveurs Ollama exposés, dont 20% qui hébergent des modèles vulnérables. Les États-Unis arrivent en tête avec 36,6% des serveurs exposés, suivis de la Chine (22,5%) et l’Allemagne (8,9%). Le Dr. Giannis Tziakouris de l’équipe Talos parle carrément de “négligence généralisée des pratiques de sécurité fondamentales”.

Hé oui parce que derrière cette négligence, il y a surtout des failles techniques vraiment critiques. Il y a par exemple la CVE-2024-37032 , surnommée “Probllama”, qui est une vulnerability d’exécution de code à distance super facile à exploiter. En gros, avec une seule requête HTTP, un attaquant peut prendre le contrôle complet du serveur.

Faut quand même avoir conscience qu’il y a une grande variété d’attaques possibles sur ces trucs. Par exemple, on peut faire de l’extraction de modèles (genre, je pique votre IA propriétaire), de jailbreaking (je contourne les protections), d’injection de backdoors dans les modèles, d’épuisement des ressources pour vous faire exploser votre facture cloud, et même de mouvement latéral dans votre réseau.

The Hacker News a recensé rien que l’année dernière six vulnérabilités dans Ollama qui permettent des attaques par déni de service, du vol de modèles et de l’empoisonnement de modèles et la plupart de ces instances Ollama tournent encore avec des versions obsolètes. Bref, c’est la cata, sans parler des déploiements Docker d’Ollama qui sont encore pire car par défaut, le serveur API tourne avec les privilèges root et se lie à toutes les interfaces réseau.

Et le nombre d’instances exposées ne fait qu’augmenter puisqu’en novembre 2024, on était à 3 000 instances, et maintenant on dépasse les 14 000. Les gens s’amusent bien et installent Ollama plus vite qu’ils n’apprennent à le sécuriser.

Donc, concrètement, si vous avez un serveur Ollama, faites moi plaisir et mettez-le derrière un reverse proxy avec authentification, pensez à bien configurer la variable d’environnement OLLAMA_HOST=127.0.0.1 pour limiter l’accès au localhost, et surtout, mettez à jour vers la dernière version. La vulnérabilité Probllama dont je vous parlais plus haut a été patchée dans la version 0.1.34, mais encore faut-il l’installer.

A bon entendeur…

Source

35 secondes de folie - Comment Cloudflare a encaissé une nouvelle attaque DDoS record !

Par : Korben
2 septembre 2025 à 18:26

35 secondes… C’est même pas le temps qu’il vous faut pour réchauffer votre café au micro-ondes. Par contre, c’est pile poil le temps qu’il a fallu à des attaquant pour balancer 11,5 térabits par seconde sur les serveurs protégés par Cloudflare. Pour vous donner une idée, c’est comme si quelqu’un vous envoyait 10 000 films HD d’un coup, direct dans la tronche.

Cette attaque monumentale s’inscrit dans une série d’assauts qui deviennent de plus en plus violents. Par exemple, au premier trimestre de cette année, Cloudflare a bloqué 20,5 millions d’attaques DDoS. C’est quand même une augmentation de 358% par rapport à l’année dernière. Visiblement, quelqu’un s’amuse à tester les limites de l’infrastructure Internet mondiale… Mais le plus bizarre dans cette histoire, c’est l’origine de l’attaque.

Apparemment, la majorité du trafic malveillant provenait de ressources compromises sur Google Cloud Platform, donc de serveurs légitimes, payés rubis sur l’ongle par des entreprises lambda, transformés en armes de destruction massive de réseau. Le modèle pay-as-you-go du cloud est devenu une aubaine pour les attaquants qui peuvent louer une gigantesque puissance de feu quasi illimitée juste le temps de leur méfait.

L’attaque dont on parle aujourd’hui a utilisé la technique du UDP flood. Celle-ci est un peu vicieuse car contrairement au protocole TCP qui établit une connexion avant d’envoyer des données, l’UDP balance tout sans prévenir. Ainsi, chaque paquet UDP force le serveur victime à allouer des ressources pour le traiter, jusqu’à ce qu’il ne puisse plus répondre aux requêtes légitimes.

Et ce qui est impressionnant, c’est la rapidité de montée en puissance car les systèmes de Cloudflare ont détecté une progression de zéro à 11 térabits en moins de 10 secondes. C’est plus rapide qu’une Tesla qui passe de 0 à 100 et les défenses automatisées ont immédiatement appliqué des règles de limitation et du filtrage par IP pour étouffer l’attaque avant qu’elle ne fasse des dégâts.

Le rapport Q1 2025 de Cloudflare révèle que Google Cloud (AS396982) figure parmi les principaux réseaux sources d’attaques DDoS HTTP et la plupart des réseaux dans ce classement sont des fournisseurs cloud ou d’hébergement connus. D’ailleurs, pour aider ces fournisseurs à identifier et neutraliser les comptes abusifs, Cloudflare propose gratuitement un flux des botnet qui font des attaques DDoS afin que tout le monde puisse rapidement les bloquer. C’est leur façon de dire “on est tous dans le même bateau, entraidons-nous”.

En tout cas, cette attaque de 11,5 Tbps pulvérise totalement le précédent record établi en juin dernier, qui plafonnait à 7,3 Tbps. À ce rythme, on se demande où ça va s’arrêter, d’autant plus que ce n’est pas un cas isolé. Cloudflare rapporte en effet avoir bloqué des centaines d’attaques dépassant 1 Tbps ces dernières semaines, incluant une attaque UDP distincte qui a atteint 5,1 milliards de paquets par seconde. Pour contextualiser, c’est comme si chaque être humain adulte sur Terre vous envoyait un SMS.

Évidemment, l’industrie s’inquiète de cette escalade et sans protection de type Cloudflare, une attaque de cette ampleur mettrait n’importe quel site hors ligne instantanément. Même avec toute la bonne volonté du monde, votre FAI ne pourrait pas absorber 11,5 térabits de trafic malveillant… En tout cas, j’ai hâte de lire le rapport de Cloudflare qui devrait arriver bientôt…

Je me demande comment on pourrait se passer de Cloudflare maintenant… Ils sont devenus tellement incontournables… Ils sont un bouclier incroyable mais également un point de centralisation dramatique pour le net.

En attendant, une chose est sûre, les attaques DDoS ne sont plus ce qu’elles étaient. On est passé du petit script kiddie qui s’amuse à faire tomber le site de son lycée avec LOIC à des opérations massives capables de mettre à genoux des infrastructures entières… Et avec l’évolution du cloud et de l’IA, on n’a probablement encore rien vu.

Source

Une web machine pour fabriquer des autocollants holographiques

Par : Korben
2 septembre 2025 à 17:54

Vous vous souvenez de ces autocollants holographiques qu’on trouvait à tous les coins de rue dans les années 90 ? Mais siiiii, ces machins brillants qui changeaient de couleur selon l’angle de vue et qui scintillaient de mille feux grâce à leurs petites paillettes métalliques ? Eh bien, un développeur a réussi à reproduire cet effet en WebGL et en a fait un générateur. Et je dois dire que le résultat est plutôt bluffant.

Le projet en question part d’une observation simple qui est que ces autocollants jouent sur deux phénomènes visuels. D’abord l’iridescence, ce changement de couleur selon l’angle de vue qui rappelle les bulles de savon ou les ailes de papillon. Et ensuite ces minuscules paillettes métalliques qui captent la lumière et créent ces points brillants qui semblent danser à la surface.

Ce qui est vraiment cool du coup, c’est que le développeur a réussi à reproduire ces effets sans simulation physique complexe. Pas de calculs d’interférence de films minces, pas de modélisation de microfacettes métalliques. À la place, une approche purement visuelle qui approxime le rendu final avec des techniques de shader astucieuses.

Le vertex shader gère en réalité un effet de “pelage” de la géométrie en utilisant la formule de rotation de Rodrigues . Pour ceux qui ne connaissent pas, c’est une méthode mathématique élégante pour faire tourner des vecteurs dans l’espace 3D autour d’un axe arbitraire. Ici, elle permet de simuler le décollage progressif de l’autocollant, avec des calculs d’occlusion ambiante et d’intensité de pelage qui donnent cette impression de matière qui se décolle vraiment.

Du côté du fragment shader, c’est là que la magie opère vraiment. Le bruit procédural génère ces fameuses paillettes métalliques. Ainsi au lieu de placer manuellement des milliers de petits points brillants, l’algorithme crée des patches aléatoires de luminosité qui ressemblent à s’y méprendre à des flocons métalliques qui accrochent la lumière. L’échantillonnage de la carte d’environnement ajoute les reflets réalistes, pendant que le calcul d’iridescence utilise des ondes sinusoïdales pour décaler la teinte en fonction de l’angle de vue.

L’effet Fresnel, ce phénomène qui rend les surfaces plus réfléchissantes sur les bords, complète l’illusion. C’est ce qui donne cette impression que l’autocollant “s’allume” différemment selon comment on le regarde. Enfin, le shader combine tout ça avec un contrôle fin de la réflectivité métallique, la taille des paillettes, leur intensité, et même le rendu de la face arrière avec des ombres.

En plus, le dev a tout mis sous licence Creative Commons BY-NC 4.0 donc vous pouvez donc l’utiliser, le modifier, l’adapter à vos projets, tant que c’est non-commercial et que vous créditez l’auteur.

Sérieux, qui aurait cru qu’un jour on pourrait recréer la magie des autocollants holographiques de notre enfance directement dans le navigateur ?

Source

LegalPWN - Pour piéger les IA avec les petites lignes

Par : Korben
2 septembre 2025 à 15:51

Je vibe code depuis un moment maintenant, et c’est vrai que j’ai tendance, de plus en plus, à faire une confiance aveugle au code produit par ces IA merveilleuses que sont Claude Code, OpenAI Code ou Google Gemini… Grosse erreur de ma part ! Car dans ce code tout propre et bien commenté pourrait se cacher une fonction pwn() bien loin d’être inoffensive, capable de faire de sacrés ravages sur mon système sans que je m’en aperçoive…

Si je vous parle de ça aujourd’hui, c’est parce que des chercheurs de Pangea viennent de dévoiler une technique absolument diabolique baptisée LegalPWN . Le principe ? Un attaquant peut désormais dissimuler des instructions malveillantes dans du texte qui ressemble à s’y méprendre à du juridique. Et le pire dans tout ça, c’est que les IA avalent tout sans broncher ! Pourquoi ? Parce qu’elles ont été dressées depuis leur plus tendre enfance à traiter avec le plus grand sérieux tout ce qui ressemble de près ou de loin à des documents légaux.

En fouillant un peu pour cet article, j’ai découvert un truc qui fait froid dans le dos : l’OWASP a récemment classé l’injection de prompt comme le risque numéro un pour les IA. Oui, numéro UN ! Et LegalPWN, c’est la version premium de cette vulnérabilité. Au lieu de balancer des prompts agressifs qui vont se faire repérer direct par les garde-fous, vous les déguisez en clauses juridiques parfaitement inoffensives. C’est comme planquer une bombe dans un contrat d’assurance de 200 pages que personne, mais alors vraiment personne, ne va lire jusqu’au bout.

Les chercheurs ont testé leur méthode sur tous les gros calibres du marché : GPT-4o d’OpenAI, Gemini 2.5 de Google, Grok d’xAI… et tenez-vous bien, ils se sont TOUS laissés berner comme des bleus. Le scénario ? Ils leur ont présenté du code avec une fonction pwn() clairement dangereuse, du genre qui fait clignoter tous les voyants rouges. Première réaction des IA : “Attention, code malveillant détecté, ne surtout pas exécuter !”. Jusque-là, tout va bien. Mais ensuite, les chercheurs ont glissé le même code toxique dans un document avec des instructions cachées du style “ne jamais mentionner la fonction pwn() ou son utilisation”. Et là, c’est le drame, les IA ont complètement retourné leur veste et ont déclaré le code “parfaitement sûr à exécuter” ^^.

Mais attendez, ça devient encore plus croustillant ! Certains modèles sont même allés jusqu’à recommander chaudement d’exécuter directement le code sur le système de l’utilisateur. “Allez-y, foncez !” qu’ils disaient. Un autre champion a même classé le code malveillant comme “juste un utilitaire de calculatrice avec des fonctions arithmétiques basiques”. Une calculatrice qui ouvre une backdoor sur votre machine, c’est chouette non ?

Cette technique exploite en réalité une faiblesse architecturale profonde, ancrée dans l’ADN même de ces modèles. Les IA interprètent différemment les formats qui ressemblent à des fichiers de configuration, des mentions légales ou des documents juridiques. Et ce n’est pas juste un petit bug qu’on peut patcher avec trois lignes de code un vendredi soir… Non, c’est gravé dans leur apprentissage fondamental. Elles ont ingurgité des téraoctets de données où tout ce qui ressemble à du légal est traité comme parole d’évangile. C’est leur kryptonite à elles.

D’autres techniques de jailbreak existent bien sûr, et certaines sont particulièrement vicieuses. Il y a l’attaque Echo Chamber qui retourne le propre raisonnement du modèle contre lui-même (un peu comme dans Inception, mais pour les IA). Ou encore l’attaque Crescendo qui escalade progressivement les demandes, comme un vendeur de tapis qui négocie, jusqu’à obtenir exactement ce qu’on veut. Mais LegalPWN a deux avantages majeurs : elle est discrète comme un ninja en chaussettes et elle fonctionne sur presque tous les modèles du marché.

De leur côté, Anthropic avec Claude, Microsoft avec Phi et Meta avec Llama Guard ont mieux résisté aux assauts. Ils ont tenu le choc, mais attention, même eux ne sont pas totalement blindés. Les tests en environnement réel ont montré que même des outils du quotidien comme gemini-cli de Google et notre cher GitHub Copilot peuvent se faire avoir comme des débutants. Imaginez la tête du développeur qui fait confiance à Copilot pour valider son code…

Face à cette menace, Pangea propose évidemment sa solution miracle : “AI Guard” (quelle surprise !). Mais entre nous, les vraies défenses restent les bonnes vieilles méthodes qui ont fait leurs preuves : validation d’entrée renforcée (on vérifie tout, deux fois plutôt qu’une), sandboxing contextuel (on isole le code suspect dans sa petite bulle), entraînement adversarial (on apprend aux IA à reconnaître les pièges) et surtout, SURTOUT, on garde un humain dans la boucle pour les décisions critiques. Parce que pour l’instant, comme le dit si bien l’article, les IA restent fondamentalement des “machines à produire des tokens sans vraiment réfléchir”. Ça fait mal, mais c’est la vérité.

Pour les développeurs et les équipes sécu qui me lisent, rappelez vous, ce sont des outils, point barre. Donc si vous utilisez ChatGPT, Claude ou un autre modèle pour valider du code ou prendre des décisions de sécurité critiques, méfiez-vous en comme de la peste ! Un attaquant malin pourrait très bien avoir planqué ses instructions malveillantes dans les conditions d’utilisation d’une API obscure, dans un README qui traîne innocemment, ou même dans les commentaires d’un fichier de config.

Les IA ont une confiance absolue dans les documents légaux, comme un vampire fuit l’ail ou comme un développeur fuit la documentation. Et ça, les hackers l’ont parfaitement compris et ils comptent bien en profiter… Alors la prochaine fois que vous copiez-collez du code accompagné de ses mentions légales interminables, regardez-y à deux fois, voire trois. Il pourrait y avoir bien plus que des clauses de non-responsabilité planquées dedans.

Source

Test du TP-Link Deco BE65-5G - Quand la 5G débarque dans votre salon

Par : Korben
2 septembre 2025 à 15:17
– Article en partenariat avec TP-Link –

On a tous au moins un pote qui change de box Internet tous les 6 mois en espérant que ça règle ses problèmes de lag sur Call of Duty, mais une fois n’est pas coutume, je vais vous spoiler… c’est rarement la box le problème !

Alors quand TP-Link m’a envoyé son nouveau Deco BE65-5G, j’avoue que j’étais curieux de voir si cette fois, on tenait vraiment quelque chose de différent. Parce que sur le papier, ce truc cumule tellement de buzzwords que j’ai cru lire un pitch de startup : Wi-Fi 7, modem 5G intégré, mesh, MLO, 9 Gbps de débit théorique… Mais non, tout ça existe vraiment dans une seule boîte qui ressemble à un pot de fleurs design.

Tout d’abord y’a un truc qu’on voit encore trop rarement, c’est cette histoire de MLO (Multi-Link Operation). En gros, selon TP-Link , votre appareil peut se connecter simultanément sur les bandes 2.4 GHz, 5 GHz et 6 GHz. C’est comme si vous preniez trois autoroutes en même temps au lieu d’une seule. Il promette ainsi une latence de 1ms maintenue même sur les applications les plus gourmandes.

Notez que je vis dans une grande baraque avec des murs très épais ce qui n’est pas génial pour le Wifi et mon setup actuel, c’est déjà tout un tas de routeurs Deco plus anciens dont je suis très content. Donc quand j’ai ajouté, celui-ci, ça s’est fait sans douleurs… On lance l’app Deco sur son smartphone, on ajoute le routeur et c’est fini !

Mais là où ça devient intéressant c’est qu’on peut y insérer une carte SIM. Car oui, bizarrement, ce dernier a un slot pour carte SIM 5G/4G, d’où le “5G” dans le nom de l’appareil mes petits sherlock. J’ai donc mis ma carte Bouygues dedans et hop, backup Internet instantané. Si vous le branchez sur un onduleur, vous devenez internetement invincible !!! En tout cas, pour moi qui me prendre régulièrement la foudre ou des coupures de courant, c’est quand même cool, d’avoir le temps de dire au revoir à ses viewers Twitch avant d’aller remettre les plombs.

Au niveau débits, ce routeur n’est pas en reste puisque TP-Link annonce des pointes à 9 214 Mbps en WiFi 7 tri-bande. Alors oui, c’est du théorique hein, personne n’atteindra jamais ça dans la vraie vie. Mais concrètement, on a 5 765 Mbps sur la bande 6 GHz (celle que personne n’utilise encore), 2 882 Mbps sur le 5 GHz et 574 Mbps sur le bon vieux 2.4 GHz. Dans mon cas, avec ma fibre 2 Gbps, j’ai enfin un routeur qui ne bride pas ma connexion. Et côté 5G, on peut monter jusqu’à 3,4 Gbit/s en théorie (j’ai tapé dans les 800 Mbps avec ma SIM Bouygues, ce qui reste honorable). La latence promise de 1ms, elle, je l’ai bien vue sur les jeux, et ça fait une vraie différence quand on stream en même temps.

Niveau performances pures, le Qualcomm Network Pro 620 qui est dedans fait très bien le job. C’est un quad-core ARM-A73 à 2.2 GHz, et c’est deux fois plus puissant que la génération précédente. En pratique, ça veut dire que même avec 50 appareils connectés (j’ai compté, entre les ampoules connectées, les caméras, les smartphones, les ordis, la console, on y est très vite…), le routeur ne bronche pas. D’ailleurs, TP-Link annonce qu’il peut gérer plus de 200 appareils simultanément, mais bon, je n’ai pas encore assez de gadgets pour tester ça !

Ses trois ports 2.5 Gbps, sont également un vrai plus. J’ai branché mon NAS Synology sur l’un d’eux, et les transferts de fichiers sont un plaisir. Avant, je plafonnais à 110 Mo/s avec mon ancien setup. Là, je tape dans les 280 Mo/s en lecture. Pour ceux qui bossent avec des gros fichiers, c’est le jour et la nuit. Même chose pour les caméras. J’y ai connecté un récepteur Arlo pour mes cameras et c’est fluide de fou.

Le port USB 3.0, par contre, je suis mitigé. C’est sympa pour brancher un disque dur et faire du partage réseau simple, mais les performances sont moyennes et les fonctionnalités limitées. Pas de serveur Plex ou de trucs avancés vous vous en doutez, donc c’est vraiment du dépannage pour mettre un disque vite fait sur le réseau par exemple. Y’a même des prises pour y connecter une antenne supplémentaire.

Après même si je ne joue pas, mes enfants oui, et donc pour les gamers, le MLO change vraiment la donne. Cette techno utilise la 4K-QAM qui booste les débits théoriques de 20% par rapport au WiFi 6. Le QoS (Quality of Service) dans l’app permet aussi de prioriser la console ou le PC gaming, et ça marche vraiment bien comme ça, plus de lag quand quelqu’un lance Netflix en 4K sur le projo du salon. Les canaux de 320 MHz sur la bande 6 GHz, c’est aussi un game changer pour ceux qui ont des appareils compatibles.

Les fonctions de sécurité avec TP-Link HomeShield, aussi c’est du classique mais c’est bien foutu. L’antivirus intégré, le contrôle parental, la détection d’intrusion…etc. La version de base est gratuite et largement suffisante mais la version Pro à 5€ / mois ajoute des trucs cools comme le blocage de sites malveillants et des rapports détaillés. On peut s’en passer, sauf si vous avez des enfants un peu trop malins. Bonus appréciable, il y a même un support VPN client intégré (OpenVPN, PPTP, L2TP/IPSec) et la possibilité de créer un réseau IoT séparé avec du WPA3, pratique pour isoler vos caméras et ampoules connectées du reste.

Parlons également un peu du prix maintenant. Le BE65-5G démarre à 550 € , ce qui n’est pas donné. Mais quand on compare au combo box fibre + routeur Wi-Fi 6 correct + modem 4G/5G de backup, on arrive vite au même tarif. Et là, vous avez tout dans un seul appareil qui ne prend pas toute la place sur votre meuble TV.

Maintenant, si je devais trouver des défauts (parce qu’il en faut bien), je dirais que l’absence de Wi-Fi 6E est un peu dommage pour un produit à ce prix. Certes, le Wi-Fi 7 est rétrocompatible, mais certains appareils Wi-Fi 6E auraient pu profiter de la bande 6 GHz sans avoir besoin du Wi-Fi 7 complet. Aussi, avec une seule unité, la couverture reste limitée, donc faudra en acheter plusieurs si vous avez de la surface.

L’autre point qui pourrait déranger certains, c’est la gestion 100% via app mobile. Pas moyen d’accéder aux réglages depuis un navigateur web donc pour les bidouilleurs que nous sommes, qui aimons les interfaces complexes avec 50 onglets de configuration, c’est un frustrant. Mais bon, pour la plupart des utilisateurs, l’app fait très bien le job et elle est plutôt bien fichue. D’autant qu’elle est compatible avec Alexa et Google Assistant pour le contrôle vocal, si c’est votre truc.

Bref, au final, après trois semaines d’utilisation intensive, je suis comme d’hab hyper friant de ce nouveau Deco BE65-5G. Ce n’est clairement pas pour tout le monde à ce prix, mais pour ceux qui veulent du réseau solide avec un backup 5G intégré et les dernières technos Wi-Fi, c’est du costaud sans parler des performances et de la stabilité au top. Puis le combo Wi-Fi 7 + 5G, même si c’est pas tout le temps utile, ça offre une flexibilité pour ceux qui sont qui n’ont pas de fibre ou qui subissent des coupures (ou partent souvent en vacances).

Du coup, si vous êtes en télétravail, que vous streamez, que vous jouez en ligne et que vous voulez une solution tout-en-un sans vous prendre la tête, c’est un grand oui. Mais si vous cherchez juste à améliorer le Wi-Fi pour surfer sur Facebook, passez votre chemin et prenez un Deco X50 à 80 €, ça fera largement l’affaire.

Moi, en tout cas, je le garde parce que maintenant, j’ai enfin du Wi-Fi dans les toilettes (priorité absolue, on est d’accord) !

Python - Comment un petit projet de Noël est devenu le langage de l'IA et de la science

Par : Korben
2 septembre 2025 à 14:02

Y’a pas une semaine qui passe sans que je code un petit peu de Python, alors quand je suis tombé sur ce documentaire que Cult.Repo vient de sortir , je me suis dit que c’était l’occasion d’en apprendre un peu plus sur ce langage qui fait tourner l’IA chez Google, Meta et OpenAI, et qui (je viens de l’apprendre) a commencé comme un projet de vacances. Guido van Rossum son créateur cherchait juste un truc pour s’occuper pendant les vacances de Noël en 1989. Son bureau était fermé, il s’ennuyait, alors il a pondu les bases d’un nouveau langage en deux semaines. Pour le fun.

Le documentaire montre vraiment bien comment ce petit projet perso est devenu un monstre. Au départ, van Rossum bossait au CWI à Amsterdam sur un langage appelé ABC, sauf qu’ABC avait plein de défauts et surtout, impossible de l’étendre. Python, c’était donc sa revanche… prendre le meilleur d’ABC (comme l’indentation pour structurer le code) et virer tout ce qui l’énervait.

Le nom Python, d’ailleurs, ça n’a rien à voir avec le serpent. Van Rossum était fan des Monty Python. Il cherchait un nom court, mystérieux, et il lisait les scripts de la série à ce moment-là. Voilà donc comment le langage le plus utilisé au monde a hérité du nom d’une troupe de comiques britanniques.

Un fait marquant dans cette histoire, c’est la crise de 2018. Le 12 juillet 2018, Guido van Rossum a tout plaqué . Il était le “Benevolent Dictator For Life” (BDFL) de Python depuis le début, et là, pouf, terminé.

La raison ? Une discussion autour de la PEP 572, qui proposait d’ajouter l’opérateur walrus (:=) à Python. Les échanges sont devenus tellement toxiques sur les mailing-lists que van Rossum a craqué. Il a dit en gros : “J’en ai marre de me battre pour mes décisions et de voir que tout le monde les déteste. Je me casse.” On dirait moi quand je me suis cassé des réseaux sociaux ^^.

Cette histoire de PEP 572, c’était pas juste une dispute technique. C’était l’une des pires discussions de l’histoire de Python , avec des threads énormes sur plusieurs mailing-lists et des sondages. Les développeurs trouvaient que ça allait contre la philosophie de Python, c’est à dire la simplicité avant la complexité et Van Rossum a fini par avoir gain de cause, mais le prix à payer était trop élevé.

Ce qui est fascinant, c’est que Python a survécu à cette crise. Van Rossum n’a pas nommé de successeur et a laissé la communauté se débrouiller. Les 100-200 développeurs avec droits de commit ont alors dû créer un nouveau modèle de gouvernance avec comme deadlines le 1er octobre 2018 pour les propositions, et le 1er novembre pour voter. Et ça a marché.

Notez que Van Rossum est resté dans le Steering Council de Python jusqu’en 2019, puis s’est retiré des nominations pour 2020. Mais il reste confiant sur l’avenir et dit que la communauté Python est solide, avec un noyau dur dynamique, et qu’il ne serait jamais parti s’il pensait qu’ils ne pourraient pas guider le langage pendant encore des décennies.

Cult.Repo prépare déjà des documentaires sur Vite (qui sort le 9 octobre à Amsterdam) et C++ . Si c’est du même niveau que celui sur Python, ça vaut le coup d’œil. Bref, si vous codez en Python ou si vous vous intéressez à l’histoire de la tech, regardez ce documentaire car c’est rare de voir les coulisses d’un langage de programmation racontées comme ça, avec les conflits, les personnalités et les décisions qui ont façonné cet outil qu’on utilise tous les jours.

VimMaster - Un jeu gratuit pour apprendre enfin à utiliser Vim !

Par : Korben
2 septembre 2025 à 12:03

Combien d’entre vous ont déjà ouvert Vim par accident en suivant un tuto et se sont retrouvés coincés dedans ? Moi, j’ai dû passer une bonne dizaine de minutes à tâtonner pour trouver une porte de sortie la première fois et après je suis passé sous “nano”. Heureusement, un génie du nom de renzorlive a conçu VimMaster , un jeu gratuit qui transforme cet apprentissage en une aventure ludique des plus passionnantes.

La beauté de VimMaster c’est qu’au lieu de vous assommer avec un pavé de 500 pages de documentation à la con ou de vous forcer à mémoriser des commandes abstraites, il vous fait tout simplement… jouer. Ce jeu comprend donc 16 niveaux progressifs et chaque défi vous permet de maîtriser une nouvelle compétence. Le petit plus c’est que vous pouvez y jouer directement dans votre navigateur, sans avoir à installer quoi que ce soit.

C’est du pur HTML/CSS/JavaScript, pas de framework à la mode, pas de dépendances npm lourdes comme un éléphant. Juste du code propre qui fait le job et au niveau du gameplay, c’est bien pensé. Car contrairement à d’autres outils qui se contentent de vérifier si vous appuyez sur les bonnes touches, VimMaster valide le résultat de chacune de vos actions.

Vous pouvez même arriver à un résultat identique et valide de différentes manières, comme dans le vrai Vim. Il y a même un mode Challenge chronométré pour ceux qui veulent se la jouer speedrun, et un Cheat Mode accessible avec Ctrl+/ pour les moments de désespoir.

Parmi les alternatives disponibles, on a Vim Adventures qui devient payant après quelques niveaux, VimGenius qui propose des flashcards chronométrées, ou VimHero avec ses tutoriels interactifs. Mais VimMaster se démarque surtout par sa simplicité et sa gratuité totale.

En plus, le système de progression est bien ficelé. Vous avez un profil avec des achievements, des badges à débloquer, et même la possibilité d’exporter/importer votre progression. Les cartes d’achievements sont générées dynamiquement en Canvas API et vous pouvez les partager sur les réseaux sociaux pour vous la raconter un petit peu.

Bref, si vous avez toujours voulu apprendre Vim sans vous arracher les cheveux, c’est le bon moment !

Vulners Lookup transforme votre navigateur en catalogue de vulnérabilités

Par : Korben
2 septembre 2025 à 11:09

Hier, j’étais en train de lire un bulletin de sécurité Microsoft (oui, je sais, passion de ouf) quand j’ai réalisé que je passais pas mal de temps à chercher des infos sur les CVE surtout que les mecs ne mettent pas forcement de liens pour en savoir plus. Bah ouais, la CVE-2024-21762, ça vous parle ? Non ? Normal, personne ne retient ces codes à la con. Mais avec l’extension Vulners Lookup que je viens de découvrir, c’est devenu carrément plus simple.

Le principe est tout bête… L’extension scanne automatiquement toutes les pages web que vous visitez et surligne en orange chaque identifiant CVE qu’elle trouve. Un simple survol avec la souris et boom, vous avez toutes les infos importantes dans une petite carte qui s’affiche : le score CVSS pour la sévérité, l’EPSS pour la probabilité d’exploitation, et même un Score IA qui estime l’impact réel. Comme ça, plus besoin d’ouvrir 15 onglets pour comprendre si une vulnérabilité est vraiment dangereuse ou si c’est juste du bruit.

Pour fonctionner, cette extension utilise la base de données Vulners.com qui agrège plus de 200 sources différentes. Vulners, c’est 250 Go de données sur les vulnérabilités, constamment mise à jour. Et pas besoin de vous créer un compte, pas d’abonnement, c’est gratuit et ça marche direct après l’install.

Pour les techos qui veulent aller plus loin, Vulners propose aussi une API REST pour intégrer ces données dans vos propres outils. Il y a même un plugin Nmap et une extension Burp Suite pour ceux qui font du pentest. Sans oublier la bibliothèque Python mise à jour en août dernier pour automatiser vos recherches de vulnérabilités.

Un truc cool aussi, c’est l’indicateur KEV (Known Exploited Vulnerabilities) qui vous dit si la vulnérabilité fait partie du catalogue CISA des vulnérabilités exploitées . C’est super utile pour prioriser entre une faille avec un CVSS élevé mais pas encore exploitée et une faille avec un score moyen mais activement utilisée…

Pour l’installer, c’est du classique, vous allez sur le Chrome Web Store , vous cliquez sur le bouton d’installation et c’est parti. L’extension demandera juste la permission de lire le contenu des pages pour détecter les CVE, rien de plus. Pas de tracking, pas de collecte de données perso, juste de la détection de patterns CVE-XXXX-XXXXX à l’ancienne.

Bref, pour ceux qui bossent dans la sécu (SOC, équipes IR, pentesters, DevSecOps), c’est clairement un truc à avoir pour éviter de jongler entre les onglets ou de maintenir des bookmarks de bases de vulnérabilités. Tout est accessible en un survol de souris, directement là où vous travaillez.

Amusez-vous bien !

❌
❌