Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 10 septembre 2025Flux principal

Nixite - Une webapp qui génère des scripts bash pour installer tous vos logiciels Linux d'un coup

Par : Korben
10 septembre 2025 à 10:11

Ce serait quand même bien quand on réinstalle Linux from scratch pour la énième fois, qu’il y ait un moyen rapide de résinstaller tous nos outils préférés sans avoir à se retaper toutes les commandes d’installation une par une.

Et bien, si vous avez le même rêve que moi, vous allez adore Nixite , un petit outil qui va faire plaisir aux linuxiens.

Le principe est simple. Vous cochez les logiciels que vous voulez installer sur une interface web , et Nixite vous génère un script bash prêt à l’emploi. Ce script gère automatiquement l’installation de tous vos programmes, que vous soyez sur Ubuntu ou Arch Linux.

Ce qui est vraiment cool, c’est que Nixite ne se contente pas d’enchaîner bêtement des commandes apt ou pacman. L’outil choisit intelligemment la meilleure méthode d’installation pour chaque logiciel. Si un programme est mieux maintenu sur Flatpak, il utilisera Flatpak. Si c’est un snap qui est plus à jour, il partira sur snap. Et pour les cas particuliers, il peut même exécuter des commandes bash personnalisées.

L’interface web propose déjà une belle collection de logiciels organisés par catégories : navigateurs web, outils de communication, développement, gaming, productivité… Vous avez Discord, Zoom, VS Code, Steam, GIMP, VLC et des dizaines d’autres. En gros, tout ce dont vous avez besoin pour transformer une installation Linux toute fraîche en un système fonctionnel pour votre boulot.

Chaque logiciel est défini dans un simple fichier TOML dans le dépôt GitHub et vous pouvez spécifier des instructions communes pour toutes les distributions ou des commandes spécifiques pour Ubuntu et Arch. Par exemple :

install_system = "firefox" # Utilisera apt sur Ubuntu, pacman sur Arch

[ubuntu]
install_system = "firefox-esr" # Version spécifique pour Ubuntu

[arch]
install_system = "firefox-developer-edition" # Version pour Arch

L’outil gère aussi les installations via Flatpak avec flatpak = true, Snap avec snap = true ou snap = "classic", et même des commandes personnalisées avec install_command. Pour éviter de réexécuter une installation custom, vous pouvez ajouter skip_if_exists = "/chemin/vers/fichier" qui vérifiera si le logiciel est déjà installé.

Le gestionnaire de paquets Pacman est généralement plus rapide que apt pour les installations en masse et Nixite sait tirer partie de cette rapidité en supprimant automatiquement les prompts de confirmation, ce qui permet d’avoir une installation réellement sans intervention humaine.

Une fois votre sélection faite, vous téléchargez le script nixite.sh et vous lancez simplement bash nixite.sh et le script s’occupe de tout : configuration du système, ajout des dépôts nécessaires, installation des logiciels dans l’ordre optimal. C’est hyper pratique quand vous devez configurer plusieurs machines ou que vous réinstallez souvent votre système.

Le projet inclut aussi un script nixite-updater qui met à jour tous vos gestionnaires de paquets et logiciels d’un coup comme ça plus besoin de jongler entre apt update, flatpak update, snap refresh… Une seule commande et tout est à jour.

Voilà, avec Nixite, vous préparez votre script une seule fois et vous pouvez le réutiliser à l’infini. L’outil est encore en développement évidemment, et Aspizu, son créateur, est ouvert aux suggestions donc n’hésitez pas !

Il connecte Animal Crossing à l'IA en hackant la mémoire de sa GameCube

Par : Korben
10 septembre 2025 à 09:09

20 ans plus tard, les vieilles consoles continuent de nous surprendre… La preuve avec ce hack complètement barré qui transforme une GameCube de 2001 en client pour nos IA modernes.

Josh Fonseca a en effet réussi l’exploit de connecter ChatGPT à Animal Crossing directement sur la console originale. Pas d’émulateur, pas de mod de la cartouche mais juste du bon vieux Python qui lit et écrit dans la RAM pendant que le jeu tourne.

Hé oui, le mec n’a même pas touché une seule ligne du code original du jeu. Il a “simplement” identifié les adresses mémoire où le jeu stocke les dialogues (0x81298360 pour les curieux) et remplacé le texte à la volée. La GameCube pense alors afficher les dialogues d’origine, mais en fait elle affiche du contenu généré par une IA qui tourne sur un serveur cloud.

Techniquement, c’est malin comme approche puisque la GameCube n’a que 24 MB de RAM et un processeur PowerPC à 485 MHz. Il lui est donc impossible de faire tourner un LLM dessus. Du coup il a créé une sorte de pont mémoire entre la console et le LLM. Son script Python surveille cette adresse en mémoire, récupère le contexte du dialogue, l’envoie à l’IA, et réinjecte la réponse dans la console.

Ce qui complique vraiment les choses, c’est qu’Animal Crossing n’utilise pas du texte brut pour ses dialogues. Le jeu a son propre langage de contrôle avec des codes pour les pauses, les émotions, les effets sonores. Un peu comme du HTML mais version Nintendo 2001, ce qui fait qu’il a fallu créer deux IA : une première qui génère le dialogue créatif (le “Writer AI”) et une autre qui ajoute tous les codes techniques (le “Director AI”).

Voici un extrait :

# A small sample of the control codes I had to encode/decode
CONTROL_CODES = {
 0x00: "<End Conversation>",
 0x03: "<Pause [{:02X}]>", # e.g., <Pause [0A]> for a short pause
 0x05: "<Color Line [{:06X}]>", # e.g., <Color Line [FF0000]> for red
 0x09: "<NPC Expression [Cat:{:02X}] [{}]>", # Trigger an emotion
 0x59: "<Play Sound Effect [{}]>", # e.g., <Play Sound Effect [Happy]>
 0x1A: "<Player Name>",
 0x1C: "<Catchphrase>",
}

# The magic byte that signals a command is coming
PREFIX_BYTE = 0x7F

Je trouve ça cool comme projet car les joueurs rêvent depuis longtemps de dialogues plus variés dans Animal Crossing. En effet, si comme moi, vous n’êtes pas pro-gamer sur Animal Crossing, vous ignorez surement que Nintendo limite les villageois à 8 types de personnalité, ce qui rend les conversations hyper répétitives après quelques heures de jeu.

Avec ce hack, les villageois peuvent donc maintenant discuter de l’actualité mondiale, critiquer Tom Nook sur ses pratiques immobilières douteuses, ou même avoir des conversations philosophiques sur le sens de la vie dans votre village virtuel. Le mod est sur Github pour ceux qui veulent tester sur émulateur.

Notez que la communauté de décompilation d’Animal Crossing a joué un rôle crucial dans ce projet car sans leur travail pour convertir le code PowerPC en C lisible, identifier ces adresses mémoire spécifiques aurait été un cauchemar. C’est grâce donc à eux que le développeur a pu comprendre comment le jeu gère ses dialogues en interne.

Bref, je trouve ça assez marrant qu’une console vielle de +20 ans capable de fonctionner totalement offline (car à l’époque Nintendo était allergique à Internet), soit finalement indirectement “connectée” pour utiliser ce qui se fait de plus hype en ce moment, à savoir l’IA (les LLMs plus exactement).

Pour l’instant, ce hack fonctionne uniquement sur la version GameCube originale du jeu, celui de 2001 car les versions ultérieures sortis sur DS, Wii ou Switch utilisent une architecture mémoire différente. Mais techniquement, rien n’empêche d’adopter la même approche.

Comme quoi, avec un peu d’ingéniosité, on peut moderniser n’importe quel jeu rétro !

Hier — 9 septembre 2025Flux principal

Plex encore victime d'une fuite de données - Changez vos mots de passe maintenant

Par : Korben
9 septembre 2025 à 13:33

Hier, vous vous êtes peut-être retrouvé avec un mail de Plex commençant par “Nous avons détecté une activité inhabituelle sur votre compte”. Pas de panique, vous n’êtes pas seul car en effet, ce lundi 8 septembre, les 17 millions d’utilisateurs actifs de Plex ont eu le même réveil douloureux.

Plex, si vous ne connaissez pas encore, c’est un super outil qui permet de gérer votre bibliothèque média personnelle et d’accéder à du contenu gratuit. Malheureusement, il y a quelques jours, leurs serveurs ont été à nouveau compromis (la précédente c’était en 2022) et le pirate a réussi à se faufiler et à accéder à une base de données contenant des informations d’authentification.

Dans cette nouvelle attaque, les données exposées incluent donc les adresses email, les noms d’utilisateur et les mots de passe hashés. Plex se veut rassurant et précise que les mots de passe étaient “sécurisés par hachage, conformément aux meilleures pratiques” ce qui est plutôt cool sur le papier, mais qui n’empêche pas que vos données perso soient maintenant entre de mauvaises mains.

Heureusement, nos informations de paiement n’ont pas été compromises car Plex ne stocke pas les données de cartes bancaires sur ses serveurs, ce qui limite les dégâts financiers directs pour les utilisateurs mais du coup, face à cette situation, Plex impose une réinitialisation obligatoire des mots de passe pour tous ses utilisateurs.

Vous devez donc vous rendre sur https://plex.tv/reset pour créer un nouveau mot de passe. L’entreprise recommande vivement d’activer l’option “Déconnecter les appareils connectés après le changement de mot de passe” ce qui signifie que vous devrez ensuite vous reconnecter sur tous vos appareils, y compris votre Plex Media Server. C’est super relou mais c’est un petit prix à payer pour la sécurité.

Et pour ceux qui utilisent la connexion unique (SSO), Plex conseille de se déconnecter de toutes les sessions actives via https://plex.tv/security , puis si vous ne l’avez pas encore fait, c’est vraiment le moment d’activer l’authentification double facteurs.

En tout cas, pour l’instant, on a eu aucuns détails techniques sur la méthode utilisée par le pirate pour récupérer toutes ces données. Plex affirme avoir “corrigé la méthode d’intrusion” mais refuse de partager plus d’informations, du coup, on ne connait pas vraiment l’ampleur du problème et si d’autres services similaires sont vulnérables.

Notez que Plex ne vous demandera jamais votre mot de passe ou vos informations de paiement par email donc si vous recevez ce genre de demande, c’est du phishing. Et si vous utilisez le même mot de passe Plex sur d’autres services (ce qu’il ne faut jamais faire, morbleu !), changez-le partout immédiatement !

Voilà, après cette seconde fuite en trois ans je commence à me poser des questions sur la façon dont ils gèrent leur sécurité. Faut pas oublier qu’il y a plein de gens qui utilisent Plex pour y mettre également leurs vidéos perso, donc je vous laisse imaginer le drame si demain, des cybercriminels pouvaient accéder aux bibliothèques médias des utilisateurs.

Bon courage à tous !

Source

GHBuster - Le détecteur de comptes GitHub bidons de DataDog

Par : Korben
9 septembre 2025 à 08:06

Saviez-vous qu’il y a plus de 3,7 millions de fausses étoiles qui polluent GitHub , et que 16% des repos étaient déjà touchés fin 2024. C’est pour cela que DataDog a sorti GHBuster , un outil qui détecte justement les comptes et repos GitHub suspects grâce à des algos heuristiques bien senties.

Le principe c’est qu’au lieu de chercher bêtement des patterns, GHBuster analyse plusieurs comportements louches en même temps. Genre, il repère quand un repo a plein d’étoiles venant de comptes créés le même jour et check aussi d’autres trucs sympas comme les commits avec des emails non liés au profil GitHub (pratique pour repérer les acteurs malveillants qui utilisent plusieurs comptes bidons). Il trouve aussi les utilisateurs qui n’ont que des forks de repos supprimés, ou ceux dont tous les commits viennent d’emails non vérifiés.

L’installation est super simple pour ceux qui veulent tester :

uv pip install "git+https://github.com/DataDog/ghbuster.git"
export GITHUB_TOKEN=votre_token_github
ghbuster

Et le problème de ces fausses “étoiles”, c’est un phénomène qui prend de l’ampleur et ces repos vérolés contiennent souvent des malwares cachés dans des logiciels piratés, des cheats de jeux ou des bots crypto.

DataDog ne s’arrête pas là car ils ont aussi intégré GHBuster dans leur suite de sécurité Cloud SIEM. Ça permet de monitorer en temps réel les activités suspectes sur GitHub, comme l’ajout de clés SSH depuis des IP douteuses ou la désactivation du secret scanning.

Pour les devs et les entreprises, c’est un vrai casse-tête car comment faire confiance à un repo avec 10 000 étoiles si la moitié sont bidons ? GHBuster apporte heureusement une partie de la réponse en permettant d’identifier rapidement les patterns suspects.

DataDog recommande aussi de configurer vos filtres web pour surveiller le trafic GitHub et détecter les téléchargements anormaux. Utilisez des outils de scan automatique comme GitGuardian ou GitHub Advanced Security pour repérer les malwares potentiels dans le code.

Je trouve ça cool de voir des boîtes comme DataDog partager leurs outils en open source et j’espère que GHBuster vous aidera à y voir un peu plus clair dans ce bazar sur GitHub.

Indiana Jones et le prototype perdu du Commodore 64

Par : Korben
8 septembre 2025 à 19:22

Je viens de tomber sur une pépite qui va faire chavirer le cœur des nostalgiques du Commodore 64 !

Le site Games That Weren’t a déniché un prototype jouable d’Indiana Jones and the Last Crusade ! Mais attention, ce n’est pas un prototype officiel de l’époque. Il s’agit d’une conversion fan-made de la version aventure point-and-click propulsée par le moteur SCUMM que les adeptes du C64 n’ont jamais eu la chance d’essayer à l’époque.

Mais avant de vous en dire plus, je vous emmène avec moi en 1989. Lucasfilm Games sort 2 jeux Indiana Jones. D’un côté, il y a le jeu d’action / plateforme qui a bel et bien débarqué sur C64. Et de l’autre, le jeu d’aventure graphique qui tourne grâce au fameux moteur SCUMM (oui, celui de Monkey Island, pour les connaisseurs). Mais voilà, coup dur pour les fans du C64 c’est que cette version aventure ne s’est jamais frayé un chemin jusqu’à leur machine chérie. Elle est malheureusement restée l’exclusivité des ordinateurs 16 bits.

Et en 2012, un certain Thorsten Harth, alias “Brick Bambi”, développeur allemand audacieux de son état, se dit : “Et si je portais ce jeu SCUMM sur Commodore 64 ?” Un défi de taille quand on mesure les limitations techniques de la bécane 8 bits face à ses homologues 16 bits. Le bonhomme s’est acharné pendant plusieurs années sur cette conversion homebrew, jonglant entre graphiques bitmap et caractères pour optimiser la mémoire. Il avait même réservé 4K de RAM juste pour le son (de $A000 à $AFFF pour les experts).

D’ailleurs, côté musique, Joachim Wijnhoven avait été recruté en 2016 pour s’occuper de la bande-son. Thorsten lui avait commandé la “Raiders March” pour l’écran titre et de fin, mais aussi toute une série de thèmes spécifiques : la musique de la carte, de Venise, des catacombes, du château Brunwald, la marche d’Hitler, le piano d’Henry, la salle du Graal… Un travail de titan ! Roland Hermans, une autre recrure devait même s’occuper des effets sonores comme les coups frappés dans la bibliothèque, la cascade ou les étagères qui tombent. Le jeu devait alors alterner entre musique et effets sonores… Hé oui, pas les deux en même temps, question de limitations techniques.

Mais voilà, malgré l’aide apportée par d’autres personnes, la réalité a fini par rattraper notre développeur. Entre trois jeunes enfants à élever et un job à assurer, Thorsten se retrouve à court de temps. En 2017, une sortie cartouche avait même été discutée, mais Thorsten avait répondu que la complexité du jeu demanderait encore plusieurs années… le problème n’était pas les limitations de la RAM ou le CPU, mais bien les limites de temps. Du coup, en 2018, le projet est annoncé comme abandonné…

Snif…

A l’époque, son objectif initial c’était de boucler au moins le premier chapitre complet : Barnet College, la maison d’Henry, Venise, la bibliothèque et les catacombes. Tout ce qui précède le château Brunwald en fait. Et bonne nouvelle : c’est exactement ce que contient le prototype de Thorsten qui vient d’être retrouvé ! Joachim Wijnhoven, qui avait reçu une preview en décembre 2018, l’a généreusement partagée avec Games That Weren’t. C’est d’ailleurs une démo impressionnante avec beaucoup de contenu et d’interactions possibles.

Pour les fans de l’époque, l’absence de la version SCUMM d’Indy III sur C64 sonnait comme le glas et beaucoup ont commencé à lorgner du côté de l’Amiga ou du PC après cette déception. Alors voir aujourd’hui ce prototype homebrew refaire surface, même s’il date de 2012-2018 et non de 1989, c’est comme déterrer un trésor perdu digne du Dr. Jones lui-même.

Ce prototype de Thorsten est donc désormais archivé et dispo pour tous les nostalgiques qui souhaitent explorer ce qui aurait pu être l’une des conversions homebrew les plus audacieuses du Commodore 64. Et en bonus, pour les amateurs, les musiques composées par Joachim ont été publiées en 2023 dans une release appelée “Archimedes’ Dial” , et vous pouvez même retrouver les vidéos originales de Brick Bambi sur YouTube montrant le jeu en action.

Voilà, qui sait, peut-être qu’un jour quelqu’un reprendra le flambeau pour finir cette conversion légendaire…

TheAuditor - L'outil de sécurité qui rend vos assistants IA moins laxistes sur la sécurité de votre code

Par : Korben
8 septembre 2025 à 18:47

J’sais pas vous, mais moi quand je vois Claude Code ou Cursor pondre du code avec des injections SQL grosses comme des maisons, j’ai envie de pleurer. Le pire, c’est que ces assistants IA sont incapables de vérifier si leur code est bien sécurisé. La plupart du temps ils pissent de la ligne, mais ils ne voient rien en. ce qui concerne d’éventuelles failles.

Du coup la bonne nouvelle, c’est l’arrivée de cet outil génial pour résoudre ce problème : TheAuditor . En gros, c’est une plateforme SAST (Static Application Security Testing) pensée dès le départ pour fonctionner avec les assistants IA.

L’idée c’est qu’au lieu d’avoir une IA qui code dans le vide, TheAuditor lui donne des yeux pour voir ce qu’elle fait vraiment. L’outil analyse le code, trouve les failles de sécurité (il détecte le Top 10 de l’OWASP, les injections, les problèmes d’authentifications…etc), et génère des rapports optimisés pour que l’IA puisse ensuite les comprendre et corriger ses erreurs toute seule.

Et surtout, ça fonctionne avec N’IMPORTE QUEL assistant IA. Pas besoin d’intégration spéciale, pas de SDK, rien. Vous demandez juste à votre IA de lancer aud full (ou vous le lancez vous-même) et elle lit les résultats dans .pf/readthis/. Que vous utilisiez Claude, Cursor, Codex, Windsurf ou Copilot, ça marche pareil.

L’installation est super simple. Vous clonez le repo dans ton dossier d’outils (pas dans votre projet !), vous faites un

pip install -e .

et c’est parti.

Ensuite dans votre projet, vous lancez :

aud setup-claude --target .

puis vous l’initialisez avec :

aud init

et enfin :

aud full

pour avoir votre audit complet.

TheAuditor fait tourner 14 phases d’analyse en parallèle. Ça va de la détection des frameworks (Django, Flask, React…) à l’analyse des dépendances, en passant par le suivi du flux de données pour identifier les points d’injection. Il génère même des graphiques de dépendances avec Graphviz pour visualiser l’architecture de ton code.

Un truc “marrant” que le créateur mentionne dans son projet, c’est que son outil déclenche les antivirus ! Donc c’est pas la peine de m’écrire pour me dire que votre antivirus random à la période d’essai expirée a détecté un grave danger et que vous êtes vachement déçu parce que Korben.info c’est devenu de la merde, et que vous allez portez plainte parce qu’à cause de moi, y’a un virus dans votre imprimante maintenant et ce genre de conneries ^^. C’est normal en fait parce que l’outil doit détailler les vulnérabilités qu’il trouve dans la documentation. Et pour l’antivirus, écrire des patterns de vulnérabilités détectées, c’est suspect. Mais bon, c’est le prix à payer pour avoir un vrai scanner de sécurité.

Le workflow maintenant avec ce truc, ça consiste donc à demander une fonctionnalité à votre assistant IA. Lui, en bonne victime, il la code, puis lance TheAuditor automatiquement, lit ensuite le rapport, corrige les problèmes de sécurité, relance TheAuditor pour vérifier que tout est OK, et ainsi de suite jusqu’à ce que ce soit clean. Comme ça plus besoin de toucher au terminal, l’IA gère tout.

Pour les refactorings, c’est également du bonheur puisque l’outil détecte automatiquement les migrations incomplètes, les incompatibilités d’API entre frontend et backend, les changements de modèles de données mal propagés. Vous pouvez même définir vos propres règles de corrélation dans /correlations/rules/.

Voilà, si vous en avez marre que vos assistants IA génèrent du code troué et que vous voulez dormir tranquille, TheAuditor pourrait bien devenir votre meilleur pote.

Le Decisioninator - le Raspberry Pi qui automatise la prise de décision

Par : Korben
8 septembre 2025 à 17:38

Je me doute que vous connaissez tous et toutes cette situation : “Qu’est-ce qu’on mange ce soir ?” suivi de 30 minutes de “j’sais pas, toi tu veux quoi ?” qui se terminent ensuite pas la commande de la même pizza que d’habitude. Heureusement, l’ingénieur software nommé Makerinator a mis au point LA solution, et il affirme même que ça a “sauvé son mariage”.

Le Decisioninator, c’est son nom, est un dispositif basé sur un Raspberry Pi 4 qui automatise toutes ces décisions chiantes du quotidien. Restaurant, corvées ménagères, soirées ciné, sorties en amoureux… Plus besoin de se prendre la tête !

L’appareil ressemble à une mini borne d’arcade des années 80, avec son boîtier en contreplaqué découpé au laser et peint à la bombe. Deux boutons contrôlent tout… un gros rouge pour lancer la roue de la fortune virtuelle, et un petit bleu pour choisir le mode (restaurants, corvées, soirée ciné ou streaming).

Pour son bricolage, Makerinator a utilisé un Raspberry Pi 4 avec une version allégée de Raspberry Pi OS. Pour l’interface, il s’est également appuyé sur Flutter et le Flame Engine, un moteur de jeu 2D modulaire parfait pour créer cette interface façon “roue de la fortune”. Les boutons sont connectés via les GPIO du Pi, et l’alimentation passe par un convertisseur 12V vers 5V.

Pour la partie menuiserie, Makerinator avoue ne pas être un expert du bois mais avec beaucoup de ponçage, de bombes de peinture et quelques covers vinyles, il a réussi à cacher ses erreurs de menuiserie. Il raconte d’ailleurs que sa Dremel (lien affilé) a été sa carte sortie de prison pour sa mauvaise planification du projet. Rajoutez là dessus un bon paquet d’époxy prise rapide, et le tour était joué.

Et je trouve que le résultat final a vraiment un look rétro-arcade sympa, avec des influences très Tron. Makerinator décrit son invention comme un couteau suisse pour l’indécision et comme je vous le disais en intro, selon lui, son mariage a été sauvé grâce à ça. Je pense qu’il abuse, mais ce genre de conneries, ça fait vendre ^^.

Voilà, si ça vous tente, tout est documenté sur Hackaday , et qui sait, peut-être que ça sauvera votre mariage aussi !

Source

À partir d’avant-hierFlux principal

Test du Gaimoo GM200 : un vidéoprojecteur à moins de 90 euros qui fait le job

Par : Korben
8 septembre 2025 à 15:04
– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Vous avez sans doute déjà vu passer sur Amazon ou ailleurs ces mini-vidéoprojecteurs qui ressemblent vaguement à des produits Samsung… mais vendus sous des marques plus ou moins obscures à moins de 100 €. En général, ça sent la déception. Et comme je suis curieux, j’ai voulu tester. J’ai donc commandé un Gaimoo GM200 , vraiment pour voir ce qu’il valait, et j’ai été plutôt surpris. Il est compact, simple, bien fichu. Il s’adresse à ceux qui veulent regarder des films, des séries, ou jouer à des jeux avec une grande taille d’écran, sans vendre un rein. Je l’ai utilisé pendant quelques semaines, et voici ce que ça donne.

Installation express et Android TV intégré

Le premier bon point, c’est la simplicité. Le GM200 arrive prêt à l’emploi, avec non seulement une télécommande mais aussi… une souris sans fil incluse. Oui, une vraie petite souris, bien pratique quand il s’agit de naviguer dans les paramètres ou de configurer le Wi-Fi. Le projecteur tourne sous Android TV 11, ce qui signifie que vous pouvez installer YouTube, Prime Video, Disney+, Crunchyroll, NordVPN ou n’importe quelle autre appli comme sur une télé connectée. Pas besoin d’un stick HDMI supplémentaire, tout est déjà là. Dans mon cas, par simplicité, j’ai fini par y coller mon Apple TV, mais ça n’a rien d’obligatoire.

En pratique, j’ai pu basculer d’une appli à l’autre en quelques secondes, sans devoir jongler avec mon smartphone. Certains utilisateurs ont relevé que le partage d’écran avec les produits Apple n’est pas parfait, mais pour Android ou en HDMI, aucun souci.

Une image tout à fait acceptable à ce prix-là

Côté image, le GM200 assure le minimum syndical… mais en mieux. Sa résolution native est en 1080p, avec compatibilité 4K HDR en entrée (ce qui ne veut pas dire grand-chose). Les couleurs sont propres, les contrastes convaincants et les détails bien visibles, surtout en soirée ou dans une pièce bien assombrie. On ne parle évidemment pas d’un projecteur laser à 2000 €, mais pour un modèle à moins de 80 € , c’est très correct.

La correction trapézoïdale automatique fait aussi le job : même si le projo est posé de travers, l’image se redresse toute seule… Et quand ce n’est pas parfait, on peut ajuster ça à la main. On peut projeter, sur le papier, jusqu’à 240 pouces de diagonale, mais le rendu idéal se situe plutôt autour de 80 à 120 pouces. Parfait pour un salon ou une chambre.

Ne vous fiez pas trop aux photos que je vous publie, je n’ai pas de rideaux dans ma chambre, du coup bah on ne se rend pas trop compte de la luminosité. Mais même dans ces conditions c’est très utilisable.

Connectivité moderne : Wi-Fi 6 et Bluetooth 5.2

Là où beaucoup de projecteurs d’entrée de gamme se contentent d’un Wi-Fi poussif, le GM200 propose du Wi-Fi 6. Résultat : le streaming est fluide, même en Full HD. J’ai regardé plusieurs séries en streaming, et je n’ai pas eu une seule coupure.

Le Bluetooth 5.2 bidirectionnel est aussi un plus : on peut envoyer le son vers une enceinte ou un casque sans fil, ou au contraire connecter son smartphone pour streamer directement. Les haut-parleurs intégrés suffisent pour une petite pièce, mais si vous voulez un rendu cinéma, prévoyez quand même une enceinte externe.

Expérience au quotidien et verdict

Après plusieurs jours d’utilisation, le GM200 m’a franchement surpris. Léger (à peine 650 g), compact et relativement silencieux pour sa catégorie (le ventilateur se fait oublier une fois le film lancé, même s’il reste bruyant tant que vous vous baladez dans les menus), il se transporte facilement. C’est clairement un produit de dépannage intéressant, que vous pouvez aussi déplacer ponctuellement dans une chambre d’enfant par exemple, pour mater un dessin animé dans une pièce dépourvue de télé (parce que bien sûr, il n’y a pas de télé dans la chambre de vos enfants, hein ?).

Évidemment, il a ses limites : en plein jour, la luminosité n’est pas assez forte, et l’audio intégré manque de coffre pour une grande pièce. Mais avec une enceinte Bluetooth et une pièce un peu sombre, on obtient une bonne ambiance. Pour environ 75 à 85 €, c’est clairement un bon produit.

Le Gaimoo GM200 n’est pas un gadget à oublier au fond d’un placard : c’est un vrai petit vidéoprojecteur polyvalent, pratique et étonnamment complet pour son prix. Si vous voulez un home cinéma d’entrée de gamme, abordable, que ce soit dans votre chambre, votre salon ou même en vadrouille, il est difficile de faire mieux à ce tarif.

Comme quoi, je suis bien content d’avoir tenté le coup, et je vous conseille de faire de même ! Il est, en général, à moins de 80 euros sur Amazon, en cliquant ici .

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ou lire tous les tests que je publie dans la catégorie “Gadgets Tech” , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Google Stitch - L'IA qui transforme vos gribouillis en interfaces pro

Par : Korben
8 septembre 2025 à 12:20

J’sais pas si vous avez vu, mais Google a sorti en beta, encore un truc qui va mettre les experts UX/UI au chomdu ! Son petit nom c’est Stitch (rien à voir avec Lilo) et vous pouvez le découvrir sur stitch.withgoogle.com . En gros, Stitch c’est une boîte à outils expérimentale qui utilise de l’IA pour transformer vos idées de site ou d’appli mobiles en interfaces utilisateur fonctionnelles en un rien de temps.

Le principe c’est comme d’hab, vous entrez une description en langage naturel du style “Vazy crée-moi une app mobile dark theme avec une navbar, une carte de profil et un bouton d’action flottant, wesh”, et hop ! Stitch vous sort de son chapeau l’interface complète avec le code HTML/CSS qui va bien. C’est annoncé officiellement depuis mai sur le blog Google Developers depuis Google I/O 2025. Oui, je sais, j’suis pas pressé. J’ai un métier moi (non).

Et si vous n’êtes pas inspiré, mais que vous trouver l’app ou le site d’un concurrent sexy, vous pouvez également uploader une capture écran de son interface ou d’un gribouillis de votre cru, ou même un wireframe fait à l’arrache. Et Stitch analysera l’image et vous crachera une version propre et fonctionnelle.

Gemini 2.5 est bien sûr le maître d’œuvre et Stitch vous propose deux modes : Gemini 2.5 Flash pour la rapidité (350 générations par mois), ou Gemini 2.5 Pro pour des résultats plus sophistiqués (50 générations par mois). Notez que le mode Pro est particulièrement bon quand vous travaillez avec des inputs visuels complexes.

L’intégration avec Figma est aussi un vrai plus. Vous pouvez donc exporter directement votre design dans Figma tout en préservant les calques et les composants ce qui est pratique pour les designers qui veulent peaufiner le résultat ou pour les équipes qui bossent déjà avec cet outil. Par contre, moi j’y ai pas accès, donc je pense qu’il faut un abonnement pro pour profiter de cette option.

Pour les développeurs, le code généré est également plutôt propre et bien structuré. Moi j’ai testé en demandant une interface pour une potentielle application Korben sur iOS / Android (j’suis pas sûr qu’il y ait un vrai besoin cela dit) et il m’a pondu un truc assez classique mais très propre, basé sur Tailwind CSS.

Et évidemment, chez Google, ils vous diront que l’objectif n’est pas de remplacer Figma ou Adobe XD, mais plutôt de faciliter la phase initiale de prototypage qui peut être fastidieuse. Mais bon, à terme, je pense que ce sera la fin pour ce genre d’outils sauf s’ils embrassent eux aussi, l’IA générative.

L’outil propose évidemment un chat interactif pour affiner le design, des sélecteurs de thèmes, et la possibilité de modifier le résultat en temps réel. Vous pouvez aussi jongler entre les versions web et mobile de votre interface en un clic. Pour l’instant, c’est gratuit mais avec des limitations mensuelles. Il vous faut un compte Google et c’est disponible dans 212 pays, uniquement en anglais.

C’est donc parfait pour les débutants avec des idées d’apps, les développeurs qui veulent prototyper rapidement, et les designers qui cherchent à explorer des variantes rapidement avec une bonne UX/UI faite dans les règles de l’art.

Mais attention quand même… Pour ma part, j’ai testé le bouton de téléchargement pour récupérer un design et ça n’a pas fonctionné… preuve que c’est vraiment encore en beta !

Voilà, donc si vous voulez tester, rendez-vous sur stitch.withgoogle.com . Ça peut vous faire gagner du temps sur les phases de brainstorming et de prototypage rapide.

Merci à Rpc2dot0 pour la découverte !

Microsoft montre que la Surface c'est tellement bien qu'ils préfèrent utiliser un iPad

Par : Korben
8 septembre 2025 à 11:01

Vous allez encore vous marrer et m’envoyer des emails outragés parce que je vais encore troller Microsoft. Oui je vous parle bien de cette entreprise valorisée à 3600 milliards de dollars qui vient de nous offrir un moment de pur génie marketing. Leur compte Surface officiel sur X a publié une photo promotionnelle de leur “ultimate research buddy”, le fameux Surface Pro.

Sauf que y’a un petit problème… L’écran montre iPadOS au lieu de Windows.

Hé oui Microsoft a fait la promotion de son produit phare en montrant le système d’exploitation de son concurrent direct, Apple. C’est comme si Coca-Cola faisait une pub en versant du Pepsi dans ses canettes.

L’image publiée à 17h pile vendredi dernier montrait donc une Surface Pro avec son stylet, accompagné du message : “Read, highlight, summarize, repeat, all on Surface Pro, the ultimate research buddy.” Sauf que sur l’écran, on pouvait clairement voir Word… avec la barre de statut d’iPadOS en haut et l’indicateur Home en bas. Un montage Photoshop tellement mal fait qu’on se demande s’ils ont pas utilisé Paint.

Internet n’a pas mis longtemps à réagir. Les moqueries ont fusé de partout. “Comment une entreprise valorisée à plusieurs milliers de milliards peut-elle faire une erreur pareille ?”, demande un utilisateur. Un autre a lâché le commentaire qui tue : “Même Microsoft n’arrive pas à se résoudre à utiliser Surface.” lol, j’adore !

Le plus beau dans tout ça ce sont les Community Notes de X qui ont dû intervenir pour fact-checker Microsoft. Bref, on touche le fond.

Cette mésaventure illustre en tout cas parfaitement l’état actuel de Microsoft sous le règne de Satya Nadella. Car le PDG est tellement obsédé par l’IA qu’il en oublie les produits grand public. J’en veux pour preuve sa dernière lettre aux actionnaires, où il a mentionné 152 fois l’IA, une seule fois Windows, et la Surface, zéro.

En plus, Microsoft a licencié des milliers d’employés cet été, fermé ses boutiques physiques, et apparemment aussi viré son équipe de réseaux sociaux car sinon, comment expliquer qu’un post aussi mal fichu soit resté en ligne pendant presque 24 heures ?

Le pire, c’est que ce n’est pas la première fois. Souvenez-vous quand Surface avait le contrat avec la NFL et que les commentateurs n’arrêtaient pas d’appeler les tablettes des “iPads”. En plus ils détestaient la Surface comme jamais, regardez ça :

Mais là, c’est Microsoft eux-même qui confondent leurs produits avec ceux d’Apple.

Bref, petit conseil gratuit pour Microsoft, la prochaine fois que vous voulez faire la promo de votre Surface, utilisez vraiment vos produits au lieu de les photoshopper 👍. Oui, appelez moi Captain Obvious !

Source

Le bug des SSD sous Windows 11 viendrait de firmwares de développement

Par : Korben
7 septembre 2025 à 08:11

Bon alors là, rebondissement de fou dans l’affaire des SSD qui disparaissaient sous Windows 11 ! Vous vous souvenez de cette histoire où Microsoft et Phison juraient leurs grands dieux qu’il n’y avait aucun problème après 4500 heures de tests ? Eh bien figurez-vous qu’un groupe de geeks chinois vient de découvrir le pot aux roses.

Le groupe PCDIY! sur Facebook a mis en effet le doigt sur ce qui semble être le vrai coupable, et ce n’est ni Windows ni les contrôleurs Phison en eux-mêmes. C’est bien plus vicieux que ça puisque des firmwares de développement pré-release se sont retrouvés sur des SSD vendus dans le commerce. En gros, ce sont des versions beta de firmware qu’on utilise normalement uniquement en labo pour les tests.

Rose Lee, l’admin du groupe PCDIY! , explique que ces firmwares de dev n’ont jamais été prévus pour la production. Normalement, tous les fabricants de SSD qui utilisent des contrôleurs Phison reçoivent leurs produits avec le firmware officiel, testé et validé mais visiblement, quelques unités avec du firmware de pré-production se sont glissées dans la nature.

Les ingénieurs de Phison ont donc réussi à reproduire le problème dans leurs labos une fois qu’ils ont su quoi chercher. Ça explique pourquoi leurs 4500 heures de tests initiaux n’avaient rien donné… ils testaient avec des produits retail normaux, pas avec ces firmwares de développement qui n’auraient jamais dû sortir des usines.

Ce qui se passe concrètement, c’est que la mise à jour Windows 11 KB5063878 déclenche quelque chose dans ces firmwares beta qui fait planter le SSD. Et comme les firmwares officiels n’ont pas ce problème, c’était impossible de reproduire le bug avec des disques achetés normalement en magasin.

Donc si vous avez acheté votre SSD dans un circuit de distribution classique, vous n’êtes normalement pas concerné puisque les firmwares officiels ont été “thoroughly tested and verified” comme dit l’article, et ne présentent pas ces anomalies qu’on trouve dans ces versions de test réservées aux ingénieurs.

Par contre, si vous faites partie des malchanceux qui ont eu des problèmes, la solution est simple : mettez à jour le firmware de votre SSD. Mais attention, faites une sauvegarde complète avant, car on ne sait jamais

Phison en a profité pour clarifier un autre point concernant le ralentissement des disques que certains ont observé. D’après eux, ça n’a rien à voir avec ce bug, mais c’est juste le cache SLC qui sature quand on fait de gros transferts de données. Dans ce cas, un Secure Erase résout normalement le problème (un simple formatage Windows ne suffit pas).

Des firmwares de test qui se retrouvent dans la nature, une mise à jour Windows qui les fait bugger, des semaines d’enquête pour rien parce qu’on cherchait au mauvais endroit… Cette histoire est complètement dingue quand on y pense.

Bref, je pense qu’on peut dire merci au groupe PCDIY! pour avoir résolu ce mystère qui rendait tout le monde fou !

Source

Le grand retour des blogs

Par : Korben
5 septembre 2025 à 19:37

En ce moment, tout le monde s’extasie sur le grand retour des blogs et j’ai vraiment envie de leur dire : “Mais hé je ne suis jamais parti bande de nazes !

Faut dire que j’étais déjà là avant que le mot “blog” existe, quand on appelait ça des sites perso et qu’on codait notre HTML à la main dans Notepad (je suis un menteur, j’utilisais Dreamweaver). Et voilà, je suis toujours là, 28 ans plus tard (oui j’ai lancé mon premier site perso en 1997), pendant que les plateformes et les médias naissent et meurent autour de moi comme des petites fleurs délicates.

Le truc, c’est que je suis un peu maudit dans cette histoire. Ni vraiment blog, ni vraiment média. Je suis comme un ornithorynque du web, une cyber-anomalie qui perturbe vos envies de classifications. J’suis pas assez institutionnel pour bénéficier des avantages fiscaux de la presse et j’suis trop imposant pour être un simple blog perso. Alors je suis quoi au final ? Bah je pense que je suis ce que j’ai toujours été… Un webmaster quoi… Un mec avec son site web sur lequel il met ce qu’il veut, quand il veut, comme il veut. En totale liberté !

Et c’est exactement ça que les gens redécouvrent aujourd’hui. La liberté. Cette putain de liberté qu’on a perdue en allant tous s’entasser dans les jardins clos de Facebook, Twitter et autres conneries. Alors maintenant que X est devenu un champ de bataille toxique et que Blusky est en train de suivre le même chemin, je vois de plus en plus de monde réaliser enfin ce qu’on a sacrifié.

Et le ooh.directory l’a bien compris. Il s’agit d’un annuaire web qui recense au moment où j’écris ces lignes, 2351 blogs actifs sur tous les sujets possibles. Son créateur l’a lancé pour prouver que “nobody blogs anymore” est une connerie monumentale. Car des blogs personnels, il y en a des tonnes. Par exemple, des gens comme Anil Dash avec son “ blog about making culture ”, Aaron Parecki qui a co-fondé l’IndieWebCamp, ou Andy Baio avec Waxy.org que j’aime beaucoup. Tous ces gens qui continuent à écrire, à partager, à créer sur LEUR petite parcelle de web.

Alors pourquoi c’est mieux d’avoir son site que d’être sur X ou Bluesky ? C’est simple. Sur votre blog, vous êtes chez vous. Pas d’algo qui décide si votre contenu mérite d’être vu. Pas de modération aléatoire qui vous suspend parce que vous avez dit “merde”. Pas de limite à 280 ou même 300 caractères. Si vous voulez écrire 35000 mots sur l’histoire des cartes graphiques, let’s go pépito ! Et si vous voulez partager votre recette de cookies de Noël entre 2 posts sur Rust, c’est tout à fait possible !

Puis c’est pas le même public. Sur les blogs, c’est un public de gens qui viennent vous lire pour le plaisir, pour apprendre des choses, se marrer ou juste confronter leurs points de vue, et pousser la réflexion sur certains sujets. Sur les plateformes de micro blogging comme X ou Bluesky, c’est pas la même ambiance. Là-bas c’est majoritairement n’importe qui, qui dit n’importe quoi en 2 secondes chrono, condamnant, critiquant, détruisant, jugeant, sans même lire au delà du titre, le texte que vous avez pris le temps de rédiger avec tout votre cœur.

L’ IndieWeb dont je vous ai parlé il y a peu porte d’ailleurs ce message depuis 15 ans maintenant. Leur principe c’est d’être propriétaire de votre domaine, de publier d’abord sur votre propre site (ce qu’on appelle POSSE ), et d’être propriétaire de votre contenu. Ce n’est donc pas juste du blogging, c’est une philosophie, une résistance contre la corporatisation du web .

Sur les réseaux sociaux, vous construisez votre maison sur le terrain de quelqu’un d’autre et un jour, le propriétaire décidera de changer les règles, de monétiser votre contenu, de favoriser certains contenus au détriment du votre, ou carrément de fermer votre boutique. Et voilà, des années de contenu, de connexions, de communauté qui disparaissent. Ça s’est vu avec Google+, avec Vine, et ça se verra encore. Les Youtubeurs, vous connaissez aussi très bien ça.

Mon site à moi a survécu à Friendster, MySpace, Digg (qui revient bientôt d’ailleurs), StumbleUpon, Google Reader (RIP), et il survivra probablement à X et Bluesky (oui, je sais c’est décentralisé, mais je ne pense pas que vous ayez pris le temps de l’héberger chez vous… Donc vous squattez encore la prairie de quelqu’un d’autre qui a probablement un sacré complexe de dieu ).

Voilà, je trouve que ce qui est génial avec cette renaissance des blogs, c’est qu’elle s’accompagne d’outils modernes. Le RSS n’est pas mort (malgré ce que Google a essayé de faire), les webmentions permettent des interactions entre sites, les générateurs de sites statiques comme celui que j’utilise rendent la publication super simple. Et des initiatives comme ooh.directory facilitent carrément la découverte de nouveaux blogs.

Bref, avoir votre propre espace sur le Net, pensez-y ! C’est quelque de chose de très agréable, je vous assure. C’est ça la vraie liberté du web, celle de publier ce qu’on veut, quand on veut, sans filtre, sans intermédiaire, sans bullshit (coucou les clones en cravate de LinkedIn)

Et puis si vous cherchez de l’inspiration, allez faire un tour sur ooh.directory . Vous y trouverez des centaines de blogs actifs, des gens passionnés qui écrivent sur tout et n’importe quoi. C’est ça, le vrai web. Pas les threads toxiques de X, pas les algorithmes opaques de Meta… mais les vraies gens qui partagent leurs passions sur leurs propres espaces.

Et un grand merci à Lilian de m’avoir envoyé ce lien !

C'est fou ! 48 000 sites de phishing hébergés tranquillement chez Google et Cloudflare durant 3 ans

Par : Korben
5 septembre 2025 à 18:32

Si comme moi, vous payez rubis sur l’ongle Google Cloud ou Cloudflare pour héberger vos services parfaitement légaux, et bien sachez que pendant que vous respectiez scrupuleusement leurs conditions d’utilisation tordues, une opération de phishing monumentale utilisait tranquillement leurs infrastructures pour cloner des sites du Fortune 500. Ça a duré trois ans sans que personne ne soit inquiété et cela malgré 265 signalements publics…

Ce sont les chercheurs de Deep Specter Research qui ont découvert un empire du phishing qui ferait passer les arnaqueurs nigérians pour des amateurs. Je vous parle de 48 000 hosts virtuels répartis sur plus de 80 clusters, tous bien au chaud sur l’infrastructure premium de Google Cloud à Hong Kong et à Taiwan. Le tout géré évidemment comme une vraie plateforme phishing-as-a-service, avec sept évolutions techniques majeures sur la période.

Les criminels utilisaient HTTrack Website Copier , un vieiiiil outil parfaitement légal de scraping web, pour créer des clones parfait au pixel près de +200 grandes entreprises. Lockheed Martin, le géant de la défense américaine , s’est notamment retrouvé avec un jumeau malveillant hébergé sur le domaine militaryfighterjet.com. C’est un site qui parlait initialement d’avions de chasse et qui s’est transformé en casino en ligne tout en servant de façade pour du phishing ciblé.

La technique était redoutablement efficace. Les attaquants récupéraient des domaines expirés qui appartenaient à des organisations légitimes. Ces domaines gardaient ainsi leur réputation, leurs backlinks, parfois même leurs communautés sur les réseaux sociaux.

Et pour éviter la détection, le système de cloaking analysait en temps réel les headers HTTP, les user agents et la géolocalisation IP. Donc si vous étiez un bot de Google ou un chercheur en sécurité, vous voyiez un site normal. Mais si vous étiez une vraie victime potentielle, c’était bienvenue dans la matrice. Cette technique sophistiquée a permis aux sites malveillants de maintenir d’excellents rankings SEO tout en servant leur contenu frauduleux aux bonnes personnes.

L’infrastructure comptait 86 adresses IP physiques côté Google Cloud, mais le réseau virtuel était bien plus vaste avec 44 000 adresses IP virtuelles chez Google et 4 000 chez d’autres hébergeurs. En mars 2025, l’opération a d’ailleurs atteint son pic avec 33 890 observations actives selon les données de Deep Specter. Sur l’année 2025 seule, on comptait 2 791 hosts avec 56 075 observations au total.

Mais voilà le scandale dans le scandale… malgré 265 détections publiques par des chercheurs et des outils de threat intelligence, ni Google ni Cloudflare n’ont suspendu les comptes concernés. Les signalements incluaient des domaines malveillants, des adresses IP compromises et des certificats SSL frauduleux.

Mais aucune réponse des géants du cloud… Rien. Nada. Que dalle.

Cette passivité a fait passer ces entreprises, de, je cite “neutral intermediaries” en “de facto enablers of illicit activity”. Traduction, au lieu d’être des hébergeurs neutres, ils sont de par leur inaction, devenus des complices.

Les conséquences pour les entreprises clonées sont également désastreuses car au-delà des pertes de trafic organique qui se traduisent directement en manque à gagner, elles font face à des risques légaux majeurs. Violations potentielles du RGPD si des données européennes sont compromises, problèmes DMCA pour le contenu copié, scrutin de la FTC américaine, obligations de divulgation SEC… Sans compter les frais juridiques pour tenter de faire fermer ces clones.

Visiblement, il y a des problèmes de gouvernance majeurs chez les géants du cloud… Les providers ont les moyens techniques de détecter ces abus, mais apparemment, tant que les factures sont payées, la motivation pour agir reste limitée…

Les chercheurs appellent donc Google, Cloudflare et les marques affectées à renforcer leurs mécanismes de détection, fermer les boucles de monitoring et appliquer des politiques strictes de résiliation de comptes.

Je suis pas sûr que le message passe mais bon, après ça les expose à des risques juridiques, alors ils seront peut-être plus sérieux la prochaine fois…

Source

Ce chercheur en IA prédit 99,999999% de chances qu'on y passe tous

Par : Korben
5 septembre 2025 à 18:04

Bon, on va parler d’un mec qui ne fait pas dans la demi-mesure. Il s’appelle Roman Yampolskiy, il est chercheur en sécurité IA à l’Université de Louisville, et surtout il vient de balancer des chiffres qui donnent envie de tout plaquer et d’aller élever des escargots en Bourgogne. Selon lui, on a des chances quasi certaines que l’IA nous extermine. C’est le genre de prédiction ultra-précise avec six neufs après la virgule qui fait qu’on se demande s’il n’a pas inventé le chiffre du milieu pour faire plus impressionnant.

Mais attendez, c’est pas fini. Le même Yampolskiy nous annonce aussi que 99% des emplois vont disparaître d’ici 2030. Dans cinq ans quoi. Le temps de finir votre formation France Travail en reconversion professionnelle, et vous serez déjà obsolète.

Trop cool hein ?

Ces déclarations, il les a lâchées lors d’une interview sur le podcast “The Diary of a CEO” avec Steven Bartlett. Et j’avoue qu’entre sa barbe de prophète de l’apocalypse et ses prédictions qui font passer Nostradamus pour un optimiste, difficile de savoir si on doit rire ou commencer à creuser un bunker.

Le plus drôle dans l’histoire, c’est qu’Elon Musk, pourtant pas connu pour son optimisme débordant sur l’IA, trouve aussi que Yampolskiy exagère un chouïa. Musk estime la probabilité que l’IA nous détruise à seulement 10 à 20%. Yampolskiy considère cette estimation bien trop conservatrice, du coup, quand Elon Musk passe pour le mec raisonnable de l’histoire, on sait qu’on est dans une timeline spatio temporelle bizarre à la Rick et Morty.

D’après ce chercheur letton (non, c’est pas le mec du boys band Alliage, c’est un lituanien), même les codeurs vont y passer. On va plus avoir besoin de vous messieurs dames, car l’IA fait déjà mieux. Il explique donc tranquillement qu’avec un abonnement à 20 balles ou un modèle gratuit qui fait le boulot d’un employé, pourquoi s’embêter à embaucher des humains ? Et dans cinq ans, avec les robots humanoïdes, même les jobs physiques seront automatisés. Livreur Deliveroo ? Un robot. Caissier ? Un robot. Influenceur TikTok ? Probablement un robot aussi, et franchement j’suis pas sûr qu’on y perde au change…

Alors sa solution pour éviter l’apocalypse ? Acheter sa formation à 999$ ! Non, je déconne… Il dit juste de ne pas construire d’IA superintelligente. Point. C’est comme dire qu’il faut éviter les accidents de voiture en n’inventant pas la voiture. C’est techniquement correct, mais connaissant les humains c’est pratiquement impossible. Surtout quand toute la Silicon Valley court après l’AGI comme des gamins après le marchand de glaces (ou pire, comme le marchand de glaces après des gamins… glauuuque).

Le concept du p(doom) qu’il défend, c’est la probabilité que l’IA nous élimine une fois qu’elle atteint la superintelligence. La plupart des chercheurs placent ça entre 5 et 50%, mais Yampolskiy va beaucoup plus loin avec ses estimations apocalyptiques… C’est sûr que le gars ne joue pas dans la même ligue que moi niveau pessimisme…

Bill Gates, de son côté, pense que certains métiers survivront tels que les codeurs, les experts en énergie et les biologistes. Yampolskiy n’est pas d’accord, et affirme que l’IA est déjà meilleure pour créer des prompts pour d’autres IA que n’importe quel humain. Même le prompt engineering, le job du futur qu’on nous vendait y’a six mois, est déjà obsolète.

Mais le plus flippant dans son discours, c’est quand il explique qu’avant on pouvait se reconvertir quand un job était automatisé, mais que si TOUS les jobs sont automatisés, il n’y aura plus de plan B possible…

Et pendant ce temps, Anthropic avoue ne pas comprendre comment leurs propres modèles d’IA fonctionnent, OpenAI semble prioriser les produits qui brillent plutôt que la sécurité, et les labos d’IA se plaignent de manquer de données de qualité pour entraîner leurs modèles. On construit donc des trucs qu’on ne comprend pas, qu’on ne contrôle pas, et qui selon certains vont nous remplacer/exterminer.

Gloups…

Le seul espoir d’après le chercheur c’est donc de convaincre tous les acteurs du secteur qu’ils sont en train de scier la branche sur laquelle ils sont assis. Il avertit que même les créateurs de ces technologies n’apprécieront pas le résultat final. Autrement dit, même les milliardaires de la tech vont y passer malgré leurs jolis bunkers . Ça au moins, c’est démocratique.

Mais bon, entre nous, j’y crois pas trop à ses prédictions de l’apocalypse là… Dites vous que j’ai un radar à je-vous-dirais-pas-quoi et qu’il a parfaitement détecté des gens comme Manu Macron, Idriss Aberkane, Didier Raoult, et même Meghan Markle des mois, voire des années avant qu’ils ne deviennent “problématiques” aux yeux de tous… Alors je peux vous dire qu’après avoir vu son interview, il allume aussi mon détecteur…

Mais bon, au moins ça pousse à réfléchir sur où on va avec cette technologie, même si personnellement, je pense qu’il devrait réduire sa consommation de films catastrophe, de caféine et sortir prendre l’air de temps en temps.

Voilà donc en attendant l’apocalypse robotique, rappelez vous une chose : On ne peut pas faire confiance à des gens qui ont des beubars aussi bien entretenues. C’est trop louche.

Source

Opcode transforme Claude Code en machine de guerre

Par : Korben
5 septembre 2025 à 14:03

Marre de jongler entre votre terminal et 15 onglets pour gérer vos sessions Claude Code ? Et bien les amis, je suis tombé sur Opcode , et c’est un super outil pour créer des checkpoints dans vos conversations IA comme vous faites des branches Git, pouvoir revenir en arrière quand Claude part en vrille mais également avoir une vraie vue d’ensemble de tous vos projets et agents…

Développé par Asterisk , une startup passée par Y Combinator, Opcode c’est l’interface graphique qui manquait cruellement à Claude Code. Au lieu de vous battre avec la ligne de commande, vous avez maintenant une vraie application desktop, native, rapide, qui tourne sur macOS, Linux et Windows. Ce truc est construit avec Tauri 2 , donc on parle de performances natives avec une UI moderne en React.

Claude Code est un outil génial pour coder avec de l’IA, et j’en sais quelque chose parce que je l’utilise tous les jours. Mais l’interface CLI peut vite devenir limitante quand vous jonglez avec plusieurs projets. Opcode transforme donc cette expérience en quelque chose de plus visuel et intuitif. Vous naviguez dans vos projets stockés dans ~/.claude/projects/ avec une interface graphique, vous voyez l’historique de vos sessions, et surtout, vous pouvez créer des agents personnalisés avec leurs propres prompts système.

Le système de time-travel m’a particulièrement plu car il permet de créer des checkpoints pendant vos conversations avec Claude. Comme ça, si l’IA part dans une mauvaise direction, hop, vous revenez au checkpoint précédent. C’est comme Git mais pour vos interactions IA. Ça évite de tout recommencer quand Claude comprend de travers ce que vous voulez.

Côté sécurité, les mecs d’Asterisk ne rigolent pas. Opcode utilise du sandboxing au niveau OS (seccomp sur Linux, Seatbelt sur macOS) pour isoler complètement les processus. Chaque agent peut avoir des permissions granulaires et vous décidez exactement ce qu’il peut faire ou ne pas faire. Et le plus important : zéro télémétrie. Toutes vos données restent en local, pas de cloud, pas de tracking. Votre code reste donc votre code.

Pour les agents personnalisés, c’est vraiment bien pensé. Vous créez des agents spécialisés avec leurs propres instructions système. Un agent pour le debug, un autre pour la documentation, un pour les tests unitaires. Chaque agent garde son historique, ses préférences, ses permissions. Vous construisez progressivement votre bibliothèque d’agents spécialisés qui connaissent vos habitudes de travail.

L’interface de tracking des coûts API est super pratique aussi. Vous voyez en temps réel combien de tokens vous consommez, le coût associé, avec des graphiques détaillés. Fini les mauvaises surprises en fin de mois. Comme ça, vous savez exactement où part votre budget Claude.

Pour installer Opcode, vous pouvez télécharger les binaires pour macOS, Linux (Windows arrive bientôt…) directement sur le site d’opcode .

Le code est sur GitHub , propre et bien documenté si ça vous chauffe. Voilà, ça permet de garder toute la puissance de l’outil CLI Claude Code, mais avec une interface qui rend l’expérience bien plus agréable. Si vous êtes un vibe codeur qui passe ses journées avec Claude, vous allez gagner un temps fou.

rsyncy - Une barre de progression pour suivre l’avancement de Rsync

Par : Korben
5 septembre 2025 à 13:50

Vous venez de lancer un bon gros rsync en prod pour migrer 3 téraoctets de données et votre boss vous sur-saoule toutes les 10 minutes avec des : “Alors, ça en est où ?” en boucle et vous, en bonne victime, vous répondez “Ça avance chef, ça avance…”.

On peut faire mieux non ? Et oui, avec rsyncy qui vous permet au lieu d’avoir un rsync muet qui vous laisse dans le noir, de profiter d’une vraie barre de progression visuelle. Comme ça, vous voyez le pourcentage d’avancement, la vitesse de transfert, le volume copié, le temps écoulé, l’ETA, le nombre de fichiers traités… Bref, toutes les infos pour répondre factuellement à votre hiérarchie et prendre des décisions éclairées de grand professionnel qui aura bientôt une augmentation de salaire ^^.

L’installation est super simple. Vous avez plusieurs options selon votre setup :

# One-liner universel
curl https://laktak.github.io/rsyncy.sh|bash

# Sur macOS avec Homebrew
brew install rsyncy

# Avec Go
go install github.com/laktak/rsyncy/v2@latest

# Avec pipx (version Python)
pipx install rsyncy

Et une fois installé, vous pouvez soit lancer rsyncy directement avec les mêmes arguments que rsync :

rsyncy -a /source/ /destination/

Soit piper la sortie de votre rsync habituel vers rsyncy :

rsync -a --info=progress2 -hv /source/ /destination/ | rsyncy

Ce qui est top, c’est qu’avec ce paramètre, rsyncy ajoute automatiquement les arguments nécessaires pour avoir le maximum d’informations comme ça y’a plus besoin de vous rappeler des bonnes options.

La barre de progression affichera quelque chose comme ça :

Et là, vous avez tout… la barre visuelle, le pourcentage, les données transférées, la vitesse actuelle, le temps écoulé et le nombre de fichiers traités. C’est clair, net et précis.

Pour les environnements où les couleurs posent problème (certains logs, scripts automatisés), vous pouvez les désactiver avec :

NO_COLOR=1 rsyncy /source/ /destination/

Pour les devs qui veulent debugger ou enregistrer leurs transferts rsync, l’auteur recommande d’utiliser “ pipevcr ”, un autre de ses outils qui permet d’enregistrer et rejouer des flux de données. Pratique pour tester rsyncy sans lancer de vrais transferts.

Voilà, comme ça avec rsyncy, vous savez exactement où vous en êtes et vous pouvez estimer si vous allez respecter votre fenêtre de maintenance, prévenir si ça va déborder, ou rassurer tout le monde que tout se passe bien.

Source

Les Final Fantasy Game Boy passent en couleur

Par : Korben
5 septembre 2025 à 13:50

Ah, ces longues heures passées sur Final Fantasy Legend, les yeux qui piquent devant l’écran vert monochrome de votre Game Boy. Vous vous souvenez ?

Et bien aujourd’hui, j’ai découvert un truc sympa. Un développeur a réalisé ce dont on rêvait tous à l’époque. Il a transformé ces classiques en véritables oeuvres d’art Game Boy Color, avec des palettes de couleurs méticuleusement choisies pour chaque élément du jeu.

Il s’agit d’Adam Rippon, le mec derrière la série indie Dragon Fantasy qui s’est lancé un défi de ouf : coloriser l’intégralité des jeux Final Fantasy sortis sur Game Boy. Je vous parle bien de quatre titres mythiques ici : Final Fantasy Legend I, II et III (les fameux SaGa au Japon), et Final Fantasy Adventure (le premier Seiken Densetsu).

L’histoire commence simplement… Adam jouait au premier Final Fantasy Legend et se disait que ce serait quand même mieux en couleur. Alors au lieu de râler comme nous on l’aurait fait, il a sorti son éditeur de code assembleur et s’est mis au boulot. Et le résultat a tellement plu à la communauté Game Boy qu’ils l’ont supplié de faire les suites. Et lui, en bon mec solide, il a livré.

Ce qui est vraiment impressionnant dans son travail, c’est le niveau de détail. Il n’a pas juste balancé trois couleurs au pif et basta. Non, chaque sprite, chaque tuile, chaque élément d’interface a été colorisé à la main pour respecter l’esprit des jeux originaux tout en exploitant les capacités de la Game Boy Color. Les romhacks portent même le suffixe “DX”, comme les vraies versions colorisées de Nintendo à l’époque (Zelda Link’s Awakening DX, vous vous souvenez ?).

Techniquement, c’est donc du solide. Les patches fonctionnent sur du vrai hardware Game Boy Color, et pas seulement sur émulateur, ce qui veut dire que si vous avez encore votre vieille console qui traîne dans un tiroir, vous pouvez mettre les ROMs patchées sur une cartouche flash et jouer comme si Nintendo avait sorti ces versions à l’époque.

Pour récupérer ces merveilles, vous avez donc plusieurs options. Les patches sont disponibles sur Romhacking.net , Romhack.ing ou directement sur le GitHub d’Adam si vous préférez compiler depuis les sources. Évidemment, il vous faudra les ROMs originales des jeux (que vous possédez légalement, bien sûr ^^), puis vous appliquez les patches avec un outil comme Lunar IPS.

Voilà, donc si vous êtes nostalgiques de cette époque où Square Enix (enfin, Square et Squaresoft à l’époque) sortait des JRPG sur Game Boy, ou si vous voulez découvrir ces classiques dans leur meilleure version possible, foncez. Les quatre jeux sont complets, testés, approuvés par la communauté. C’est donc le moment parfait pour replonger dans ces aventures, cette fois-ci en couleur.

Respect total à Adam Rippon pour le boulot de titan !

Source

mkcert - Un outil génial qui simplifie la mise en place de certificats HTTPS en local

Par : Korben
5 septembre 2025 à 11:49

Vous aussi, vous en avez marre de cliquer sur “Continuer vers ce site (non sécurisé)” dans votre navigateur à chaque fois que vous testez votre app en local ? Puis surtout, ça fait peur à tout le monde pendant les démos client…

Alors ça tombe bien car j’ai la solution parfaite pour vous.

Ça s’appelle mkcert et c’est un outil transforme la galère des certificats HTTPS locaux en une simple commande. 2 minutes chrono et vous avez des certificats valides, reconnus par votre navigateur, sans avoir à fouiller dans les tréfonds d’OpenSSL.

Le truc cool avec mkcert, c’est qu’il crée automatiquement une autorité de certification locale sur votre machine. Cette CA est ensuite directement installée dans votre système et reconnue par tous vos navigateurs. Comme ça, plus besoin de jongler avec des certificats auto-signés auxquels personne ne fait confiance. Chrome, Firefox, Safari… tout le monde est content et affiche le petit cadenas vert. Trop chouette non ?

Alors, comment ça marche ? Sur macOS avec Homebrew, moi j’ai fait ça :

brew install mkcert nss
mkcert -install

Et voilà, votre autorité de certification locale est créée et installée. Maintenant, vous voulez un certificat pour votre projet ? Une ligne suffit :

mkcert example.com *.example.com localhost 127.0.0.1

Et vous avez alors vos fichiers .pem prêts à être utilisés avec n’importe quel serveur web. Pas de configuration prise de tête, pas de paramètres chelous, juste ce qu’il faut pour bosser tranquillement. Notez que si besoin, vous pouvez renommer le .pem en .crt et le -key.pem en .key, et ça fonctionnera.

Ce qui est vraiment bien pensé, c’est que mkcert gère tous les cas d’usage du développement moderne. Vous pouvez donc créer des certificats pour des domaines spécifiques, des wildcards pour couvrir tous vos sous-domaines, localhost évidemment, mais aussi des adresses IP. Vous développez une API qui doit être accessible depuis votre téléphone sur le réseau local ? Pas de problème, ajoutez l’IP de votre machine et c’est réglé.

D’ailleurs, pour ceux qui bossent sur Windows, l’installation peut se faire via Chocolatey ou Scoop. Et sous Linux, il faut d’abord installer les outils NSS avec libnss3-tools, puis vous pouvez récupérer les binaires directement depuis les URLs stables comme [https://dl.filippo.io/mkcert/latest?for=linux/amd64](https://dl.filippo.io/mkcert/latest?for=linux/amd64).

Un point super important c’est que mkcert n’est PAS fait pour la production. Le fichier rootCA-key.pem généré contient la clé privée de votre autorité de certification locale donc si quelqu’un met la main dessus, il peut créer des certificats valides pour n’importe quel domaine sur votre machine. Pour la prod, on reste donc sur Let’s Encrypt ou une vraie autorité de certification.

Mais après pour le développement local, c’est juste parfait. Plus besoin de se battre avec les configurations Apache ou Nginx pour faire accepter des certificats bidons. Plus de warnings et surtout, vous pouvez enfin tester correctement toutes les fonctionnalités qui nécessitent HTTPS : service workers, API de géolocalisation, caméra, micro… Tout fonctionne comme en prod.

L’outil supporte même des trucs avancés comme la génération de certificats ECDSA si vous préférez les courbes elliptiques, ou le format PKCS12 pour certaines applications Java. Vous pouvez personnaliser l’emplacement de sortie des certificats, créer des certificats pour l’authentification client…

Bref, malgré que ce soit simple à mettre en place, mkcert couvre en réalité tous les besoins. Je vous recommande donc de tester ça !

Merci à Letsar pour la découverte !

Thunk - Une lib pour faire tourner du code Rust flambant neuf sous Windows XP

Par : Korben
4 septembre 2025 à 19:05

Ce serait pas foufou quand même si votre vieux PC sous Windows XP pouvait faire tourner des applications Rust compilées en 2025 ?

Bah c’est totalement ce que permet de faire Thunk , un outil qui réconcilie le passé et le présent pour les dev Rust qui veulent que leur app fonctionne partout, y compris sur de vieux Windows.

L’histoire commence avec ce constat simple : des millions de machines tournent encore sous Windows XP. Usines, hôpitaux, distributeurs automatiques, systèmes industriels… Ces dinosaures refusent de mourir, principalement parce qu’ils font tourner des logiciels critiques impossibles à migrer. Du coup, le souci c’est qu’il est impossible de développer de nouvelles applications pour ces systèmes avec les outils modernes.

Enfin, c’était impossible avant Thunk.

Car le créateur de Thunk, connu sous le pseudo felixmaker sur GitHub, a eu une idée trop cool. Plutôt que de forcer les développeurs à utiliser de vieux compilateurs et des langages datés, pourquoi ne pas adapter les outils modernes pour qu’ils produisent du code compatible avec les anciens systèmes ?

Son astuce repose sur deux bibliothèques chinoises méconnues : VC-LTL5 et YY-Thunks . La première, VC-LTL5, fait quelque chose de très utile puisqu’au lieu d’embarquer toutes les dépendances runtime dans votre exécutable (ce qui le rend énorme), elle se branche directement sur les DLL système de Windows comme msvcrt.dll ou ucrtbase.dll. Du coup, vos binaires perdent entre 30 et 50% de leur taille.

La seconde bibliothèque, YY-Thunks, c’est la MacGyver des API Windows. Quand votre application appelle une fonction qui n’existe pas sur Windows XP (comme GetTickCount64 par exemple), YY-Thunks intercepte l’appel et propose une alternative. Comme ça, si la fonction existe, elle l’utilise. Sinon, elle improvise avec ce qui est disponible. C’est du bricolage, certes mais c’est intelligent et ça fonctionne vraiment bien.

L’atout dans la manche de Thunk c’est donc sa simplicité d’utilisation. Il est juste disponible sous 2 formes. Soit en ligne de commande, soit comme dépendance dans votre projet.

Ensuite, pour compiler une application Rust pour Windows XP, trois lignes suffisent :

cargo new build_for_xp
cd build_for_xp
thunk --os xp --arch x86 -- --release

Et voilà, votre application moderne tournera sans souci sur une machine de 2001. C’est presque de la magie noire, sauf que c’est documenté et surtout open source. Et vous savez comme j’aime l’open source !

Bien sûr, felixmaker prévient dans sa documentation : “USE AT YOUR OWN RISK!” en majuscules car il n’y a aucune garantie que tout fonctionne. Certaines fonctionnalités modernes peuvent rester inaccessibles, et les performances peuvent varier d’une machine à l’autre et d’un programme à l’autre. Mais pour beaucoup de cas d’usage, notamment dans l’industrie où la stabilité prime sur les dernières nouveautés, c’est un compromis, je trouve, acceptable.

L’outil supporte surtout une impressionnante gamme de systèmes : Windows XP (x86 et x64), Vista, Windows 7, 8 et même Windows 10. Oui, vous pouvez optimiser vos applications Windows 10 pour qu’elles soient plus légères ce qui est particulièrement intéressant pour les applications embarquées ou tous les systèmes avec peu de ressources.

Bref, Thunk répond à un réel besoin notamment des entreprises. C’est aussi pour ça que je vous en parle, parce que j’imagine que dans vos entreprises, vous avez peut-être des vieux bazars que vous aimeriez faire évoluer sans tout péter. Donc c’est l’occasion de faire du code propre qui tournera sous XP, Vista et j’en passe. Et pour les copains passionnés de rétrocomputing, c’est aussi l’occasion de créer des applications modernes pour vos machines vintage

Maintenant pour l’installer, il vous faudra Rust :

cargo install thunk-cli

pour la version ligne de commande, ou

cargo add thunk-rs --build

pour l’intégrer sous forme de lib dans vos projets. Il vous faudra aussi télécharger les binaires de VC-LTL5 et YY-Thunks et configurer quelques variables d’environnement, mais la documentation explique tout clairement.

Voilà, je trouve ça plutôt cool que Rust, un langage créé en 2010, puisse maintenant produire du code pour un système d’exploitation sorti en 2001. C’est un genre de pont temporel qui défie la logique habituelle de l’obsolescence programmée.

On fait du neuf avec du vieux . Ou l’inverse. Je m’y perds un peu j’avoue…

❌
❌