Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 3 mars 2026Flux principal

ExifTool - Un PNG piégé peut pirater votre Mac

Par : Korben
3 mars 2026 à 18:55

Si vous utilisez ExifTool sur macOS, j'ai une mauvaise nouvelle pour vous ! Une faille critique vient d'être découverte dans cet outil que tout le monde (moi y compris) utilise pour lire et modifier les métadonnées des fichiers et c'est pas joli joli.

Cette vulnérabilité, référencée en tant que CVE-2026-3102 , touche toutes les versions jusqu'à la 13.49 et c'est spécifique à macOS. Cela permet à un attaquant de planquer des commandes système dans les tags de métadonnées d'un fichier image et quand ExifTool traite le fichier avec le flag -n... les commandes s'exécutent directement sur votre machine.

L'exploitation est ridiculement simple et 2 étapes suffisent. On vous envoie une image qui a l'air parfaitement normale, vous la passez dans l'outil pour lire ses métadonnées, et l'injection de commande se déclenche. L'attaquant peut alors ensuite télécharger des payloads malveillants ou carrément se servir dans vos fichiers sensibles.

C'est l'équipe GReAT de Kaspersky qui a trouvé le problème. Bon après, la bonne nouvelle c'est que Phil Harvey, l'auteur du soft, a déjà sorti le correctif dans la version 13.50, et ça depuis le 7 février dernier... donc ça fait presque un mois que le patch est dispo.

Du coup, si vous avez des scripts qui traitent automatiquement des images avec ExifTool sur votre Mac, par exemple dans un pipeline de forensique ou d' analyse EXIF , vérifiez ILLICO la version installée (exiftool -ver pour checker). Comme la complexité d'exploitation est faible, n'importe quel script kiddie pourrait s'en servir, donc autant agir vite.

Pour mettre à jour, un petit brew upgrade exiftool et c'est réglé (sinon, le .pkg est dispo sur le site officiel ). Attention, pensez aussi à vos scripts automatisés qui lancent ExifTool en arrière-plan, car c'est souvent là que les vieilles versions trainent...

Allez, bonne soirée les amis !

Source

80 ans d'ordinateurs résumés en 1 vidéo

Par : Korben
3 mars 2026 à 18:12

Je connaissais pas la chaine YouTube Branch Education, et je suis content d'être tombé là dessus parce qu'il ont eu une idée un peu dingue qui devrait vous plaire. En fait, ils ont démonté physiquement plus de 60 ordinateurs, consoles et smartphones, dessoudé les puces des cartes mères, pris des centaines de photos, et tout reconstruit en modèles 3D... ou plutôt, en reproductions ultra-détaillées. Et comme résultat, ils ont sorti une vidéo de 33 minutes qui retrace 80 ans d'évolution informatique... et vous allez voir, c'est plutôt classe.

En fait, quand je dis "modèles 3D", je vous parle pas de schémas vaguement animés... Non, chaque machine a été modélisée, de l'ENIAC de 1945 jusqu'à la Nintendo Switch et pour les plus récentes, comme je vous le disais, l'équipe a carrément dessoudé les composants pour voir l'intérieur des puces.

La vidéo utilise d'ailleurs une analogie bien trouvée pour visualiser la puissance de calcul : les briques LEGO. En fait, c'est tout bête... un calcul par seconde c'est une brique 2×4.

Du coup l'ENIAC et ses 5 000 opérations par seconde, ça donne un petit cube de rien du tout, la Super Nintendo et ses 1,8 million d'instructions c'est un cube qui remplit une pièce entière et le premier iPhone c'est un cube de la taille d'un immeuble de 2 étages. Quand aux cartes graphiques actuelles avec leurs téraflops... on sort carrément du cadre !

L'ENIAC

Si vous aimez les briques LEGO et l'informatique , vous allez être servis.

Le truc génial, c'est que la vidéo ne se contente pas de lister des ordis avec leurs specs. En fait, elle découpe l'Histoire de l'informatique en 8 "âges" distincts, chacun avec ses propres avancées. Et ce que vous voyez ici, c'est la première partie qui couvre les trois premiers : la "transistorisation" (adieu les 17 000 tubes à vide de l'ENIAC), le packaging des transistors avec IBM et les circuits intégrés, et l'arrivée des premiers processeurs.

Parce que l'évolution des ordinateurs, c'est PAS juste la loi de Moore. Entre la Super Nintendo et la Switch, y'a 26 ans d'écart et les transistors ont été multipliés par 80 000... Mais la puissance de calcul c'est par 1,4 MILLION qu'elle a été multipliée !!

La vidéo explique aussi comment les géants de chaque époque finissent par se faire dépasser... IBM contrôlait 70% du marché dans les années 60-70... Intel qui a raté le virage du mobile dans les années 2010...etc. Le piège, c'est qu'à chaque nouvel "âge", les règles changent et ceux qui ne s'adaptent pas se font bouffer.

Perso, je trouve le passage sur l'ENIAC assez ouf. 30 tonnes de machine, 17 000 tubes à vide, et quand l'un d'eux claquait (et ça arrivait souvent), fallait retrouver lequel dans une salle entière de racks. Les transistors étaient finalement plus fiables... sauf que quand y en avait un de mort, bonne chance aussi pour le trouver.

La vidéo est en anglais, mais les sous-titres traduits automatiquement en français sont dispo. D'autres épisodes couvriront les 5 âges suivants, jusqu'aux processeurs IA donc abonnez vous à leur chaine (j'ai pas d'actions en bourse chez eux...). Si vous êtes du genre nostalgique de la tech d'antan , vous allez adorer !

Merci à Lorenper pour le partage !

Des sites de jeux vidéo rachetés, vidés de leurs journalistes et remplis d'IA et de paris en ligne

Par : Korben
3 mars 2026 à 17:21

Clickout Media, une société de marketing, a racheté plusieurs sites de presse gaming (The Escapist, Videogamer, GamesHub) pour y virer les journalistes, les remplacer par des auteurs fictifs générés par IA et inonder les pages de contenus sur les casinos en ligne. Metacritic a dû retirer un test écrit par une IA.

Le rachat, puis le saccage

Clickout Media est une société assez discrète qui se présente comme une classique agence marketing. Depuis 2025, elle a racheté une série de sites spécialisés dans le jeu vidéo : GamesHub en Australie, Videogamer au Royaume-Uni, The Escapist, Esports Insider, et d'autres. À chaque fois, le schéma est identique. Les rédactions sont réduites, les budgets gelés, et les sites se retrouvent inondés de contenus sur les casinos, les paris sportifs et les cryptomonnaies. Pas génial donc.

La technique a un nom : le "parasitage SEO". On rachète un site avec une bonne réputation auprès de Google, et on exploite cette autorité pour faire remonter des pages de paris dans les résultats de recherche.

Des faux auteurs avec des fausses têtes

Le plus glauque dans l'histoire, c'est la création de faux journalistes. Videogamer publie des articles signés par "Brian Merrygold", présenté comme "analyste iGaming et paris sportifs", avec une photo de profil générée par IA. Le nom du fichier image d'un autre auteur, "Tanaka Haruto" sur GamesHub, contient littéralement "Gemini_Generated_Image". Un certain "Benny Carter" affiche un master de l'université d'Oxford dans un programme qui n'existe pas, ce que l'université a confirmé. Depuis février 2026, GamesHub ne publie plus que des articles écrits par ces profils fictifs. Pas très discret donc.

Un test IA sur Metacritic, et ça a pété

Le problème a été mis en avant massivement quand le test de Resident Evil Requiem signé "Brian Merrygold" est apparu sur Metacritic avec un 9/10. Les lecteurs ont vite repéré le style artificiel et le profil complètement bidon. Metacritic a d'ailleurs retiré la review et coupé les ponts avec Videogamer. Marc Doyle, cofondateur de Metacritic, a précisé de son côté que "plusieurs autres tests de Videogamer datant de 2026" avaient aussi été retirés du site.

Si on regarde du côté des journalistes, Cat Bussell, ex-rédactrice gaming de Videogamer, s'est vue proposer un poste d'"éditrice IA" sans aucun détail. Elle a refusé, qualifiant la démarche de "contraire à l'éthique". Lloyd Coombes, contributeur de The Escapist, a lui aussi confirmé son licenciement. Au total, une vingtaine de personnes ont perdu leur poste.

S'aider de l'IA pour rédiger des articles, pourquoi pas, nous sommes nombreux à utiliser l'IA comme un outil pour améliorer ou simplifier la rédaction de nos contenus, comme un graphiste qui utiliserait Photoshop. Mais éliminer l'humain dans le processus de rédaction, et remplacer leurs têtes par des photos générées par IA, c'est un peu spécial. A minima, autant assumer le truc à fond, et mettre des photos d'avatars de petits robots !

Sources : Aftermath , PressGazette

ITYLOS - Quand vos messages s'autodétruisent après lecture

Par : Korben
3 mars 2026 à 16:07

Envoyer un mot de passe par email en clair, on l'a tous fait au moins une fois dans notre vie (oui, oui vous aussi !!). C'est pourquoi ITYLOS propose une alternative radicale où vos messages s'autodétruisent après lecture afin que personne, pas même le serveur, ne puisse les lire.

Vous écrivez votre message sur itylos.com, vous choisissez une durée de vie (1h, 24h ou 7 jours), et youpla, vous récupérez un lien unique à envoyer. Et ensuite, une fois lu, le message est détruit ! Tout ça, sans compte à créer, sans app à installer... Vous ouvrez juste le site, vous collez votre texte et c'est parti.

Côté technique, c'est du lourd puisque le chiffrement se fait ENTIÈREMENT dans votre navigateur avec de l'AES-256-GCM, et la dérivation de clé passe par Argon2ID. Du coup, le serveur ne voit jamais votre message en clair... il ne fait que stocker un blob chiffré qu'il est incapable de déchiffrer. C'est du vrai zero-knowledge, mais ça reste bien sûr une webapp, donc si votre navigateur ne supporte pas la Web Crypto API (genre un vieux Firefox ESR), ça ne marchera pas.

Et le truc qui va plaire aux plus paranos d'entre vous, c'est le traffic padding où chaque requête est gonflée à 15 Ko de bruit aléatoire pour rendre l'analyse de taille de vos messages bien plus compliquée côté réseau. Oui, c'est un vrai vecteur d'attaque et oui, ils y ont pensé. D'ailleurs, les données ne touchent pas le disque selon eux puisque tout transite en RAM, ne laissant ainsi aucune trace. Bon, sauf si vous faites un copier-coller du message dans un fichier texte, là c'est de votre faute.

Le service tourne sur une infrastructure souveraine à Genève, en Suisse. Pas sur un VPS chez AWS ou Google Cloud, hein... et y'a aussi un warrant canary PGP, signé et mis à jour chaque mois. Comme ça, si le canari disparaît, vous saurez que quelqu'un est venu taper à la porte.

Et côté conformité, ITYLOS délivre même des certificats de destruction au format JSON (oui oui, un vrai fichier .json), dans l'esprit de l'article 17 du RGPD . Perso, c'est la première fois que je vois une messagerie éphémère aller aussi loin dans la traçabilité de l'effacement, donc chapeau !

L'histoire derrière Itylos est cool aussi d'ailleurs. Tout est parti quand le créateur a récupéré un disque dur d'occasion et s'est retrouvé avec la vie entière de l'ancien proprio dessus... photos, documents, tout le bazar. Ça l'a décidé à créer un outil où les données n'existent tout simplement pas assez longtemps pour fuiter.

Et en plus c'est gratuit, open source (le code est sur GitHub sous licence MIT), et si vous êtes du genre à chiffrer vos échanges (un peu comme les utilisateurs de Kloak ), ça vaut le coup d’œil !

Merci à Mehdi pour la découverte !

HiPixel - L'upscaling IA natif sur Mac

Par : Korben
3 mars 2026 à 15:59

Vous avez des photos en résolution pourrie qui traînent sur votre Mac ?

Du genre, des souvenirs de 2003 de vous et votre ex, en 640x480 que vous n'osez même plus ouvrir tellement c'est pixelisé de fou ? Hé bien HiPixel va vous aider car c'est une app macOS gratuite qui les upscale grâce à l'IA... et comme vous allez le voir, le résultat est plutôt cool.

C'est donc une app native SwiftUI qui utilise les modèles d' Upscayl pour faire de l'upscaling x2, x4 ou carrément x8 sur vos images, sauf que contrairement à Upscayl qui tourne sous Electron (et qui bouffe de la RAM parce que c'est du Chrome déguisé), c'est du 100% natif macOS. Le GPU est exploité directement via Metal, que vous soyez sur Apple Silicon ou sur un bon vieil Intel et moi c'est ça que j'aime !

L'interface de HiPixel, sobre et efficace

Côté formats, ça gère le PNG, le JPG et le WEBP. Vous pouvez aussi choisir de garder le format d'origine et pour ceux qui veulent pousser le truc encore plus loin, y'a une option de double upscaling... ou plutôt deux passes successives pour un résultat encore plus détaillé. Après faut pas s'attendre à des miracles non plus sur une photo de 3 pixels non plus... On n'est pas dans la série Les Experts à zoomer à l'infini sur des détails compressés de caméra de surveillance ^^.

Le truc super sympa aussi je trouve, c'est son option de "folder monitoring". Vous sélectionnez un dossier et hop, dès qu'une image atterrit dedans, elle est traitée automatiquement. Idéal si vous avez un workflow de traitement d'images à automatiser. D'ailleurs, y'a aussi un URL Scheme (hipixel://?path=/chemin/vers/image) pour l'intégrer dans vos raccourcis Shortcuts ou vos scripts Automator. Vous vous en doutez je pense, mais ça ne marche pas pour la vidéo par contre, c'est images only.

Et pour les bidouilleurs fous, l'app propose le TTA (Test Time Augmentation) qui améliore la qualité en faisant tourner le modèle sous plusieurs angles avant de combiner les résultats, et la possibilité de choisir quel GPU utiliser. Perso, sur un MacBook Air c'est chiant, mais sur un Mac Pro, ça peut faire la diff !!

Et si vous connaissiez déjà Final2x qui fait à peu près le même taf en cross-platform, HiPixel se distingue par son intégration macOS native et son batch processing en drag-and-drop. Vous balancez vos fichiers dessus, ça mouline, et c'est plié !

L'app est open source (AGPL-3.0), GRATUITE, et tourne sous macOS 13 Ventura minimum.

Voilà, si vous cherchez à redonner un coup de neuf à vos vieilles photos sur Mac, c'est le genre de petit outil qui fera le job sans prise de chou.

Un grand merci à Lorenper pour la découverte !

/e/OS - L'Android qui ne balance rien à Google

Par : Korben
3 mars 2026 à 15:47

La vie privée sur smartphone, on en parle beaucoup mais concrètement, on fait pas grand-chose. Trop galère de tout changer, trop de trucs liés à Google... Et puis un jour, y'a un mec, Gaël Duval (oui le papa de Mandrake Linux), qui a créé /e/OS en 2018 via la e Foundation . Un Android sans Google. Pour de vrai.

Concrètement e/OS, c'est un fork d'Android, open source et gratuit, qui vire TOUS les services Google. Pas de Play Services, pas de synchro avec Mountain View, rien. À la place, le système utilise microG, une réimplémentation libre des API Google. Du coup vos apps tournent normalement, mais sans que la moindre donnée parte chez Google. Attention quand même, certaines apps bancaires ou de streaming peuvent râler un peu sans les vrais Play Services... mais dans 95% des cas, ça passe à l'aise !

Côté apps, y'a l'App Lounge. C'est un store unifié qui mélange le catalogue F-Droid (100% open source) et les apps Android classiques. Le truc malin, c'est qu'il affiche un score de confidentialité pour chaque app... histoire de voir en un coup d'oeil lesquelles sont des mouchards. Comme ça, plus besoin de chercher pendant 3h.

Le score de confidentialité dans App Lounge... les mouchards sont grillés direct

Pour le tracking, Advanced Privacy bloque les trackers en arrière-plan, masque votre IP et peut même falsifier votre géolocalisation. Ajoutez à ça un bloqueur de pubs intégré au navigateur et le moteur de recherche Murena Find... bref, c'est une sacrée couche de protection par défaut.

Et là vous allez me dire "ouais mais ça marche sur 3 téléphones". Eh ben non bande de rageux ^^, car plus de 250 appareils sont compatibles. Des Pixel, des Samsung, des Xiaomi, des OnePlus, des Fairphone... La liste est looooongue. Et pour l'installation, y'a même un web installer qui fait tout depuis votre navigateur. Comme ça, pas besoin de bidouilles en ligne de commande pour les allergiques.

Par contre, attention ! Vérifiez bien que votre modèle est dans la liste avant de vous lancer, sauf si vous aimez les mauvaises surprises.

Et si vous voulez un smartphone déjà prêt, la boutique Murena en vend plusieurs. Le Fairphone 5 à 449€ pour ceux qui veulent du durable, le Fairphone 6 à 599€, et bientôt le HIROH à 999€ avec son kill switch matériel pour couper micro et caméra. Vous sortez le téléphone de sa boîte et vous êtes dégooglisés direct.

Les smartphones Murena, prêts à l'emploi sans Google

Côté cloud, Murena fournit 1 Go gratuit avec une adresse @murena.io, un service de mail et un coffre-fort chiffré (le Vault, basé sur CryptPad) tout ça hébergé en Europe. C'est pas des masses en stockage, mais pour du mail et des contacts c'est suffisant. D'ailleurs si vous cherchez des alternatives à Google Photos , y'a de quoi faire ici aussi.

Et pour ceux qui veulent aller encore plus loin sur la protection des données Android, le clavier Urik est un bon complément... parce que oui, votre clavier aussi peut balancer tout ce que vous tapez !

Si vous hésitez, sachez qu'une étude de 2021 des universités d'Édimbourg et de Trinity College Dublin a même confirmé que c'est l'une des ROM Android qui envoie le moins de données en arrière-plan. Pas "zéro" hein, faut pas rêver mais comparé à un Android stock... c'est le jour et la nuit.

Donc c'est pas parfait hein mais entre un Android qui balance tout à Google et un /e/OS qui fait le job sans moucharder... la question elle est vite répondue !

Obsidian CLI - Pilotez vos notes depuis le terminal

Par : Korben
3 mars 2026 à 15:38

Obsidian vient de sortir son CLI officiel qui propose des dizaines de commandes, un mode interactif avec autocomplétion, et la possibilité de tout piloter depuis votre terminal. Grâce à ça, vous allez pouvoir créer des notes .md, chercher, gérer vos tâches... le tout sans quitter votre shell !

Disponible depuis la version 1.12, le CLI d'Obsidian transforme donc votre terminal en poste de pilotage pour vos coffres de notes. Concrètement, vous tapez obsidian suivi d'une commande, et ça interagit direct avec l'app qui tourne en arrière-plan via un socket local. Du coup, plus besoin de jongler entre les fenêtres... un petit obsidian create mon-fichier.md et c'est plié.

En fait, quand je dis que c'est complet, c'est pas pour faire joli. On peut créer des notes en .md, en ouvrir avec obsidian open, les déplacer, les supprimer. Vous pouvez aussi chercher avec obsidian search "mon texte", gérer les tâches, interagir avec les plugins... y'a même une commande obsidian daily pour ouvrir votre note du jour en une seconde. Si vous tenez un journal au quotidien, c'est royal !

Et le truc qui envoie du paté, c'est le mode TUI (Text User Interface). Vous tapez obsidian tout court, et là vous tombez sur une interface interactive avec autocomplétion et navigation au clavier. Genre un mini-Obsidian dans le terminal ! D'ailleurs, vous pouvez aussi enchaîner les commandes avec des pipes |, ou récupérer le résultat d'une recherche dans le presse-papier avec --copy. Pas mal donc pour scripter vos workflows, sauf que attention, les pipes ne marchent pas en mode TUI.

Et si vous avez plusieurs coffres, pas de panique, puisqu'on peut cibler un vault précis avec vault=mon-coffre ou même pointer directement vers un fichier avec file=ma-note. Et pour les plus barbus d'entre vous, la commande eval permet d'exécuter du JavaScript directement dans le contexte d'Obsidian. Bon, c'est carrément pour les barbus, mais voilà, je sais que ce genre de trucs vous plait... Par exemple accéder à app.vault.getFiles() ou app.workspace direct depuis le shell.

Côté installation, ça dépend de votre OS. Sur macOS, ça enregistre le chemin dans votre ~/.zprofile. Sur Linux, un petit symlink dans /usr/local/bin et c'est réglé (sauf si vous êtes sur un snap, là c'est une autre histoire). Windows, c'est géré par un redirecteur obsidian.exe et dans tous les cas, il faudra activer le CLI dans les réglages d'Obsidian (Settings → General).

Attention quand même, ce CLI a besoin de l'app Obsidian v1.12+ pour fonctionner. Si elle ne tourne pas déjà, elle se lance automatiquement en tâche de fond. C'est donc pas un outil standalone, mais un pont entre votre shell et l'application. Après si vous cherchez un truc 100% headless pour syncer vos coffres sans l'app, jetez un oeil à Obsidian Headless , le client officiel qui tourne en ligne de commande avec Node.js.

Bref, si vous vivez dans votre terminal et que vous kiffez déjà genre les éditeurs de notes en terminal , foncez.

CyberStrikeAI : cet outil dopé à l'IA automatise les cyberattaques

Par : Korben
3 mars 2026 à 14:31

Un développeur chinois a mis en ligne CyberStrikeAI, une plateforme open source qui combine IA générative et plus de 100 outils offensifs pour automatiser les cyberattaques. En parallèle, un pirate amateur russophone a compromis plus de 600 pare-feu FortiGate dans 55 pays avec l'aide de DeepSeek et Claude, le tout en à peine cinq semaines. Les hackers aussi ont visiblement droit à leur copilote.

Un arsenal offensif piloté par l'IA

CyberStrikeAI est l'œuvre d'un développeur chinois qui se fait appeler Ed1s0nZ. L'outil, écrit en Go et publié sur GitHub, intègre plus de 100 outils offensifs : nmap, Metasploit, hashcat, mimikatz et bien d'autres. Le tout est piloté par des modèles de langage comme GPT ou Claude, qui se chargent de planifier les attaques, analyser les résultats et adapter la stratégie au fil de l'attaque. Le développeur a des liens avec Knownsec 404, une équipe de recherche en sécurité rattachée au ministère de la Sécurité d'État chinois via la CNNVD.

600 pare-feu tombés en cinq semaines

L'autre affaire est tout aussi parlante. Entre le 11 janvier et le 18 février 2026, un pirate russophone a compromis plus de 600 pare-feu Fortinet FortiGate dans 55 pays. Amazon Threat Intelligence a repéré la campagne et découvert un serveur mal sécurisé contenant plus de 1 400 fichiers : identifiants volés, scripts d'exploitation, logs d'attaque. Le pirate utilisait un serveur MCP baptisé ARXON et un orchestrateur en Go appelé CHECKER2, les deux s'appuyant sur DeepSeek et Claude pour automatiser le travail. Le pirate n'a même pas eu besoin d'exploiter de faille logicielle : des mots de passe faibles et des ports de gestion ouverts sur Internet ont suffi.

L'IA compense le manque d'expérience

Le pirate derrière les FortiGate n'est pas un vétéran : ses erreurs de sécurité opérationnelle, comme un serveur ouvert à tous les vents, trahissent un manque d'expérience flagrant. Sauf que l'IA a compensé. Là où il aurait fallu des années de pratique pour mener une campagne de cette envergure, les modèles de langage ont comblé les lacunes. CrowdStrike a d'ailleurs noté une hausse de 89 % des attaques assistées par IA en 2025. Et avec des outils comme CyberStrikeAI qui mettent l'arsenal offensif à portée de n'importe qui, ça ne va pas s'arranger.

Franchement, on n'est plus dans la théorie. L'IA offensive est devenue accessible, et les dégâts sont bien réels. Le problème, c'est que les garde-fous des modèles de langage sont toujours une passoire, et que tout le monde fait semblant de ne pas le voir.

Sources : cyberinsider , thehackernews

WiFi DensePose - L'outil qui voit à travers vos murs

Par : Korben
3 mars 2026 à 14:29

π RuView: WiFi DensePose est un projet qui fait un peu flipper puisque ça permet de transformer les ondes de votre box internet en détecteur de corps humains... à travers les murs ! Rythme cardiaque, respiration, posture, tout y passe et le pire (ou le mieux, c'est selon ^^), c'est que c'est open source et que vous pouvez tester ça chez vous.

En fait, le principe c'est que votre routeur WiFi émet des ondes radio en permanence et quand ces ondes traversent ou rebondissent sur un corps humain, elles sont perturbées d'une façon mesurable. Ce projet analyse donc ces perturbations via le CSI (Channel State Information, c'est-à-dire les données de chaque sous-porteuse du signal) et en déduit la position de 17 points du corps. Un peu comme la vision WiFi dont je vous parlais déjà ici , sauf que là c'est un vrai outil clé en main que vous pouvez utiliser.

Concrètement, ça capte la respiration (entre 6 et 30 respirations par minute), le rythme cardiaque (40 à 120 BPM), et ça peut suivre plusieurs personnes en même temps, tout ça à travers les murs, jusqu'à environ 5 mètres selon l'épaisseur et le matériau. Attention, les murs épais en béton et le métal dégradent pas mal le signal, voire le bloquent carrément selon l'épaisseur.

Ce qu'il vous faut

Pour juste tester l'interface web et les démos, il vous faut Docker . C'est tout.

Après pour la détection complète en conditions réelles avec le CSI, là c'est une autre histoire. Il faut 3 à 6 modules ESP32-S3 en mesh (comptez environ 50 euros le lot) ou une carte réseau Intel 5300 / Atheros AR9580 (entre 50 et 100 euros) et bien sûr, ça tourne sur Linux, macOS et Windows.

Sauf que voilà, avec un WiFi classique de laptop (ou plutôt sans carte CSI dédiée), vous aurez uniquement la détection de présence via RSSI... c'est très basique en fait. Pour la pose complète et les signes vitaux, ça ne marchera pas sans matériel CSI mais bon, c'est pas la mer à boire niveau budget non plus !

Installation avec Docker

La méthode rapide. Ouvrez un terminal :

docker pull ruvnet/wifi-densepose:latest
docker run -p 3000:3000 ruvnet/wifi-densepose:latest

Hop, vous ouvrez http://localhost:3000 dans votre navigateur et vous tombez sur un dashboard de monitoring en temps réel.

Compiler depuis les sources

Et pour ceux qui veulent mettre les mains dans le cambouis :

git clone https://github.com/ruvnet/RuView.git
cd RuView
./install.sh --profile rust --yes

Ce repo RuView, c'est en fait la version compilable du projet WiFi DensePose. Il faut donc Rust et Python car le cœur du truc est écrit en Rust et le pipeline de traitement CSI en python annonce pouvoir traiter 54 000 frames par seconde environ. C'est lui qui gère le machine learning derrière. Sur le papier c'est donc très impressionnant, mais reste à voir ce que ça donne en conditions réelles.

Du coup, côté vie privée, c'est clairement un sujet à double tranchant. Par exemple, pouvoir surveiller une personne âgée chez elle sans capteur intrusif, ou pour détecter des survivants dans des décombres... c'est super !! Mais scanner les gens à travers les murs sans qu'ils ne le sachent, c'est une autre paire de manches... Et tout ça est sous licence MIT... donc autant dire que ça ne va pas trainer pour devenir des outils clés en main à la portée de n'importe qui.

Merci à Florian pour le lien et amusez-vous bien avec ça... mais évitez quand même de scanner vos voisins !

Il branche 56 piles AA pour faire tourner son PC de bureau

Par : Korben
3 mars 2026 à 09:41

Le YouTuber ScuffedBits a tenté un pari un peu débile : alimenter un PC de bureau Intel sous Windows 10 avec des piles AA en remplacement de l'alimentation classique. Après plusieurs tentatives ratées avec 8 puis 24 piles, il a fini par en brancher 56, accompagnées de deux gros condensateurs. Résultat : à peine quatre minutes de Démineur avant que tout s'éteigne.

De 8 à 56 piles

L'idée de départ est simple : remplacer le bloc d'alimentation d'un PC de bureau par des piles AA du commerce. ScuffedBits a utilisé une machine plutôt modeste (processeur Intel d'entrée de gamme, deux barrettes de RAM, un SSD SATA 2,5 pouces sous Windows 10) et un adaptateur ATX acheté sur AliExpress qui accepte du 12 volts en courant continu. Les premiers essais avec 8, 16 puis 24 piles n'ont rien donné. Le câblage trop fin et les chutes de tension sous charge faisaient planter la machine instantanément. Il a fallu passer à 56 piles alcalines montées en série et en parallèle, et ajouter deux condensateurs électrolytiques de 6 800 µF pour lisser les pics de consommation. Là, le PC a enfin démarré.

Quatre minutes de Démineur

Une fois Windows chargé, ScuffedBits a tenté de lancer le Démineur. La partie en mode facile a duré quatre minutes et 35 secondes, pile le temps de finir une grille avant que le PC et les piles rendent l'âme au même moment. Lancer Steam s'est montré plus gourmand : le système a tenu 52 secondes avant de couper. Et quand il a voulu tester un vrai jeu, A Short Hike, avec une carte graphique cette fois, la tension est tombée sous les 10 volts en quelques secondes. Le PC a affiché l'image pendant cinq secondes puis tout s'est éteint. Avec environ 70 watts de consommation en charge, les piles AA ne peuvent tout simplement pas fournir l'énergie assez vite, mais on va dire que ça ne devrait pas vous étonner !

L'écran s'en sort bien mieux

Détail amusant de l'expérience : l'écran LCD utilisé pour les tests tournait lui aussi sur piles, des NiMH rechargeables cette fois. Et il a fonctionné bien plus longtemps que le PC. Huit accumulateurs ont suffi à alimenter le moniteur pendant toute la durée des essais sans broncher. La différence de consommation entre un écran et un PC de bureau, même modeste, est quand même énorme.

L'expérience ne sert à rien, et c'est pour ça qu'elle est chouette. 56 piles AA pour jouer au Démineur quatre minutes, c'est un ratio catastrophique, mais au moins ça nous rappelle à quel point nos PC consomment.

Sources : Hackaday , Tom's Hardware

Attention, les résumés par IA de Google peuvent vous envoyer vers de faux SAV d'arnaqueurs

Par : Korben
2 mars 2026 à 16:29

Les AI Overviews de Google, ces résumés générés par intelligence artificielle en haut des résultats de recherche, affichent parfois de faux numéros de service client. Des arnaqueurs exploitent la fonctionnalité pour piéger les utilisateurs et leur soutirer de l'argent. Si elle n'est pas encore disponible en France, elle l'est dans plus de 200 pays, et ChatGPT est lui aussi concerné.

Des faux numéros dans les résultats de recherche

Alex Rivlin, un entrepreneur américain, a cherché le numéro du service client de Royal Caribbean sur Google. Le résumé IA affiché en haut de page lui a fourni un numéro. Il a appelé, une personne s'est présentée comme employée de la compagnie, a répondu à ses questions, puis lui a fait payer 768 dollars pour un service gratuit. Rivlin a compris l'arnaque en voyant deux débits suspects sur son compte.

Une technique vieille de 30 ans

Le mécanisme est assez simple. Les arnaqueurs publient le même faux numéro de téléphone sur des dizaines de sites web, forums et pages d'avis, en l'associant au nom d'une entreprise connue. L'IA de Google, en balayant ces sources pour construire ses résumés, aspire le numéro sans le vérifier et le présente comme une information fiable. Mike Blumenthal, analyste chez Near Media, rappelle que cette technique date de 30 ans (oui, 30 ans). La différence, c'est qu'avant, il fallait quand même scroller et comparer les résultats. Avec les résumés IA, le faux numéro est servi directement, sans effort.

Pas encore en France, mais attention quand même

Les AI Overviews sont actifs dans plus de 200 pays, mais pas en France pour le moment à cause d'un conflit autour des droits voisins. En Europe, la fonctionnalité est déjà active en Allemagne, en Espagne, en Italie et en Belgique. Si vous voyagez ou si vous utilisez Google en anglais, vous pouvez tomber dessus. Et le problème ne se limite pas à Google : ChatGPT affiche lui aussi ces faux numéros. Le réflexe à avoir : ne jamais appeler un numéro trouvé dans un résumé IA sans le vérifier sur le site officiel de l'entreprise.

Google possède déjà une base de données avec les coordonnées vérifiées de millions d'entreprises, et la plupart ont un compte Google Business. Utiliser ces données plutôt que de scraper le web à l'aveugle, ça semble quand même assez logique. Mais visiblement, l'IA préfère aller chercher n'importe où. On espère que ça sera corrigé avant l'arrivée de la fonctionnalité en France, parce que si c'est pour se faire arnaquer en appelant un SAV, on n'est pas rendus.

Sources : Wired , Security Boulevard (visuel : Pexels )

Hier — 2 mars 2026Flux principal

Thales sécurise les cartes SIM 5G contre la menace quantique, et c’est une première

Par : Korben
2 mars 2026 à 14:00

Thales vient de réaliser une première mondiale en démontrant qu'il est possible de mettre à jour la protection cryptographique des cartes SIM et eSIM 5G déjà en circulation, à distance et sans couper la connexion. De quoi préparer dès maintenant les réseaux mobiles à la menace des futurs ordinateurs quantiques, et ce sans avoir à remplacer physiquement les cartes.

Une mise à jour silencieuse, et c'est tout

Thales a donc montré qu'on peut télécharger de nouveaux algorithmes cryptographiques directement sur une carte SIM ou eSIM 5G, sans que l'utilisateur n'ait quoi que ce soit à faire. La mise à jour se lance en arrière-plan, un peu comme un update logiciel classique, sauf que c'est la carte SIM elle-même qui reçoit une nouvelle couche de protection (et vous n'avez même pas à cliquer sur « installer plus tard »). Le service n'est pas interrompu, les données sont préservées, et la connexion continue de fonctionner normalement. Bref, c'est totalement transparent.

Des milliards de cartes SIM à protéger

Les ordinateurs quantiques, quand ils seront assez puissants, pourront casser les systèmes de chiffrement actuels. Et la 5G ne sert pas qu'à regarder des vidéos ou envoyer des messages. Elle transporte aussi les communications des véhicules connectés, des services d'urgence et de nombreuses infrastructures du quotidien. Du coup, sécuriser ces réseaux avant l'arrivée des ordinateurs quantiques, c'est tout sauf un détail. Remplacer physiquement toutes les cartes SIM en circulation dans le monde serait impossible, trop long et beaucoup trop cher. C'est ce mur que Thales a contourné avec ce qu'il appelle l'agilité cryptographique : mettre à jour les SIM existantes à distance, plutôt que d'attendre la prochaine génération de cartes.

La France en première ligne

Thales ne fait pas que démontrer la faisabilité de la chose. Le groupe conçoit ses propres algorithmes résistants au quantique, soumis aux organismes de standardisation internationaux dont le NIST américain. L'ANSSI a d'ailleurs émis fin 2025 ses deux premières certifications de produits intégrant de la cryptographie post-quantique, et Thales en fait partie. Avec plus de 4 milliards d'euros investis chaque année en R&D et 83 000 collaborateurs dans 68 pays, le groupe avait déjà travaillé avec SK Telecom et Samsung sur le chiffrement post-quantique de la 5G. Le déploiement à grande échelle sur les réseaux commerciaux et privés est la prochaine étape.

Ce n'est franchement pas tous les jours qu'un industriel français arrive premier sur un sujet aussi pointu. Thales a prouvé que la sécurité post-quantique n'est pas uniquement un truc de labo : on peut déjà préparer les réseaux existants sans tout casser. Maintenant, il va falloir que les opérateurs suivent et décident de pousser ces mises à jour sur leurs parcs. Parce que la démo, c'est bien, mais tant que votre eSIM n'a pas reçu sa couche de crypto post-quantique (punaise ça claque), on est toujours dans la théorie. Bref, un jour votre carte SIM se mettra à jour toute seule pour résister à un ordinateur quantique. Et vous ne vous en rendrez même pas compte.

Source : Socialnews , AFP

Cutia - Montage vidéo open source, direct dans le navigateur

Par : Korben
2 mars 2026 à 13:11

Bon, vous connaissez tous CapCut car TOUT LE MONDE connaît CapCut. Sauf qu'avec ce truc, vos fichiers atterrissent directement sur les serveurs de l'entreprise chinoise ByteDance. Hé bien Cutia , c'est pareil mais en open source, dans le navigateur, et vos vidéos restent chez vous ! Elle est pas belle la vie ?

Cutia c'est donc un éditeur vidéo qui tourne entièrement dans votre browser, genre Chrome ou Firefox et côté fonctionnalités, on a le kit classique bien fichu de la timeline multi-pistes pour empiler de la vidéo, de l'audio, du texte et même des stickers, sans oublier une preview en temps réel, et de l'export en MP4 ou WebM. Y'a pas de watermark et c'est gratuit !

Alors oui, c'est pas Premiere Pro, clairement, mais pour du montage rapide ça fait largement le taf (sauf si vous devez gérer du 4K sur 2 heures, évidemment). Et le truc cool, c'est que tout est local-first. Vos rushs restent sur votre disque, le traitement se fait côté navigateur, et à aucun moment vos fichiers ne transitent par un serveur tiers.

Si vous faites des Reels, des TikTok ou des petites vidéos pour vos projets, c'est donc largement suffisant. Y'a pas besoin de sortir l'artillerie lourde pour couper trois clips et coller du texte par-dessus. D'ailleurs, si vous êtes plutôt du genre à automatiser vos montages vidéo avec CapCut et ChatGPT , j'ai un tuto pour ça.

Y'a aussi des éditeurs vidéo libres comme Shotcut qui existent depuis longtemps, mais ils nécessitent une installation. L'avantage de Cutia, vous l'aurez compris, c'est que vous ouvrez un onglet et c'est parti mon kiki !

Le projet est un fork d' OpenCut , sous licence MIT, et c'est encore jeune donc y'a du boulot sur pas mal de trucs (par exemple l'export rame un peu sur les grosses vidéos et ça ne marche pas encore sur Safari), mais la base est là.

Pour les plus barbus d'entre vous, c'est auto-hébergable avec du Docker ou Vercel en un seul clic. Après sur la home, le site présente l'app comme "AI-native", mais en fait y'a RIEN de visible côté IA pour l'instant. C'est surtout un éditeur vidéo solide dans le navigateur, et c'est déjà pas mal du tout.

Bref, pour du montage rapide sans prise de tête, ça vaut le coup d’œil. Merci à Lorenper pour le partage !

RetroTick - Vos vieux .exe qui tournent dans le navigateur

Par : Korben
2 mars 2026 à 12:47

Bonjour les nostalgiques qui aimaient quand l'informatique c'était simple ! Aujourd'hui, j'aimerais vous parler de RetroTick , qui est un émulateur x86 qui fait tourner des exécutables Windows à l'ancienne et DOS directement dans votre navigateur. De FreeCell au Démineur en passant par SkiFree, hop, vous glissez-déposez le .exe (ou le .com pour le DOS) et ça tourne impeccable !

Ce projet reproduit une couche Win32, Win16 et DOS, le tout codé en TypeScript (99,8% du repo) sans avoir besoin ni de VM, ni de Wine / QEMU qui rame dans un coin. Vous ouvrez une page web, vous balancez votre fichier .exe, et ça s'exécute.

Le rendu 3D s'appuie sur WebGL2 pour interpréter les vieilles commandes OpenGL, du coup le screensaver Maze ou 3D Pipes (oui, les tuyaux moches de Windows 98) s'affichent nickel. Il y a même un gestionnaire de fenêtres multi-fenêtre avec barre des tâches, z-order et tout le bazar. Ambiance 1998 assurée dans un onglet de navigateur.

D'ailleurs, RetroTick ne se limite pas à faire du fun rétro. Si vous bossez par exemple dans une boîte qui traîne encore des outils legacy, genre des logiciels métier qui tournent uniquement sur Windows XP ou un truc codé en 2003 sous Visual Basic 6, ce genre de projet pourrait ouvrir quelques portes...

L'interface RetroTick dans le navigateur, ambiance Windows 98

En effet, rendre ces vieux programmes accessibles via un navigateur, sans avoir à maintenir des machines virtuelles sur chaque poste, c'est carrément pas bête. Pour les DSI qui gèrent des parcs hétérogènes, ça pourrait donc éviter pas mal de prises de tête.

Le système de fichiers est virtuel, et vos fichiers survivent entre les sessions grâce à IndexedDB (sauf si vous videz le cache du navigateur, évidemment). Et si vous connaissez déjà v86, l'émulateur x86 en WebAssembly , RetroTick est en fait assez différent parce qu'il n'émule pas un PC complet. Il traduit directement les appels Win32/DOS vers des API web natives, donc forcément, c'est bien plus léger.

Côté licence, c'est du CC0 1.0, en gros du domaine public et toute la base de code a été générée par IA (il y a même un CLAUDE.md dans le repo).

C'est donc brouillon par endroits, les rendus plantent encore et il manque des trucs et ça ne marche pas avec tous les .exe non plus. Mais au final, c'est un projet qui progresse assez vite donc ça devrait se bonifier avec le temps ! Voilà.

Et si les émulateurs rétro dans le navigateur vous branchent, allez jeter un oeil aussi à cet article.

Constrict - Vos vidéos pile à la bonne taille

Par : Korben
2 mars 2026 à 12:27

Vous avez une vidéo trop lourde pour Discord et sa limite pourrie à 10 Mo ? Du coup, vous passez une demi-heure à bidouiller les réglages d'encodage pour trouver le bon bitrate... sauf que ça marche jamais du premier coup.

Constrict , c'est une app GNOME (Linux uniquement, du coup...) qui règle ce problème de la façon la plus logique possible. Vous lui donnez une taille cible en Mo, et elle se débrouille toute seule pour que votre vidéo rentre pile-poil dedans.

C'est le genre de truc indispensable quand Discord vous bloque à 10 Mo en compte gratuit, que Telegram impose aussi ses propres limites, ou que vous voulez envoyer un fichier par mail sans que ça foire.

En gros, au lieu de deviner quel débit binaire il faut, vous dites juste "je veux que ça fasse 8 Mo" et hop, l'outil calcule automatiquement le bitrate, la résolution, le framerate et la qualité audio pour coller à votre objectif.

Côté codecs, c'est plutôt complet puisqu'on a du H.264 pour la compatibilité, HEVC si vous voulez du lourd sans le poids, AV1 pour les plus patients (attention, l'encodage prend nettement plus longtemps que du H.264... mais le ratio qualité/taille est dingue !) et VP9 pour les adeptes des formats ouverts. Du coup, que vous envoyiez votre clip sur un réseau social, une messagerie instantanée ou par mail, y'a toujours un codec adapté !

Et si vous avez tout un dossier de vidéos à réduire, Constrict gère également le traitement par lot. Vous sélectionnez vos fichiers, vous choisissez la taille cible et un répertoire de sortie, et ça mouline tout seul (sauf si vous lancez 50 fichiers en AV1... là, prévoyez beaucoup de café). En tout cas, c'est quand même plus agréable qu'un script FFmpeg bricolé à la main.

Après si vous essayez de faire rentrer un film 4K de 2h dans 8 Mo... ça va être super moche...

L'app fait de son mieux pour garder un max de qualité, mais y'a des limites physiques (hé oui la compression, ça ne marche pas comme de la magie). D'ailleurs, si la réduction demandée est trop violente, l'outil vous préviendra que c'est mort !

L'app est développée en Python avec GTK4 et Libadwaita, du coup l'interface est native et bien intégrée au bureau GNOME. Elle est certifiée GNOME Circle (ce qui est plutôt bon signe côté qualité) et le code est sous licence GPL-3.0, donc gratuit et open source. Pour l'installation, ça passe par Flatpak sur Flathub ... un :

flatpak install flathub io.github.wartybix.Constrict

... et c'est plié !

Si vous cherchez des alternatives dans le même genre, MystiQ fait de la conversion multiformat et Adapter est un bon couteau suisse basé sur FFmpeg. Mais aucun des deux ne propose ce ciblage par taille, et c'est ça le vrai plus de Constrict !

Merci à Lorenper pour la découverte !

Spank - Donnez des petites fessées à votre MacBook quand il n'est pas sage

Par : Korben
2 mars 2026 à 11:59

Filer des petites claques à son MacBook pour qu'il couine... c'est le genre de projet qu'on s'attend à trouver sur GitHub d'un Otaku sauf que là, c'est du sérieux... Enfin presque.

Spank (Ah ah !), c'est un petit binaire en Go qui exploite l'accéléromètre de votre MacBook Apple Silicon via IOKit HID qui dès qu'il détecte un choc physique sur la machine, joue un petit son.

Dans Spank, y'a 4 modes au choix. D'abord le mode "pain" par défaut qui balance aléatoirement une dizaine de clips audio de protestation quand vous lui mettez une baffe. Là ça va vous plaire un peu plus car il y a également le mode --sexy, qui lui, monte en intensité au fil des claques sur une fenêtre glissante de 5 minutes, avec 60 niveaux d'escalade (ouch !).

Et pour les fans de Master Chief, il y a le mode --halo qui joue les sons de mort du jeu. Et si rien de tout ça ne vous parle, --custom /chemin/vers/vos/mp3 vous permettra de balancer vos propres fichiers audio.

En fait, derrière ce délire, il y a une détection plutôt costaud. Notamment des algorithmes qu'on retrouve en sismologie (comme STA/LTA, CUSUM, kurtosis) qui analysent les données brutes du capteur du MacBook pour distinguer une vraie claque d'un mouvement de sac à dos.

Vous pouvez également régler la sensibilité avec --min-amplitude... de 0.05 g (un effleurement suffit) à 0.50 g (là faut le déglinguer !!). Par défaut c'est calé à 0.30 et ça se combine avec les modes, genre sudo spank --sexy --min-amplitude 0.2 pour un laptop ultra-réactif dans les petits cris.

Pour l'installer :

go install github.com/taigrr/spank@latest

ET sinon y'a aussi des binaires précompilés sur la page des releases, donc pas besoin d'installer Go sur votre machine. Et ça nécessite sudo parce que macOS protège l'accès au capteur matériel via IOKit donc faut lancer comme ceci : sudo spank dans le terminal.

D'ailleurs si vous voulez que votre Mac réagisse H24, y'a également un template launchd fourni (fichier .plist à coller dans /Library/LaunchDaemons/) pour le configurer en daemon au démarrage, un peu comme quand on doit automatiser d'autres outils macOS . C'est parfait pour piéger un collègue (Le 1er avril arrive bientôt !!!)... Le gars qui pose son café un peu fort à côté de l'ordi, va rougir assez vite...

Seul bémol, attention, ça ne marche pas sur Mac Intel. Faudra du Apple Silicon M2 minimum, car le capteur accéléromètre n'existe tout simplement pas sur les anciens modèles. Le binaire fait ~4 Mo tout mouillé, y'a pas de dépendances et c'est sous licence MIT.

Voilà voilà. Tapez pas trop fort quand même ! Après je crois qu'Apple va bientôt sortir de nouveaux MacBooks, donc c'est peut-être l'occasion aussi d'en changer... ^^

Merci à Lorenper pour la fessée... euh pour le lien !

L'enshittification, ou comment les géants de la tech dégradent volontairement vos services

Par : Korben
2 mars 2026 à 11:58
– Article invité, rédigé par Paingout –

Le Conseil norvégien des consommateurs vient de publier un rapport au titre évocateur : Breaking Free. Avec le soutien de plus de 70 organisations en Europe et aux États-Unis, il met un mot sur ce que beaucoup ressentent : les services numériques se dégradent, et c'est tout sauf un accident. Le phénomène s'appelle l'enshittification, et le rapport propose des pistes pour inverser la tendance.

Le terme enshittification a été inventé par l'auteur et militant Cory Doctorow en 2023 pour décrire un mécanisme bien rodé : une plateforme commence par offrir un service de qualité pour attirer les utilisateurs, puis dégrade progressivement l'expérience pour maximiser ses revenus. Le rapport Breaking Free, publié il y a quelques jours par le Conseil norvégien des consommateurs, reprend ce concept et l'applique à l'ensemble du secteur de la tech. Le constat est clair : il ne s'agit pas d'un effet secondaire, mais de choix délibérés.

Des exemples que tout le monde connaît

Le rapport liste des cas très concrets, et il y a de fortes chances que vous en ayez fait l'expérience. Par exemple, les fils Facebook et Instagram sont envahis de publicités frauduleuses, et Meta toucherait environ 16 milliards de dollars par an grâce à ces pubs douteuses, soit 10 % de son chiffre d'affaires. Les résultats de recherche Google passent par un filtre IA qui les rend moins précis qu'avant. Snapchat fait payer pour conserver ses souvenirs. Si vous avez une voiture connectée, il faut parfois un abonnement pour démarrer le chauffage à distance. Même les enceintes connectées qui tombent en panne vous redirigent vers un chatbot incapable de résoudre quoi que ce soit.

Le Conseil norvégien ne se contente pas de dénoncer. Il propose aussi des mesures : renforcer les droits des consommateurs à contrôler, réparer et modifier leurs produits, imposer l'interopérabilité et la portabilité des données, financer des alternatives open source, et surtout réduire la dépendance des services publics aux géants du numérique. Les lettres ont été envoyées aux gouvernements de 12 pays et à la Commission européenne. Et pour accompagner le tout, le Conseil a produit une vidéo satirique qui met en scène le quotidien d'un "enshittificateur" dans une grosse boîte tech.

Franchement, c'est un sentiment qu'on a tous eu je pense. Entre les feeds de nos réseaux sociaux qui deviennent affligeants, les résultats de recherche qui deviennent infernaux, ou des appareils qui nous demandent subitement de payer un abonnement pour conserver une fonctionnalité, c'est infernal. Moi, ce qui m'agace, c'est que tout ça nous est présenté comme de "l'amélioration de l'expérience", alors qu'on sait très bien que c'est de la monétisation à outrance. Au moins, maintenant, il y a un mot pour ça.

Source : BoingBoing , Forbrukerradet

Cortical Labs CL1 - Des neurones humains jouent à Doom

Par : Korben
2 mars 2026 à 11:43

Cortical Labs avait déjà fait jouer ses neurones à Pong. Du coup, forcément, fallait que ça leur monte à la tête... car cette fois, ils ont lâché environ 200 000 cellules cérébrales humaines sur Doom, et en moins d'une semaine, elles ont appris à y jouer !

Pour ceux qui auraient loupé l'épisode précédent, le CL1 c'est un bioordinateur avec environ 800 000 neurones humains cultivés sur une puce (dont ~200 000 utilisés ici). J'en avais parlé à son lancement, quand les neurones se contentaient de faire des parties de Pong (ce qui était déjà pas mal pour des cellules dans une boîte de Petri). Mais bon, Pong c'est sympa 5 minutes... mais l'équipe de Cortical Labs a visé plus haut !

Aidés par le développeur indépendant, Sean Cole, ils ont réussi à connecter Doom au CL1 via l'API cloud de Cortical Labs afin que les neurones reçoivent une version simplifiée de l'écran sous forme de stimulations électriques et renvoient des spikes décodés en commandes (avancer, tourner, tirer).

Le Dr. Brett Kagan, le directeur scientifique de la boîte, explique que "les cellules jouent un peu comme un débutant"... et arrivent quand même à chercher les ennemis, leur tirer dessus et tourner sur elles-mêmes.

Le truc carrément chelou, c'est que personne ne comprend exactement COMMENT les neurones apprennent à jouer. On sait juste qu'ils utilisent un truc appelé "adaptive real-time goal-directed learning"... ou plutôt, on sait qu'ils apprennent, mais en fait personne ne sait POURQUOI ça marche. Les cellules s'auto-organisent et bricolent des stratégies toutes seules, quoi...

D'ailleurs, la complexité de Doom a poussé Cortical Labs à développer le Cortical Cloud, une infra dédiée pour gérer le traitement en temps réel. Bref, Doom sur des neurones biologiques, ça demande un poil plus de tuyauterie que Pong et si vous pensiez que c'était réservé aux labos, détrompez-vous.

En effet, le projet est open source, dispo sur GitHub , et les développeurs peuvent accéder au CL1 via l'API cloud. Ça rappelle un peu le projet chinois Darwin Monkey qui simule un cerveau de singe, sauf qu'ici ce sont de VRAIS neurones humains, pas une simulation.

Attention quand même, faut pas s'emballer... les neurones jouent comme des pieds. Ils galèrent, ils tournent en rond, ils ratent des ennemis à bout portant. On dirait moi sur Arc Raider... Et ça ne marche pas à tous les coups non plus, puisque les performances varient d'une session à l'autre. Mais le fait qu'ils apprennent sans qu'on leur dise comment... je trouve ça carrément dingue.

Du coup, si vous voulez voir des neurones galérer sur Doom, je vous invite à regarder cette vidéo :

Je pense que je vais acheter un CL1 pour moi et lui apprendre à écrire des articles, parce que c'est pas bien compliqué ^^ et comme ça après, je pourrais prendre ma retraite et jouer à Doom ^^.

Source

La 4K c'est surfait... Vive le cinéma en 24p !

Par : Korben
2 mars 2026 à 11:29

Regarder un film dans des conditions parfaites en 2026, ça passe forcément par un écran des années 2000 ! Bah quoi ? Vous vous dites qu'est ce qu'il a encore fumé le gars ? Mais ouais, vous avez bien lu parce que pendant que tout le monde court après les dalles OLED 4K à 120 Hz à se toucher la nouille, y'a une petite communauté de passionnés qui redécouvre les bons vieux moniteurs CRT de PC pour mater des films en vrai 24p... et le résultat est vraiment chouette !

Car le problème avec la plupart des écrans, c'est qu'ils tournent à 60 Hz (ou sont configurés en 60 Hz par défaut). Et 24 images par seconde, ça rentre pas pile poil dans 60 (coucou les matheux !). Du coup, votre TV fait du "3:2 pulldown", c'est-à-dire qu'elle affiche certaines images 3 fois et d'autres 2 fois pour combler le trou. Et cela provoque une micro-saccade que vous voyez dans les travellings et qui est vite agaçante...

Bonne nouvelle, c'est pas le film qui est merdique, c'est votre écran qui galère sa mère. Et y'a pas grand-chose à faire côté logiciel pour compenser... ou plutôt, pas sur un écran 60 Hz classique.

Un moniteur CRT de PC, lui, s'en fiche complètement. Il peut se synchroniser sur n'importe quel taux de rafraichissement. Et c'est là que l'astuce de Bob (de RetroRGB) entre en jeu. Avec un simple Raspberry Pi 4, un convertisseur ACTIF HDMI vers VGA (genre un Lindy 38191 à une vingtaine d'euros) et LibreELEC avec Kodi, vous pouvez balancer du 23,976 Hz natif sur votre vieux tube cathodique. Et là, vous passez en mode cinéma pur, sans aucune interpolation !

En gros, plutôt que d'envoyer du 24p brut (certains CRT apprécient moyen les fréquences aussi basses), l'astuce c'est de multiplier par 3 : 23,98 x 3 = 71,94 Hz. Chaque image est ainsi affichée exactement 3 fois, à intervalles parfaitement réguliers comme ça, pas de saccade... Mais attention, ça ne fonctionne pas avec les TV CRT (car elles gèrent le multisync différemment). Et, ça marche aussi en x4 (95,92 Hz) si votre moniteur préfère ça.

Tout est expliqué dans cette vidéo :

Par contre, sachez le, le VGA ne transporte pas le son, du coup faudra brancher la sortie jack 3,5mm du Pi à des enceintes séparées.

Ensuite, côté résolutions, ça va du 640x480 au 1440x1080, tout en 4:3 bien sûr. Et pour pas avoir à bidouiller en SSH, Bob a créé un plugin EDID custom pour LibreELEC qui fait tout le boulot.

Vous sélectionnez votre résolution dans l'interface de Kodi et c'est réglé. C'est le plugin qui gère les timings EDID automatiquement, du coup Kodi détecte les modes disponibles tout seul.

D'ailleurs, si vous êtes plutôt Blu-ray physique, le RetroTINK 4K (environ 400 dollars le bouzin) peut aussi downscaler vers un CRT, mais il faudra ajouter un convertisseur HDMI-VGA en sortie vu qu'il ne sort qu'en HDMI. Du coup ça commence à faire pas mal de matos... et ça coûte un bras comparé à un Pi 4 qui traîne dans un de vos tiroirs !

Si le rétro-gaming sur CRT vous tente aussi, Vincent vous avait parlé de Recalbox 10 qui gère la sortie CRT sur Raspberry Pi 5 . Et côté interpolation de frames, y'a aussi l'algorithme RIFE qui fait le chemin inverse en générant des images intermédiaires pour passer de 24 à 60 fps (mais avec des artefacts, forcément).

Bref, voilà de quoi redonner vie à ces bons vieux tubes cathodiques. Perso, je trouve ça délire qu'un écran à 20 balles en récup' fasse du cinéma mieux qu'une dalle à +2000 euros.

Merci à Lorenper pour le partage !

Source

❌
❌