Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

BOOX Go 7 Color Gen 2 : la liseuse parfaite devient encore plus indispensable

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Il y a quelques semaines, je vous disais tout le bien que je pensais de la BOOX Go 7 , cette liseuse sous Android qui a joyeusement envoyé ma Kindle à la retraite. Je la qualifiais de géniale pour sa liberté, son écran magnifique et son ergonomie parfaite. Eh bien, accrochez-vous, il y a encore mieux : BOOX a décidé de prendre ce qui était déjà excellent pour y ajouter la seule chose qui pouvait encore manquer : la couleur.

Voici la BOOX Go 7 Color Gen 2 , et je vais être direct : c’est une petite merveille.

La révolution douce de l’encre numérique en couleur

Ne vous attendez pas à l’éclat agressif d’une tablette LCD. La beauté de la technologie E-Ink, c’est son confort visuel, et la Go 7 Color le préserve à 100%. Elle intègre la dernière génération d’écrans E-Ink Kaleido 3, qui affiche 4096 couleurs. Le rendu est subtil, avec des tons pastel doux qui imitent à la perfection l’impression d’un magazine ou d’une bande dessinée.

Le plus fort ? La netteté du texte noir et blanc impeccable avec une résolution de 300 PPI, on perd un tout petit peu de contraste comme avec toutes les liseuses couleur, mais avec le retroeclairage activé, tout va bien. La couleur, elle, s’affiche en 150 PPI, ce qui est largement suffisant pour que les images, les graphiques et les couvertures de livres prennent vie sans jamais fatiguer les yeux. C’est le meilleur des deux mondes : un confort de lecture absolu pour les romans, et l’apport de la couleur là où ça compte vraiment.

Là où la couleur change absolument tout

“Ok, mais à quoi ça sert, la couleur sur une liseuse ?”, me direz-vous. C’est simple, ça ouvre des horizons de lecture jusqu’ici réservés aux tablettes, avec la fatigue visuelle en moins. Voici quelques exemples concrets :

  • Les BD, Comics et Mangas : C’est l’évidence même. Lire une BD franco-belge, un comics américain ou même les quelques pages couleur d’un manga sur cet écran est un pur bonheur. Fini les nuances de gris frustrantes, les planches retrouvent leur saveur originelle.
  • Les magazines et la presse : Suivre un graphique, admirer une photo de reportage, lire un magazine technique… La couleur apporte un contexte et une clarté indispensables. Et vous pouvez même installer Cafeyn sur la tablette, ou les applications comme Le Monde, Mediapart, etc.
  • Les livres pour enfants : Les illustrations prennent vie et rendent la lecture sur liseuse enfin attractive pour les plus jeunes.
  • Les documents de travail et les livres scolaires : Vous vous souvenez des PDF avec des passages surlignés en couleur ou des schémas importants ? Maintenant, vous les voyez tels qu’ils ont été conçus. C’est un game-changer pour les étudiants et les professionnels.
  • La prise de notes : Avec le stylet (toujours en option), vous pouvez désormais surligner et annoter vos documents avec différentes couleurs pour organiser vos idées. Un code couleur pour les citations, un autre pour les points à vérifier… C’est simple, mais efficace.

On ne change pas une équipe qui gagne

Le plus rassurant, c’est que la Go 7 Color Gen 2 conserve tout l’ADN qui rendait sa grande sœur si géniale. On retrouve avec un immense plaisir :

  1. La liberté totale d’Android : C’est LE point fort de BOOX. L’accès au Google Play Store est toujours là. Vous pouvez installer l’appli Kindle pour lire vos livres Amazon, l’appli Kobo, celle de votre libraire, mais aussi Pocket pour sauvegarder des articles, Feedly ou Inoreader pour vos flux RSS, et même quelques jeux légers. C’est votre liseuse, vous en faites ce que vous voulez.
  2. Une ergonomie pensée pour les lecteurs : Les boutons physiques pour tourner les pages sont toujours là, et c’est un confort dont on ne peut plus se passer une fois qu’on y a goûté. La liseuse reste fine, légère (195g) et parfaitement équilibrée.
  3. Une polyvalence inégalée : Elle lit nativement tous les formats (EPUB, MOBI, PDF, CBR/CBZ…), le transfert de fichiers est un jeu d’enfant, et elle peut se transformer en un clin d’œil en carnet de notes numérique. Vous pouvez même jouer avec (je joue tout le temps aux échecs sur la mienne), et bien sûr aller sur internet.

Le Verdict : Noir & Blanc ou Couleur, laquelle choisir ?

Avec l’arrivée de ce modèle Color, BOOX ne complique pas le choix, il l’affine. La question n’est plus “quelle marque choisir ?”, mais “quelle BOOX Go 7 est faite pour moi ?”.

  • Noir & Blanc si : Vous êtes un dévoreur de romans, de thrillers, d’essais… Bref, si 99% de votre lecture est du texte pur. Son contraste légèrement supérieur en noir et blanc reste la référence absolue pour le texte brut, et elle est un peu plus abordable.
  • Color si : Votre bibliothèque est variée. Si vous passez d’un roman à une BD, d’un article de presse à un PDF professionnel. Si vous êtes étudiant, fan de mangas, ou si vous aimez simplement l’idée d’avoir les couvertures de vos livres en couleur. Le surcoût est justifié par une polyvalence qui la rend quasi parfaite.

Dans les deux cas, vous optez pour une liseuse ouverte, puissante et respectueuse de votre liberté. En ce qui me concerne, cette version couleur a trouvé sa place dans mon sac et n’est pas près de le quitter. Disponible sur Amazon en cliquant ici !

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ou lire tous les tests que je publie dans la catégorie “Gadgets Tech” , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Nintendo dévoile le premier teaser du film Super Mario Galaxy prévu pour 2026

C’est officiel les amis !! Nintendo vient de lâcher une bombe lors du Nintendo Direct de vendredi dernier. La suite du carton planétaire “Super Mario Bros. le film” s’appellera “The Super Mario Galaxy Movie” et débarquera dans les salles le 3 avril 2026. Et franchement, rien qu’avec le petit teaser qu’ils nous ont balancé, on sent que ça va envoyer du lourd.

Cette annonce tombe pile poil pour célébrer les 40 ans de Super Mario Bros, sorti le 13 septembre 1985. Shigeru Miyamoto lui-même a déclaré que ce film sera “l’événement principal” de cette célébration anniversaire. Et quand on sait que le premier film a rapporté plus de 1,3 milliard de dollars au box-office mondial, je comprends pourquoi Nintendo et Illumination remettent le couvert.

Le teaser nous montre donc Mario qui fait une petite sieste sous un arbre dans le Royaume Champignon. La caméra s’éloigne doucement, nous fait traverser tout le royaume avec ses créatures emblématiques, puis s’envole vers le château de Peach avant de filer dans l’espace étoilé où le titre apparaît. Simple mais efficace, ça me donne déjà envie de replonger dans cet univers coloré et déjanté.

Côté casting, on retrouve toute la bande qui a fait le succès du premier opus. Chris Pratt reprend son rôle de Mario (oui, je sais, certains auraient préféré Charles Martinet ), Anya Taylor-Joy revient en Princesse Peach, Charlie Day en Luigi et bien sûr l’excellent Jack Black en Bowser. Keegan-Michael Key sera également de retour en Toad et Kevin Michael Richardson reprendra le rôle de Kamek.

Le film s’inspire directement du jeu culte Super Mario Galaxy sorti en 2007 sur Wii. Pour ceux qui n’y ont pas joué (mais qu’est-ce que vous foutez ???), c’était une aventure spatiale où Mario sautait de planète en planète avec une gravité complètement folle. Un gameplay révolutionnaire à l’époque qui a marqué toute une génération de joueurs. Le producteur Chris Meledandri a même teasé que “ce prochain film réserve des surprises pour les fans de toutes les époques de Mario”. On peut donc s’attendre à des références qui parleront autant aux nostalgiques qu’aux nouveaux venus.

Aaron Horvath et Michael Jelenic reprennent également les commandes de la réalisation après avoir brillamment mené le premier film. Matthew Fogel reste au scénario et Brian Tyler revient pour la bande-son. Autant dire que l’équipe gagnante est au complet pour nous offrir une suite à la hauteur de nos espérances.

Universal Pictures distribuera le film dans le monde entier, avec une sortie prévue pour le 1er avril 2026 en France. Les fans japonais quand à eux devront patienter un peu plus longtemps puisque le film sortira là-bas le 24 avril 2026. Snif…

Bref, cette suite spatiale s’annonce comme l’un des événements ciné de 2026 et puis entre nous, qui n’a pas envie de voir Mario naviguer de planètes omme dans le jeu Mario Galaxy ?

En attendant, je vous conseille de vous refaire le jeu original sur Switch (disponible dans Super Mario 3D All-Stars) ou de revoir le premier film pour vous mettre dans l’ambiance. Et si Jack Black nous fait un autre tube comme le “Peaches” du premier film, je signe direct !

Source

Oboe - Une plateforme d'apprentissage par IA qui vous génère un cours en quelques secondes

Vous vous souvenez d’Anchor, cette plateforme qui avait permis de simplifier la création de podcasts avant de se faire racheter par Spotify pour 150 millions de dollars ? Eh bien ses créateurs, Nir Zicherman et Michael Mignano, sont de retour avec un nouveau projet qui pourrait bien changer l’apprentissage en ligne. Leur nouvelle création s’appelle Oboe et permet de créer des cours éducatifs personnalisés en quelques secondes grâce à l’IA.

Une fois sur Oboe, vous tapez un prompt du genre “Histoire de l’IA”, “Comment réaliser des pâtisseries” ou même “Préparer mon déménagement au Japon” et hop, Oboe vous génère instantanément un cours complet adapté à vos besoins. C’est le premier outil d’apprentissage généralisé par IA qui permet vraiment de créer des formations sur n’importe quel sujet, d’une manière plus personnalisée et efficace que tout ce qui existe aujourd’hui.

Mon cours sur les échecs

Ce qui rend Oboe vraiment intéressant, c’est son architecture multi-agents développée from scratch. Sur TechCrunch , Zicherman explique que leur système fait tourner plusieurs agents IA en parallèle qui s’occupent de tout : développer l’architecture du cours, vérifier les informations de base, écrire le script pour les podcasts, récupérer des images pertinentes sur Internet et même auditer le contenu pour garantir sa qualité et son exactitude. Tout ça en quelques secondes chrono.

Au lancement, Oboe propose déjà 9 formats de cours différents ( Cours classique, épisode de podcast, points clés à retenir, livre audio, FAQ, flashcards, quiz, etc…) capables de couvrir des domaines aussi variés que les sciences, l’histoire, les langues étrangères, l’actualité, la pop culture ou même la préparation aux changements de vie selon ce que vous lui demandez. Chaque cours combine du texte, des visuels, des conférences audio, des quiz interactifs et même des jeux. Vous avez deux modes audio disponibles : un format de conférence traditionnelle ou une expérience plus conversationnelle façon podcast, un peu comme NotebookLM de Google.

Le nom “Oboe” n’a pas été choisi au hasard. Il s’inspire de la racine du mot japonais qui signifie “apprendre”. Une jolie référence qui colle parfaitement à leur mission de rendre l’humanité plus intelligente. Encore faudrait-il qu’elle souhaite “apprendre”, cette humanité…

Niveau business model, Oboe adopte une approche freemium assez classique. Vous pouvez créer jusqu’à 2 cours par mois et si vous voulez aller plus loin, deux forfaits payants sont disponibles : Oboe Plus à 12$/mois pour 30 cours supplémentaires et Oboe Pro à 32$/mois pour 100 cours.

Au lieu d’avoir des cours statiques créés par des experts et consommés passivement, Oboe permet à chacun de générer instantanément du contenu éducatif ultra-personnalisé, comme un prof particulier capable de créer un programme sur mesure en temps réel, quel que soit le sujet qui vous intéresse.

Perso, j’ai testé et j’ai trouvé les 2 formations que ça m’a généré de très bonne qualité. Et si vous creusez un peu sur Google, vous pouvez aussi trouver certains cours générés par d’autres utilisateurs : inurl:https://oboe.fyi/courses/

Quand on voit la qualité de ce que peuvent générer les IA aujourd’hui, l’idée d’avoir une plateforme capable de créer des cours complets et structurés en quelques secondes, c’est assez cool, surtout avec leur système multi-agents qui vérifie la qualité et l’exactitude des informations. Ça pourrait vraiment changer les choses dont on apprend de nouvelles compétences ou dont on explore de nouveaux sujets.

Reste maintenant à voir si Oboe réussira à s’imposer face aux géants de l’éducation en ligne mais avec l’expérience des fondateurs, ils ont clairement quelques atouts dans leur manche.

AnyCrap - Le site qui vend des produits qui n'existent pas

Ce weekend, j’ai découvert un truc complètement barré qui risque de vous faire repenser tout ce que vous savez sur le e-commerce. Ça s’appelle AnyCrap , et c’est littéralement une boutique en ligne qui vend… rien. Enfin si, elle vend des concepts de produits qui n’existent pas. Et c’est plus que brillant, vous allez voir !

L’idée est simple comme bonjour mais fallait y penser : Vous tapez n’importe quel nom de produit débile qui vous passe par la tête, genre des chaussettes téléportantes ou du café qui rend invisible, et le site vous génère instantanément une fiche produit complète avec description, caractéristiques et même des avis clients. Le tout propulsé par l’IA, évidemment.

Screenshot

Sur la page d’accueil, on vous promet de “trouver vos produits à travers les dimensions parallèles”. Marketing génial ou folie douce ? Les deux mon capitaine. Le slogan “Tomorrow’s products, available today (not actually available)” résume d’ailleurs parfaitement l’esprit de ce site… on est dans l’absurde assumé et ça fait du bien.

Ce qui me fascine, c’est que pendant que le marché de l’IA dans l’e-commerce atteint 6,63 milliards de dollars avec des assistants shopping ultra-sérieux, AnyCrap prend complètement le contre-pied. Au lieu d’optimiser les conversions et de tracker chaque pixel, ils ont créé un anti-marketplace où l’objectif n’est pas de vendre mais de faire rêver.

Cette anti-marketplace propose même des catégories comme “Weird Tech Stuff” et “Snacks From Outer Space” où chaque produit généré est unique, avec sa propre mythologie et ses caractéristiques loufoques. Techniquement, on est probablement sur un mix de ChatGPT pour les descriptions et peut-être DALL-E ou Midjourney pour les visuels et ce concept rejoint un peu d’ailleurs ce que propose Writecream avec son générateur de reviews fictives , sauf qu’ici c’est tout l’écosystème commercial qui est fictif.

La promesse de “livraison instantanée” de concepts m’a fait aussi marrer. En gros, vous commandez une idée et vous la recevez immédiatement dans votre cerveau. Zéro émission carbone, zéro déchet, 100% satisfaction garantie puisque vous n’avez rien acheté de tangible.

Dans un monde où on nous vend des NFT de singes à des millions et où le metaverse était censé révolutionner le shopping, AnyCrap a au moins le mérite d’être honnête sur sa proposition : on ne vous vend rien, mais on le fait avec classe.

Le site propose même une newsletter pour recevoir des produits fictifs chaque semaine. Maintenant, si on creuse un peu, AnyCrap pose surtout des questions intéressantes sur la nature même du commerce. Qu’est-ce qu’on achète vraiment quand on fait du shopping en ligne ? L’objet ou l’idée de l’objet ? Le produit ou la dopamine liée à l’acte d’achat ? En vendant littéralement du vent, AnyCrap révèle peut-être quelque chose de plus profond sur notre société de consommation…

Et pour les créatifs, c’est une mine d’or. Scénaristes en panne d’inspiration pour un objet magique ? Game designers cherchant des idées d’items ? Publicitaires voulant brainstormer sur des concepts produits ? AnyCrap devient un générateur d’idées déguisé en boutique.

Le plus beau dans tout ça c’est que le site accepte même les paiements (enfin, il y a un bouton pour soutenir le créateur). Donc techniquement, vous pouvez payer pour ne rien acheter…

Bref, c’est super fun ! Allez faire un tour sur AnyCrap.shop , inventez le produit le plus débile possible, et savourez l’absurdité. C’est gratuit, et ça va bien vous occuper en ce chouette lundi matin !

Attention aux extensions VS Code malveillantes qui volent les portefeuilles crypto des développeurs

Alerte rouge les amis !! Il y a actuellement des extensions VS Code qui volent discrètement des portefeuilles crypto. Et je ne parle pas d’une ou deux extensions pourries, mais d’une véritable campagne orchestrée par un groupe nommé WhiteCobra qui a réussi à placer 24 extensions malveillantes sur le VS Code Marketplace et Open VSX.

C’est l’histoire de Zak Cole, un développeur Ethereum qui bosse dans la crypto depuis plus de 10 ans. Le mec avait une sécurité béton, jamais perdu un seul wei aux mains des hackers. Mais même les plus prudents peuvent tomber dans le piège. Zack a installé une extension qui s’appelait contractshark.solidity-lang sur Cursor. Pour rappel, Cursor est un éditeur de code basé sur VS Code qui utilise le même système d’extensions. L’extension avait tout pour plaire : 54 000 téléchargements, une icône qui faisait pro, une description détaillée. Le piège parfait.

En quelques minutes, l’extension a lu son fichier .env, chopé sa clé privée et l’a envoyée sur un serveur pirate. Son portefeuille a ensuite été vidé. Heureusement pour lui, il utilisait des hot wallets séparés pour les tests avec seulement quelques centaines de dollars dedans mais d’autres n’ont pas eu cette chance. WhiteCobra serait responsable d’un vol de 500 000 dollars via une extension malveillante pour Cursor.

Le truc vraiment vicieux avec WhiteCobra, c’est leur niveau d’organisation. Ils ont toute une infrastructure sophistiquée et des techniques pour faire grimper artificiellement le nombre de téléchargements de leurs extensions malveillantes. Et d’après les informations disponibles, leur méthode est assez efficace puisque l’extension contient du code malveillant qui télécharge ensuite un payload supplémentaire, avec des versions spécifiques pour Windows, macOS ARM et macOS Intel.

Sur Windows, le malware installé est LummaStealer, spécialisé dans le vol de portefeuilles crypto, d’extensions web, de mots de passe stockés dans les navigateurs et même de données d’applications de messagerie. Sur macOS, c’est un binaire malveillant qui s’exécute localement.

Ce qui rend ces attaques dangereuses, c’est surtout la vitesse à laquelle WhiteCobra peut rebondir. Ils sont capables de déployer rapidement de nouvelles campagnes après qu’une extension malveillante ait été supprimée. Ils changent les noms, les descriptions, créent de nouveaux comptes développeurs et c’est reparti.

Le problème de fond, c’est que ni Microsoft ni Open VSX n’ont de mécanismes de vérification vraiment efficaces. Microsoft fait bien passer un antivirus sur les extensions, mais ça ne détecte pas ce genre de comportement malveillant sophistiqué. Open VSX, qui est actuellement utilisé par Cursor et Windsurf, héberge toujours ces extensions malveillantes malgré les signalements.

Alors comment se protéger ? Déjà, méfiez-vous des extensions avec des noms qui ressemblent à des projets connus mais avec une petite variation (c’est du typosquatting). Vérifiez aussi toujours qu’il y a un repository GitHub lié et actif. Regardez les reviews avec attention, car les fausses sont souvent génériques et postées en masse sur une courte période.

Suite à cette attaque, Zak Cole a complètement revu sa façon de bosser après s’être fait avoir. Il utilise maintenant des machines virtuelles isolées, des hardware wallets exclusivement, et des coffres-forts chiffrés pour ses secrets. Il a aussi créé une whitelist d’extensions et évite d’installer de nouveaux outils à la va-vite.

Bref, si vous êtes développeur, faites un audit immédiat de vos extensions installées. Changez vos clés. Et surtout, arrêtez de stocker des informations sensibles dans des fichiers .env en clair. Utilisez des gestionnaires de secrets ou au minimum du chiffrement.

En tout cas, cette campagne WhiteCobra n’est pas terminée. Ils continuent d’uploader de nouvelles extensions malveillantes pour remplacer celles qui sont supprimées… c’est un vrai jeu du chat et de la souris permanent entre eux et les équipes de sécurité. En attendant que Microsoft et Open VSX mettent en place de vraies mesures de sécurité, c’est donc à nous de rester vigilants.

Pensez à activer les versions immuables sur GitHub pour éviter les problèmes de sécurité

Vous saviez qu’en ce moment, les attaques sur la supply chain faisaient des ravages ? En effet, les attaquants exploitent régulièrement la possibilité de modifier des tags existants pour injecter du code malveillant dans les pipelines CI/CD.

Mais heureusement, GitHub a enfin sorti LA fonctionnalité qui peut empêcher ce carnage : les Immutable Releases et je pense que c’est le genre de truc que tous les développeurs devraient activer illico sur leurs repos. Je vais vous expliquer pourquoi.

En fait, une fois que vous publiez une release avec cette option activée, plus personne ne peut toucher ni aux assets ni au tag associé. C’est comme si vous mettiez votre release dans un coffre-fort dont vous jetez la clé. Même vous, en tant que mainteneur, vous ne pouvez plus modifier les binaires ou déplacer le tag vers un autre commit.

D’après la documentation officielle , chaque release immuable génère automatiquement une attestation cryptographique. Cette attestation contient le SHA du commit, le tag et la liste des assets. Vos utilisateurs peuvent vérifier l’intégrité de ce qu’ils téléchargent en s’assurant que cela correspond exactement à ce que vous avez publié.

Pour activer cette option merveilleuse, c’est dans les settings de votre repo ou de votre organisation. Une fois activé, toutes les nouvelles releases deviennent alors automatiquement immuables. Les anciennes releases restent toutefois modifiables (pour éviter de casser vos workflows existants), mais bon, c’est mieux de migrer progressivement.

Attention quand même, il y a quelques pièges à éviter. Premièrement, vous ne pouvez plus ajouter d’assets après publication. Donc si votre CI upload les binaires après avoir créé la release, il faut inverser : Créez d’abord une draft release, uploadez les assets, puis publiez. Deuxièmement, si vous supprimez une release immuable, vous ne pourrez JAMAIS réutiliser le même tag. C’est définitif.

Pour les projets qui utilisent des tags de version majeure style v1 qu’ils mettent à jour régulièrement (coucou GitHub Actions), pas de panique. Vous pouvez continuer à utiliser cette pratique pour les tags qui ne sont pas associés à des releases. L’immuabilité ne s’applique qu’aux releases publiées, pas aux tags simples.

Les équipes de sécurité recommandent d’ailleurs d’activer cette fonctionnalité sur tous les repos qui publient du code versionné. C’est particulièrement critique pour les bibliothèques open source, les GitHub Actions, et tout ce qui est consommé par d’autres projets. En gros, si votre code finit dans la supply chain de quelqu’un d’autre, vous leur devez cette protection.

Le truc cool aussi, c’est que ça protège contre les erreurs humaines. Combien de fois j’ai vu des mainteneurs qui écrasaient accidentellement une release avec la mauvaise version ? Ou qui supprimaient un asset critique par erreur ? Avec les Immutable Releases, ces accidents appartiennent au passé.

Pour les entreprises, c’est un argument de vente en or. Ça permet de garantir à vos clients que vos releases ne peuvent pas être altérées après publication, c’est un niveau de confiance supplémentaire surtout dans des secteurs régulés où la traçabilité est cruciale.

Bref, GitHub est en train de déployer progressivement cette fonctionnalité en public preview. Pour l’instant, il faut l’activer manuellement pour chaque repo, mais ils travaillent sur une API pour permettre l’activation en masse. D’ici là, prenez donc 2 minutes pour l’activer sur vos projets critiques.

Voilà, après les dégâts causés par les attaques de type tag hijacking ces dernières années, ne pas activer les Immutable Releases sur vos repos publics, c’est comme laisser votre porte d’entrée grande ouverte avant de partir en vacances. Vous pouvez le faire, mais ne venez pas pleurer si ça tourne mal.

Le Great Firewall chinois vient de fuiter

Près de 600 Go, c’est le poids de la plus grosse fuite de l’histoire du Great Firewall chinois. Il y a quelques jours, un collectif hacktiviste du nom de Enlace Hacktivista a balancé sur le net tout le code source, les documents internes, les logs de travail et même les communications privées du système de censure le plus sophistiqué au monde. C’est à ce jour la plus grosse fuite de l’histoire du Great Firewall chinois !

Le Great Firewall est un système qui permet à la Chine de filtrer internet pour toute sa population. Un système tellement efficace qu’il bloque non seulement Google, Facebook ou Twitter, mais qui arrive aussi à détecter et neutraliser les VPN les plus sophistiqués. Et aujoud’hui, tout son fonctionnement interne est accessible à qui veut bien se donner la peine de télécharger un fichier torrent de 571 Go.

Les documents proviennent de deux sources principales : Geedge Networks, une boîte dirigée par Fang Binxing (surnommé le “père du Great Firewall”), et le laboratoire MESA de l’Académie chinoise des sciences. En gros, on a là les architectes principaux de la censure numérique chinoise qui se retrouvent à poil sur internet.

Mais le plus dingue dans cette histoire, c’est pas tant la fuite elle-même. C’est ce qu’elle révèle sur l’export de cette technologie. Les documents montrent que la Chine ne se contente pas de censurer son propre internet, non… elle vend clé en main son système de censure à d’autres pays autoritaires.

Le produit star ? Un truc appelé Tiangou, décrit dans les documents comme une solution tout-en-un pour dictateur pressé : vous branchez, vous configurez, et hop, vous pouvez surveiller et censurer votre population comme en Chine. Le système inclut plusieurs modules aux noms poétiques : le Tiangou Secure Gateway qui bloque les VPN et peut injecter du code malveillant, le Cyber Narrator qui surveille l’activité internet par région, et les systèmes TSG Galaxy et Network Zodiac pour stocker et analyser les données des utilisateurs.

D’après les documents qui ont fuité, le Myanmar a déployé ce système dans 26 centres de données, avec des tableaux de bord capables de monitorer 81 millions de connexions TCP simultanées ! C’est pas rien ! Ce système est d’ailleurs intégré directement dans les points d’échange internet du pays, permettant un filtrage massif et sélectif du trafic.

Le Pakistan n’est pas en reste car d’après les documents, Geedge a installé son infrastructure DPI (Deep Packet Inspection) dans le cadre d’un système plus large appelé WMS 2.0. Amnesty International parle d’une surveillance de masse en temps réel sur les réseaux mobiles pakistanais où en gros, chaque SMS, chaque appel, chaque connexion internet peut être intercepté et analysé.

Les documents révèlent aussi que l’Éthiopie et le Kazakhstan ont acquis des licences pour le système Tiangou et apparemment, ce n’est que la partie émergée de l’iceberg.

Au début, Geedge utilisait des serveurs HP et Dell pour faire tourner son système, mais face aux sanctions occidentales, ils sont passés à du matériel 100% chinois. Le système s’adapte donc, évolue, contourne les obstacles, exactement comme les utilisateurs qu’il est censé bloquer, sauf qu’il a plus de moyens.

Les chercheurs qui analysent actuellement les données étudient le code pour mieux comprendre le système car maintenant que celui-ci est public, les développeurs d’outils de contournement peuvent potentiellement y trouver des faiblesses.

Enlace Hacktivista, le groupe à l’origine de la fuite, n’en est pas à son coup d’essai mais là, ils ont frappé un grand coup et pour ceux qui voudraient jeter un œil aux documents (attention, c’est à vos risques et périls), Enlace Hacktivista a mis le tout à disposition via torrent et téléchargement direct. Les chercheurs recommandent fortement d’utiliser des machines virtuelles isolées ou des environnements sandboxés pour analyser ces fichiers. Pas question de lancer ça sur votre PC principal, on ne sait jamais ce qui peut se cacher dans ces giga octets de code chinois.

Voilà en tout cas, cette technologie de censure et de surveillance est devenu un business global pour contrôler les populations. Merci la Chine ! Et maintenant que le code est dans la nature, on peut s’attendre à ce que d’autres états tentent de créer leurs propres versions du Great Firewall.

Maintenant, est-ce que ça va permettre de mieux contourner la censure ? Est-ce que ça va dissuader certains pays d’acheter cette technologie ? Ou est-ce que la Chine va simplement développer une version 2.0 encore plus sophistiquée ?

On verra bien…

Source

ChatGPT peut faire fuiter vos emails avec une simple invitation Google Calendar

Vous attaquez votre lundi matin, tranquillement avec votre petit café… vous ouvrez ChatGPT pour lui demander votre planning de la semaine et là, PAF (façon De Funès ^^), toute votre correspondance Gmail part directement chez un cybercriminel.

Ce serait fou non ? Et bien c’est exactement ce qu’un chercheur vient de démontrer et tout ça à cause d’une simple invitation Google Calendar.

Eito Miyamura, co-fondateur d’EdisonWatch , a lâché une bombe sur X le 12 septembre et sa démo est terrifiante. En gros, il simule un attaquant qui envoie une invitation Google Calendar vérolée, ensuite vous demandez innocemment à ChatGPT “Qu’est-ce que j’ai de prévu aujourd’hui ?”, et l’IA se transforme en espion qui fouille vos emails et les envoie au pirate. Vous n’avez même pas besoin de voir ou d’accepter l’invitation. Elle est là, dans votre calendrier, comme une bombe à retardement.

Et ça tombe mal niveau comm, car OpenAI vient tout juste d’intégrer le support complet du MCP (Model Context Protocol) dans ChatGPT. Cette technologie permet en effet à l’assistant de se connecter directement à Gmail, Google Calendar, SharePoint, Notion… Pratique pour la productivité, mais catastrophique pour la sécurité.

Cette attaque exploite ce qu’on appelle l’injection de prompt indirecte. Au lieu d’essayer de tromper ChatGPT directement, l’attaquant cache ses instructions malveillantes dans des données que l’IA est autorisée à lire. Dans ce cas précis, le texte d’un événement calendrier… Ensuite ChatGPT lit l’invitation, voit les instructions cachées, et les exécute docilement.

Selon les experts en sécurité qui se sont penchés sur le problème, le MCP n’a pas été conçu avec la sécurité en priorité. Les risques incluent donc les injections de prompt, les permissions d’outils vulnérables et les outils sosies qui peuvent remplacer silencieusement les outils de confiance.

Sympa, hein ?

D’ailleurs, ce n’est pas la première fois qu’on voit ce genre d’attaque puisqu’en août, des chercheurs avaient déjà démontré comment une invitation compromise pouvait manipuler Google Gemini pour contrôler des appareils domotiques et voler des informations. Le papier s’appelait joliment “Invitation Is All You Need”. Prophétique.

Vitalik Buterin lui-même a réagi à cette vulnérabilité. Il explique que compter aveuglément sur un seul système IA est trop fragile et facilement manipulable et je trouve que cette nouvelle exploitation de ChatGPT lui donne raison !

D’ailleurs, même avec les navigateurs IA, vous n’êtes pas tranquille. D’après cette autre découverte, vous pouvez littéralement vous faire vider votre compte bancaire en scrollant sur Reddit. En effet, des instructions malveillantes peuvent être cachées dans des commentaires sur des sites que l’attaquant ne contrôle même pas, ce qui peut entrainer votre navigateur IA à faire des choses que vous n’avez pas autorisé.

Bref, cette nouvelle vulnérabilité met en lumière un problème fondamental des LLM : ils ne savent pas faire la différence entre des instructions légitimes et des commandes malveillantes cachées dans du contenu. Car contrairement aux applications traditionnelles qui peuvent séparer les instructions développeur des inputs utilisateur, les LLM acceptent tout en langage naturel. Pour rester flexibles, ils doivent pouvoir répondre à des configurations infinies d’instructions et c’est cette flexibilité qui fait leur force… mais qui est également leur talon d’Achille.

Trail of Bits a même démontré une variante encore plus sournoise où des images spécialement forgées contiennent des prompts cachés. Invisibles en haute résolution, les instructions malveillantes apparaissent quand l’image est réduite par les algorithmes de prétraitement. L’IA lit alors le message et l’interprète comme une instruction légitime.

Ainsi, quand une IA suit des instructions malveillantes depuis du contenu web, les protections traditionnelles comme la same-origin policy ou CORS deviennent inutiles. L’IA opère avec tous vos privilèges sur toutes vos sessions authentifiées. Accès potentiel à vos comptes bancaires, systèmes d’entreprise, emails privés, stockage cloud… C’est vite le jackpot pour un attaquant.

Alors, comment se protéger ?

Hé bien Google recommande de changer les paramètres de Calendar pour que seules les invitations de contacts connus ou acceptées apparaissent. Cachez aussi les événements refusés et surtout, restez extrêmement prudent avec les intégrations tierces et les autorisations accordées…

Voilà, donc la prochaine fois que ChatGPT vous demandera l’autorisation d’accéder à votre Gmail, réfléchissez-y à deux fois car ça pourrait vous coûter bien plus cher qu’un peu de temps gagné.

Source

SkiftOS - Recoder la roue c'est chouette aussi

Créer un système d’exploitation complet from scratch pour s’amuser, c’est le genre de projet un peu foufou qu’on ne voit plus tellement aujourd’hui. Pourtant SkiftOS existe !

SkiftOS c’est un OS écrit entièrement depuis zéro, et pas un n-ième fork de Linux ou d’une distribution BSD. Non, c’est un vrai OS avec son propre kernel, son interface graphique et même les bases d’un moteur de navigateur web.

J’ai découvert ce projet en me baladant sur les Top GitHub et ça m’a rappelé cette époque d’avant ma naissance où créer son OS était un genre de rite de passage pour tous les développeurs passionnés. Sauf qu’ici, on n’est plus dans les années 70 et le projet utilise du C++20 moderne avec une architecture microkernel très propre.

Et malgré son statut de projet “hobby”, il fonctionne réellement. Il tourne pour le moment sur du hardware x86_64 et l’équipe travaille sur le support RISC-V.

L’architecture modulaire du projet est d’ailleurs particulièrement bien pensée. Chaque module a son petit nom, c’est rigolo. Hjert gère le microkernel avec les fonctions essentielles telles que la gestion mémoire, l’ordonnancement et l’IPC (Inter-Process Communication). Karm fournit la bibliothèque C++ de base sans dépendre de la STL (Standard Template Library) . KarmUI propose un framework d’interface réactive. Hideo s’occupe du bureau et de l’environnement graphique. Et Vaev ambitionne de devenir un moteur de navigateur web complet.

Pour compiler tout ça, l’équipe a également développé CuteKit, leur propre système de build qui gère les dépendances et la cross-compilation. Bah oui, quand on réinvente un OS, autant réinventer aussi tous les outils pour le construire.

Cette approche “tout fait maison” rend en tout cas le projet fascinant d’un point de vue pédagogique. Car oui le code source est disponible sur GitHub donc si vous voulez comprendre comment fonctionne un OS moderne sans vous perdre dans les millions de lignes de code de Linux ou de Windows (pour les vieilles versions qui ont leakée), c’est une excellente opportunité pour apprendre. Pas besoin donc d’être Microsoft ou Apple pour développer un système d’exploitation fonctionnel.

Faut “juste” de la motivation, du temps, des compétences en C++ moderne, et surtout l’envie de construire quelque chose de différent.

Vous l’aurez compris, SkiftOS ne remplacera probablement jamais votre OS principal, c’est clair mais pour les développeurs curieux qui veulent comprendre les entrailles d’un système d’exploitation, ou pour ceux qui cherchent un projet open source technique sympa où contribuer, c’est une sacrée mine d’or.

Et qui sait, peut-être que dans quelques années on parlera de SkiftOS comme on parle aujourd’hui des débuts de Linux…

Comment l'IA est en train de tuer le web sous nos yeux

Imaginez demain matin, vous vous réveillez et 90% des sites web ont disparu. Plus de blogs, plus de sites de presse, plus de forums. Juste des pages blanches et des erreurs 404. De la science-fiction ? Et bien pas selon Matthew Prince, le CEO de Cloudflare, qui gère 20% du trafic web mondial.

Dans plusieurs interviews récentes, il explique qu’on est en train d’assister en direct à l’effondrement du modèle économique qui a fait vivre Internet pendant 25 ans. En effet, le deal était simple : Google crawle votre contenu, vous envoie du trafic, vous monétisez avec de la pub.

Sauf que ce pacte avec le diable vient de voler en éclats.

Il y a dix ans, pour 2 pages que Google scannait sur votre site, il vous envoyait 1 visiteur. Un échange équitable, presque symbiotique. Mais aujourd’hui, Il faut 6 pages crawlées pour obtenir 1 seul clic.

Mais attendez, là c’est Google, le gentil de l’histoire parce qu’avec les nouveaux venus de l’IA, c’est l’apocalypse qui s’annonce. En effet, d’après les données de Cloudflare , le ratio d’OpenAI est passé de 250 pour 1 à 1500 pour 1 en quelques mois. Autrement dit, ChatGPT aspire 1500 pages de votre contenu pour vous renvoyer généreusement… 1 seul visiteur. Anthropic avec Claude, on est à 60 000 pages pour un visiteur. Bref, c’est pas du crawling, c’est du pillage en règle.

Et Prince ne mâche pas ses mots : “Si les créateurs de contenu ne peuvent plus tirer de valeur de leur travail, ils vont arrêter de créer du contenu original.” Et devinez quoi ? C’est déjà en train de se produire car les données montrent que le trafic des moteurs de recherche vers les sites web a chuté de 55% entre 2022 et 2025. Par exemple, le Washington Post et le HuffPost ont vu leur trafic organique divisé par deux en trois ans.

Le plus ironique dans tout ça c’est que Google lui-même creuse sa propre tombe. Prince révèle qu’il y a six mois, 75% des recherches Google se terminaient sans aucun clic vers un site externe. Mais alors pourquoi ce changement soudain ? Hé bien la réponse tient en deux mots : Answer Engines. C’est le cas par exemple avec le déploiement d’ AI Overview , leur nouvelle fonctionnalité qui donne directement les réponses, ce chiffre pourrait atteindre 90%. Google est ainsi devenu un genre de cul-de-sac d’Internet…

Il est fini donc le temps où Google vous donnait une carte au trésor avec des liens à explorer. Maintenant, l’IA vous donne directement le trésor et comme ça plus besoin de visiter les sites, plus de trafic, plus de revenus publicitaires. La boucle vertueuse s’est transformée en spirale mortelle…

Les prédictions de Gartner sont glaçantes car le volume des recherches traditionnelles va chuter de 25% d’ici 2026. Par exemple, chez les 18-24 ans, 66% utilisent déjà ChatGPT pour chercher de l’information, contre 69% pour Google. L’écart se resserre dangereusement.

Prince voit donc trois scénarios possibles pour l’avenir, et aucun n’est réjouissant.

Premier scénario, le plus nihiliste : Tous les journalistes, chercheurs et créateurs de contenu “meurent de faim” faute de modèle économique viable. Ce sont littéralement ses mots.

Deuxième scénario : On revient à un système de mécénat médiéval où cinq grandes entreprises IA emploient directement tous les créateurs. Adieu l’indépendance éditoriale.

Troisième scénario : On invente un nouveau modèle économique, mais personne ne sait encore lequel…

Voilà en gros les choix qui se présentent à nous.

Cloudflare, de son côté, ne reste bien sûr pas les bras croisés. Prince a lancé AI Audit , un système qui bloque par défaut tous les bots IA. Comme il l’a dit : “Je fais la guerre tous les jours aux gouvernements chinois, russe, iranien et nord-coréen qui tentent de hacker nos clients, et vous me dites que je ne peux pas arrêter un nerd avec une société dans la Silicon Valley ?

La solution qu’il propose c’est donc un système de “pay-per-crawl” utilisant le protocole HTTP 402 (celui qui était prévu pour les micropaiements et que personne n’a jamais utilisé). Les IA devront donc payer pour crawler le contenu… On verra si ça marche…

L’économie des créateurs , évaluée à 203 milliards de dollars en 2024, est donc directement menacée par les IA. Paradoxalement, 84% des créateurs utilisent maintenant l’IA pour produire du contenu, accélérant leur propre obsolescence. C’est le serpent qui se mord la queue où l’IA se nourrit de contenu humain pour créer du contenu synthétique qui remplace le contenu humain qui nourrit l’IA qui… vous voyez le problème ?

Le plus dingue, c’est la vitesse à laquelle tout s’effondre. En mai 2024, Google lançait AI Overview et en juin 2025, le pourcentage de recherches d’actualités sans clic est passé de 56% à 69%. En seulement un an. À ce rythme, d’ici 2027, plus personne ne cliquera sur rien.

Et tout cela se passe maintenant, sous nos yeux, et personne ne semble capable de l’arrêter. Les éditeurs subissent donc une “menace existentielle” selon les propres mots de Prince. Le New York Times a décidé de se battre en justice. Les petits blogs et petits médias disparaissent en silence et Reddit et les forums deviennent des jardins clos pour protéger leur contenu.

La question n’est donc plus de savoir si le modèle économique du web va s’effondrer, mais quand et comment on va reconstruire sur les ruines. Prince compare la situation aux débuts d’Internet : “Nous sommes dans une période de destruction créatrice schumpétérienne .” Sauf que cette fois, ce qui est détruit, c’est le tissu même du web ouvert.

Meta de son côté a lancé son Creator Monetization Suite cette année, promettant de nouveaux moyens de monétisation… mais quand on y regarde de près, c’est juste une façon de garder les créateurs sous leur emprise, produisant du contenu que l’IA de Meta pourra ensuite digérer sans jamais les laisser partir ailleurs.

Bref, ces mêmes entreprises qui ont construit leur empire sur le contenu gratuit du web sont en train de le tuer et Google, qui a encouragé la création de contenu pendant 25 ans pour alimenter son moteur de recherche, est maintenant celui qui coupe le robinet du trafic.

Prince termine son interview sur une note sombre mais réaliste : “L’internet tel que nous le connaissons ne survivra pas sous sa forme actuelle.

Le choix qui nous reste est donc très simple : Soit on accepte un web contrôlé par cinq méga-corporations qui emploient directement tous les créateurs, soit on invente quelque chose de radicalement nouveau. Mais une chose est sûre, le web libre et ouvert qu’on a connu est en train de mourir, et il ne reviendra pas.

Vous entendez ce silence ?

C’est le bruit du web qui s’éteint, un site à la fois. Et pendant ce temps, les IA continuent de crawler, de digérer, de régurgiter. Et cela jusqu’à ce qu’il ne reste plus rien à manger… Bienvenue dans l’ère post-trafic.

Population : Vous et quatre chatbots 😭.

Nano11 - Windows 11 passe sous la barre des 3 Go

2,8 Go. C’est tout ce qu’il faut à Nano11 pour faire tourner Windows 11. Et cette prouesse, on la doit à NTDEV, le développeur derrière le projet Tiny11 que vous connaissez peut-être déjà. Ce dernier vient encore de repousser les limites du dégraissage de Windows à un niveau que même Microsoft n’aurait jamais imaginé.

Pour mettre les choses en perspective, faut savoir qu’une installation standard de Windows 11 pèse facilement entre 20 et 30 Go selon les versions. Avec Nano11, on parle d’un ISO de seulement 2,2 Go et d’une empreinte disque de 2,8 Go une fois installé. C’est donc 3,5 fois plus petit que Tiny11, qui était déjà considéré comme ultra-léger.

Alors comment NTDEV a-t-il réussi cet exploit ? Et bien en virant absolument tout ce qui n’est pas indispensable au démarrage du système. Et quand je dis tout, c’est vraiment TOUT. Windows Update ? Dégagé. Microsoft Defender ? Aux oubliettes. Teams, Copilot, le nouveau Outlook qui est une catastrophe ambulante ? Disparus. Même les applications les plus basiques comme Météo ou Actualités ont sauté.

Le développeur ne cache pas que Nano11 est un “script expérimental extrême” conçu pour créer un environnement de test rapide et minimaliste. Sur son blog officiel , il indique utiliser maintenant la compression LZX au lieu de XPRESS, ce qui réduit encore plus la taille finale mais demande beaucoup de RAM pendant le processus de création.

Ce qui reste après le passage de Nano11, c’est donc vraiment le strict minimum à savoir le noyau Windows, l’interface graphique de base, et c’est à peu près tout. Pas de Windows Store, pas de possibilité d’ajouter des langues ou des pilotes après coup, pas de mises à jour de sécurité. C’est une installation figée dans le temps, impossible à maintenir ou à faire évoluer.

NTDEV lui-même prévient que Nano11 n’est absolument pas destiné à un usage quotidien. C’est plutôt pensé pour les développeurs qui ont besoin d’un environnement Windows ultra-léger pour tester rapidement une application, ou pour faire tourner des machines virtuelles sans bouffer toute la RAM disponible. L’installation se fait rapidement, et c’est donc parfait pour des tests.

Ce qui est chouette avec ce projet, c’est qu’il démontre à quel point Windows 11 est bourré de composants optionnels. Microsoft recommande officiellement 64 Go de stockage minimum, mais en réalité, le système peut tourner avec moins de 3 Go si on enlève tout le superflu.

Pour ceux qui veulent tester, le script Nano11 est disponible sur GitHub et il fonctionne avec n’importe quelle édition de Windows 11 (Pro, Home, LTSC). Le script prend en charge toutes les architectures et peut créer une image dans n’importe quelle langue, mais attention, une fois installé, impossible d’en ajouter d’autres. La dernière version de septembre 2025 est compatible avec Windows 11 24H2 et même les builds Canary les plus récentes.

Alors c’est sûr que Nano11 ne remplacera jamais votre Windows principal. C’est un proof of concept technique plus qu’autre chose mais si vous avez un vieux PC qui traîne ou si vous voulez créer une VM Windows ultra-légère pour un test rapide, ça peut valoir le coup d’œil.

Maintenant pour les utilisateurs qui cherchent un compromis entre légèreté et fonctionnalité, le script tiny11maker.ps1 reste une meilleure option car il dégraisse Windows tout en gardant la possibilité d’installer des mises à jour et d’ajouter des fonctionnalités par la suite.

Amusez-vous bien avec ce truc !

Umbra - Un fond d’écran qui suit le mouvement mode sombre / clair de macOS

Allez je continue sur les apps macOS bien pratique cet aprèm et si vous êtes du genre à basculer entre le mode clair et sombre selon votre humeur ou l’heure de la journée ça devrait vous plaire.

Je vous rassure je fais ça aussi sauf que jusqu’à présent, il y avait toujours ce petit truc qui coinçait à savoir que le wallpaper qui reste le même.

Du coup un fond d’écran lumineux en mode sombre, ça pique les yeux et un wallpaper sombre en mode clair, c’est déprimant.

Heureusement** Umbra** débarque pour régler ce souci. Cette petite app se planque dans votre barre de menu et fait exactement ce qu’on attend d’elle, c’est à dire synchroniser vos wallpapers avec l’apparence de macOS. Vous définissez un fond d’écran pour le mode clair, un autre pour le mode sombre, et hop, la magie opère.

Screenshot

L’idée paraît évidente maintenant qu’elle existe. Les développeurs de Replay Software ont vraiment mis le doigt sur un problème irritant du quotidien que personne n’avait vraiment résolu proprement.

Ce qui rend Umbra cool aussi c’est son intégration native d’Unsplash. Plus besoin de vous galérer à chercher des wallpapers adaptés. Directement depuis la barre de menu, vous parcourez des millions d’images libres de droits, classées par catégories… Nature, Voyages, Patterns, Rendus 3D… et si vous en voyez une qui vous plaît ? Un clic et elle devient votre nouveau fond d’écran.

Le système de synchronisation automatique de macOS fait en sorte que votre Mac bascule automatiquement entre les modes clair et sombre au lever et coucher du soleil, et Umbra suit le mouvement sans broncher. Vous pouvez même définir un raccourci clavier pour switcher manuellement entre les deux modes quand l’envie vous prend.

Screenshot

L’app gère tous les formats d’images courants : JPG, PNG, HEIC et même PSD pour les créatifs. Le glisser-déposer fonctionne parfaitement, et l’image s’adapte automatiquement à votre résolution d’écran. Pour ceux qui regrettent l’ambiance légèrement assombrie de macOS Mojave, Umbra propose même une option de dimming pour atténuer subtilement vos wallpapers en mode sombre.

Côté compatibilité, Umbra nécessite macOS Big Sur (11.5) ou plus récent selon le site officiel. L’interface est traduite en plusieurs langues dont le français, l’espagnol, le japonais et le chinois.

Le modèle économique mérite qu’on s’y attarde également puisque Replay Software a opté pour le “pay what you want” sur Gumroad. Vous pouvez récupérer Umbra gratuitement si vous voulez, ou lâcher quelques euros pour soutenir le développement. C’est pareil qu’avec mon Patreon finalement….

A découvrir ici.

Merci à Lorenper pour la découverte !

DropNotch transforme l'encoche de votre MacBook en zone de partage ultra pratique

Depuis que le notch a fait son apparition sur les MacBook, vous avez probablement déjà tous râlé contre cette petite encoche qui grignote votre barre de menu. Mais voilà qu’un développeur pas con a eu une bonne idée : transformer ce bout d’écran perdu en quelque chose de vraiment pratique. Et une fois qu’on y goûte, on ne peut plus s’en passer.

DropNotch est donc une application gratuite qui métamorphose votre notch en zone de dépôt instantané pour vos fichiers. Glissez un document, une image ou n’importe quel fichier vers l’encoche, et une petite interface apparaît avec vos options de partage : AirDrop, Mail, Messages.

Le concept est tellement simple qu’on se demande pourquoi Apple n’y a pas pensé. Au lieu d’ouvrir le Finder, faire un clic droit, chercher l’option partager, vous balancez directement votre fichier sur le notch. Deux secondes chrono pour envoyer un PDF à un collègue.

L’application fonctionne sur tous les Mac avec macOS Monterey ou plus récent. Pour les MacBook avec notch, c’est l’expérience optimale. Et pour les Mac sans notch physique (Mac mini, iMac), DropNotch crée intelligemment une zone de dépôt virtuelle dans la barre de menu, offrant la même praticité sans l’encoche.

Vous pouvez télécharger le fichier DMG directement depuis le site officiel et comme je le disais l’app est gratuite, ce qui est appréciable pour ce genre d’utilitaire qu’on apprécie mais jamais assez pour payer. Snif.

Pour ceux qui partagent souvent des fichiers en télétravail ou qui jonglent entre plusieurs projets, c’est donc un petit gain de temps. Plus besoin de naviguer dans les menus. Votre workflow devient plus fluide.

Ah et Apple Silicon ou Intel, peu importe, l’application est compatible avec les deux architectures.

Bref, transformer le notch en fonctionnalité aussi pratique, fallait y penser et j’adore !

Merci à Lorenper pour la découverte !

SHAI - Le développeur qui vit dans votre terminal

Shai, c’est un collègue développeur qui ne dort jamais, qui ne râle jamais quand vous lui demandez de déboguer votre code à 3h du matin, et qui vit littéralement dans votre terminal. C’est un outil qui s’inscrit dans la même lignée que Codex ou Claude Code et qui est 100% français puisque proposé par OVHcloud.

Terminé donc les outils qui nécessitent des interfaces graphiques lourdes ou des plugins IDE complexes puisqu’ici, tout se passe dans le terminal.

L’installation tient en une seule ligne :

curl -fsSL https://raw.githubusercontent.com/ovh/shai/main/install.sh | sh

Et en quelques secondes, vous avez un assistant IA fonctionnel, prêt à vous épauler dans vos tâches quotidiennes. Pas de configuration complexe, pas de dépendances infernales à gérer. Bien sûr, comme pour tout script téléchargé, pensez à vérifier le contenu avant exécution.

Vous l’aurez compris, SHAI ne se contente pas d’être un simple chatbot qui répond à vos questions. Il peut véritablement prendre le contrôle et exécuter des commandes, créer des fichiers, déboguer votre code, et même automatiser des workflows complets. Vous pouvez lui demander de créer un site web complet, de convertir des fichiers d’un format à l’autre, ou de corriger cette commande shell que vous n’arrivez jamais à mémoriser correctement.

La philosophie “written in Rust with love” inscrite dans le code du projet n’est pas non plus qu’une simple formule marketing car le choix de Rust garantit des performances exceptionnelles et une sécurité mémoire à toute épreuve. Avec 99,2% du code en Rust, les développeurs d’OVHcloud ont clairement misé sur la robustesse et la rapidité d’exécution. Je tiens quand même à dire qu’au cours de mes tests, j’ai quand même eu quelques plantages de l’application. Mais elle est encore jeune, donc j’espère que ça va s’améliorer.

Ce qui distingue vraiment SHAI des autres assistants IA, c’est sa capacité à fonctionner en mode “headless”. Vous pouvez simplement lui envoyer des prompts via un pipe Unix : echo "crée-moi un hello world en Python" | shai. Et rien que cette fonctionnalité ouvre des possibilités infinies pour l’automatisation et l’intégration dans des pipelines CI/CD existants.

Plus impressionnant encore, le mode “shell assistant” transforme SHAI en véritable garde du corps de votre terminal. Une fois activé, chaque fois qu’une commande échoue, SHAI intervient automatiquement pour vous proposer une correction. Plus besoin de chercher sur Stack Overflow pourquoi votre commande tar ne fonctionne pas comme prévu.

Pour réussir tout ça, il utilise par défaut Qwen3-32B mais rassurez vous, y’a moyen de changer de provider. L’aspect multi-provider est donc crucial et heureusement SHAI n’est pas verrouillé sur un seul modèle d’IA. Vous pouvez donc configurer différents providers selon vos besoins, vos préférences ou vos contraintes de confidentialité. Mais par défaut, OVHcloud propose un accès anonyme (avec limitation de débit) pour que tout le monde puisse tester l’outil sans engagement. Perso, j’ai éclaté la limite au bout de quelques minutes d’utilisation. Snif.

Lors de mes tests, j’ai aussi constaté que les commandes qu’on appelle normalement avec le “/” n’ont pas fonctionné chez moi et concernant le thème de l’interface de Shai, en fonction des couleurs de votre terminal, ça peut vite être illisible. C’est dommage mais j’imagine que ça va se bonifier avec le temps…

Voilà, avec Shai , OVHcloud mise clairement sur cette approche minimaliste mais puissante pour séduire les développeurs qui veulent de l’IA sans les complications habituelles et surtout qui tourne sur le sol français, dans le respect de vos données personnelles.

Je leur souhaite plein de succès !

Source

DirSearch - Un scanner de chemins web

Vous savez quel est le problème avec les serveurs web mal configurés ? C’est qu’ils sont comme ces vieux greniers où on entasse tout et n’importe quoi en pensant que personne n’ira jamais fouiller. Sauf que sur Internet, il y a toujours quelqu’un pour venir mettre son nez dans vos affaires.

J’ai récemment découvert dans DirSearch et cet outil reste une valeur sûre. Pendant que tout le monde s’excite sur les dernières IA et les zero-days à 100k$, ce petit scanner Python continue tranquillement de faire le job depuis des années.

Le principe est simple comme bonjour. Vous lui donnez une URL et une wordlist, et il va tester méthodiquement tous les chemins possibles pour voir ce qui traîne. Des fichiers de backup oubliés, des répertoires d’admin planqués, des configs exposées… Le genre de trucs qui peuvent transformer une simple reconnaissance en jackpot pour un pentester.

Ce qui rend DirSearch efficace, c’est son approche multi-threadée. Là où un script basique va tester les chemins un par un comme un escargot sous Valium, lui peut balancer des centaines de requêtes simultanées. Le multithreading permet de tester des milliers d’entrées rapidement.

Mais attention, ce n’est pas qu’une histoire de vitesse brute. L’outil est assez malin pour gérer les redirections, les codes d’erreur personnalisés, et même les WAF qui essaient de vous bloquer. Il peut adapter ses requêtes, changer de User-Agent, utiliser des proxies… Bref, il sait se faire discret quand il faut.

Pour l’installer, rien de plus simple. Un petit pip install dirsearch et c’est parti. Ou alors vous clonez le repo GitHub si vous préférez avoir la version de développement. Dans les deux cas, c’est opérationnel en 30 secondes chrono.

L’utilisation basique ressemble à ça :

dirsearch -u https://target.com

L’outil va automatiquement utiliser sa wordlist par défaut et commencer à scanner. Mais évidemment, c’est en personnalisant les options qu’on obtient les meilleurs résultats.

Vous pouvez spécifier les extensions à tester avec -e php,asp,txt. Pratique quand vous savez que le serveur tourne sous une techno particulière. Le flag -r active la récursion pour explorer les sous-répertoires trouvés. Et avec --exclude-status 404,403, vous filtrez le bruit pour ne garder que les résultats intéressants.

025-09-12-dirsearch-scanner-web-paths-1.mp4" >}}

Un truc que j’aime bien, c’est la possibilité de sauvegarder les résultats dans différents formats. L’outil supporte plusieurs formats de sortie : JSON pour parser facilement, texte simple pour un rapport rapide, ou XML pour l’intégration dans d’autres outils.

Comparé à ses concurrents comme Gobuster (codé en Go) ou Dirb, DirSearch s’en sort bien avec sa gestion efficace des cas particuliers.

L’outil gère aussi les authentifications HTTP basiques, les cookies de session, les headers personnalisés… Tout ce qu’il faut pour scanner des applications web modernes qui demandent une authentification. Vous pouvez même lui passer un certificat client si le serveur l’exige.

Le projet est hébergé sur GitHub où vous pouvez contribuer ou signaler des bugs.

Bon par contre, comme tout outil de scanning, utilisez-le uniquement sur des systèmes que vous êtes autorisé à tester. Scanner le site de votre banque “pour voir”, c’est le meilleur moyen de vous attirer des ennuis. Et croyez-moi, expliquer à un juge que c’était “juste pour apprendre”, ça passe moyen.

Pour les pros du pentest, DirSearch s’intègre bien dans une méthodologie complète. Vous commencez par un scan de ports avec Nmap, vous identifiez les services web, et hop, DirSearch entre en jeu pour explorer l’arborescence. Combiné avec Burp Suite pour l’analyse approfondie des résultats intéressants, c’est redoutable.

Pas d’IA, pas de machine learning, pas de blockchain. C’est un outil classique de brute-force intelligent qui complète bien une méthodologie de test complète… et franchement, quand on voit le nombre de serveurs qui traînent encore des phpMyAdmin non protégés ou des .git exposés, on se dit que les basiques ont encore de beaux jours devant eux.

Source

ToddlerBot - Le robot humanoïde à 4300 $ qui ridiculise les géants de la tech

Voici une info qui risque de faire grincer des dents chez Boston Dynamics et Tesla (ou pas ^^). Un doctorant de Berkeley, du nom de Haochen Shi, a décidé de partager généreusement avec le monde entier les plans d’un robot humanoïde fonctionnel pour seulement 4300 dollars de base. Oui, le prix d’une Nintendo Switch 2 (je rigole ^^) pour un robot bipède capable d’apprendre par lui-même.

Notre petit prodige s’appelle ToddlerBot , il mesure 33 centimètres de haut et possède 17 degrés de liberté. Pour vous donner une idée, c’est largement suffisant pour qu’il puisse marcher, manipuler des objets avec ses bras et effectuer des tâches complexes. Le tout avec des pièces imprimées en 3D et des servomoteurs qu’on trouve sur AliExpress.

Et notre ami Shi n’a pas juste mis en ligne un énième projet de robotique universitaire. Non, le gars a carrément publié l’intégralité du projet en open source sur GitHub sous licence MIT. Les fichiers CAD, le code Python, les schémas électroniques, tout y est. Vous pouvez donc littéralement cloner le repo et commencer à imprimer votre robot ce soir.

Côté hardware, l’architecture repose sur un Jetson Nano ou un Raspberry Pi selon votre budget. Les servomoteurs pour les jambes offrent un couple respectable pour cette échelle, pendant que les bras utilisent des modèles plus légers. Au final, le coût de base est de 4300 $, mais peut varier selon où vous achetez vos composants et les options que vous choisissez.

Mais attendez, le hardware n’est que la moitié de l’histoire. Du côté software, ToddlerBot intègre un système de téléopération complet qui permet de le contrôler à distance pour collecter des données d’entraînement. Cette approche de collecte de données est cruciale pour l’apprentissage par renforcement.

D’ailleurs, par rapport aux autres projets de robots humanoïdes low-cost, ToddlerBot se démarque par sa simplicité d’assemblage. Là où des projets comme Poppy nécessitent des compétences avancées en électronique, ToddlerBot peut être monté relativement facilement avec des outils basiques.

Ce qui change vraiment la donne ici, c’est l’écosystème qui commence à se former autour. Des makers du monde entier partagent déjà leurs modifications… certains ont ajouté des caméras pour la vision par ordinateur, d’autres expérimentent avec des matériaux différents pour les pièces imprimées. Les possibilités de personnalisation sont infinies.

Pour l’entraînement IA, le projet propose des environnements de simulation préconfigurés. Ça rend le transfert sim-to-real, comme disent les chercheurs, accessible au commun des mortels. Vous pouvez donc apprendre à votre robot à marcher, ramasser des objets ou même jouer au foot miniature. Les modèles pré-entraînés sont disponibles, mais rien ne vous empêche de partir de zéro avec vos propres algorithmes d’apprentissage par renforcement.

Un aspect que je trouve particulièrement cool dans ce projet c’est que ToddlerBot est conçu pour être modulaire. Vous voulez des bras plus longs ? Modifiez les fichiers CAD. Besoin de plus de puissance de calcul ? Remplacez le Raspberry Pi par un Jetson Orin. Cette flexibilité transforme chaque robot en plateforme d’expérimentation unique.

Les implications sont énormes car si n’importe qui peut construire un robot humanoïde pour le prix d’une console de jeu, on entre dans une nouvelle ère de la robotique. Fini le monopole des labos universitaires, des millionnaires et des géants de la tech. Bien sûr, il faut quand même des compétences techniques pour exploiter pleinement le potentiel du projet, mais la barrière d’entrée n’a jamais été aussi basse.

Et ce côté DIY ajoute une dimension émotionnelle qu’on ne retrouve pas avec un produit commercial. C’est votre création, votre code, vos améliorations.

Alors vous voulez vous lancer, commencez par commander les servomoteurs (comptez 3-4 semaines de livraison depuis la Chine) et pendant ce temps, imprimez les pièces et familiarisez-vous avec le code. La documentation du projet est bien faite et la communauté est vraiment accueillante avec les débutants.

N’empêche, un robot humanoïde fonctionnel à imprimer en 3D… Qui l’aurait cru ?

Transformez vos ebooks en cartes mentales

Un dénommé SSShooter, développeur de son état, a concocté un projet open source qui pourrait bien vous aider pour mieux apprendre n’importe quel sujet, à l’aide de cartes mentales. Baptisé Ebook to Mindmap , son outil transforme vos EPUB et PDF en cartes mentales interactives, le tout propulsé grâce à l’intelligence artificielle.

Cela permet de ne plus vous cogner 300 pages d’un traité sur le machine learning tout en griffonnant des notes sur un coin de nappe. Là vous glissez votre fichier dans l’outil et voilà ! Vous obtenez une carte mentale structurée regroupant tous les concepts clés, les relations entre les idées et l’architecture globale du bouquin.

Ce qui est plutôt cool avec cet outil, c’est qu’il ne se contente pas de vous balancer un résumé basique. Le projet utilise Google Gemini ou GPT d’OpenAI pour analyser intelligemment le contenu. Il détermine automatiquement la structure des chapitres, ignore les préfaces et tables des matières inutiles et vous propose trois modes de traitement différents selon vos besoins.

Que vous ayez besoin d’un simple résumé textuel parce que vous êtes pressé, d’une mindmap par chapitre pour une analyse détaillée, ou d’une carte mentale globale du livre entier, c’est vous qui choisissez. Et tout ça avec un système de cache intelligent qui vous épargne de re-traiter les mêmes bouquins encore et encore.

Pour l’installation, rien de compliqué si vous avez Node.js 18+ sur votre machine. Un petit git clone, un pnpm install et hop, vous êtes lancé. Vous configurez votre clé API (Google Gemini ou OpenAI), vous uploadez votre ebook et vous laissez l’outil faire son travail. Y’a même une démo accessible ici en ligne pour tester sans installer.

Mais comme le code est open source, vous gardez le contrôle sur le processus. Vous pouvez ainsi définir la profondeur des sous-chapitres à analyser, choisir le type de livre (technique, fiction, business…) et même ajuster les paramètres avancés selon vos besoins spécifiques.

Pour les étudiants qui doivent se farcir des pavés de 800 pages sur la thermodynamique quantique, ou pour les professionnels qui veulent extraire rapidement l’essence d’un livre business sans y passer le weekend, c’est parfait. Et pour les curieux qui accumulent les ebooks mais n’ont jamais le temps de tous les lire en détail, c’est la solution miracle.

Le seul bémol que je vois, c’est qu’il faut quand même une clé API pour faire tourner l’IA. Mais bon, avec les tarifs actuels de Google Gemini, ça reste largement abordable pour un usage personnel. Et puis si vous êtes développeur, rien ne vous empêche de forker le projet et d’y intégrer votre propre modèle d’IA local comme je l’ai fait pour LocalSite .

Cursor - L'IA sacrifie votre sécurité pour sa petite performance

Un fichier JSON qui met en danger des milliers de développeurs. Voilà en gros le pitch du jour, et franchement, il y a de quoi s’inquiéter un peu.

Vous connaissez Cursor ? C’est ce nouvel éditeur de code qui fait le buzz avec son IA intégrée, GPT-5 et Claude sous le capot. Et bien selon Oasis Security , cet outil de plus en plus populaire dans la communauté des développeurs, a une faille d’importance. En effet, l’équipe de développement a décidé de désactiver par défaut une fonction de sécurité cruciale de Visual Studio Code qui est le Workspace Trust.

Pourquoi ? Bah parce que ça gênait le fonctionnement de leur précieuse IA !

Alors qu’est-ce que ça change ce Workspace Trust ? Eh bien, imaginez que vous ouvrez tranquillement un projet GitHub pour jeter un œil au code. Pas pour l’exécuter, juste pour regarder. Avec VS Code de base, aucun souci, le Workspace Trust vous protège mais avec Cursor, c’est open bar pour les hackers.

Car il suffit qu’un petit malin glisse un fichier .vscode/tasks.json dans son repository avec la bonne configuration, et boom. Dès que vous ouvrez le dossier, le code s’exécute automatiquement sur votre machine avec "runOn": "folderOpen". Sans votre accord bien sûr. Sans même que vous vous en rendiez compte.

Les chercheurs d’Oasis Security ont créé une démo pour prouver le danger . Leur fichier tasks.json envoie discrètement le nom d’utilisateur de la victime vers un serveur externe. Sympa comme proof of concept, mais imaginez les dégâts avec du vrai code malveillant.

Avec ce genre de manip, un attaquant pourrait faire du vol de tokens d’authentification, de clés API planquées dans vos variables d’environnement, une modification silencieuse de vos fichiers de code, un connexion à un serveur de commande et contrôle… etc. Bref, le kit complet du cybercriminel moderne et vu que beaucoup de développeurs bossent sur des projets sensibles, ça peut vite devenir une porte d’entrée pour des attaques sur la chaîne d’approvisionnement logicielle.

Le truc énervant, c’est quand Oasis Security a alerté l’équipe de Cursor… leur réponse a été… comment dire… rafraîchissante car selon les chercheurs, l’équipe de Cursor a reconnu le problème mais a refusé de réactiver le Workspace Trust par défaut. Plus diplomatiquement, ils ont expliqué que cette fonction de sécurité casserait les fonctionnalités IA pour lesquelles les gens utilisent leur produit.

Leur conseil pour ceux qui s’inquiètent c’est donc d’ activer manuellement le Workspace Trust dans les paramètres ou d’utiliser un autre éditeur pour ouvrir les projets douteux. Autrement dit, démerdez-vous.

Pour activer cette protection vous-même, il faut donc aller dans les settings et modifier security.workspace.trust.enabled en le passant à true. Vous pouvez aussi complètement désactiver l’exécution automatique des tâches avec task.allowAutomaticTasks: "off".

Plusieurs experts en sécurité recommandent maintenant d’ouvrir les repositories inconnus uniquement dans des environnements isolés, genre machine virtuelle ou conteneur jetable. Pas très pratique pour du code review rapide.

En tout cas, je me souviens que ce n’est pas la première fois que Cursor fait parler de lui niveau sécurité. Récemment, deux autres vulnérabilités ont été découvertes : MCPoison (CVE-2025-54136) et CurXecute (CVE-2025-54135). Bref, visiblement, la sécurité n’est pas leur priorité numéro un.

Et pour détecter si vous êtes victime de cette faille, cherchez les fichiers .vscode/tasks.json contenant "runOn": "folderOpen" dans vos projets. Surveillez aussi les shells lancés par votre IDE et les connexions réseau inhabituelles juste après l’ouverture d’un projet.

A vous de décider maintenant… jusqu’où êtes-vous prêt à sacrifier votre sécurité pour un peu plus de confort ? Parce que là, on parle quand même d’exécution de code arbitraire sans consentement…

Plus sécurisé, plus rapide - Quand Rust dépoussière les commandes Linux de base

Vous êtes un warrior ! Normal, vous utilisez Linux depuis des années. Et vous aimez beaucoup toutes vos petites commandes du quotidien, ls, cat, base64… Vous le savez, tout ça fonctionne avec du bon vieux code C aussi vénérable que solide. Du code robuste, certes, mais qui pourrait bien se faire dépasser par plus moderne. Hé oui, parce qu’une bande de développeurs a décidé de refaire tout uutils Coreutils en Rust, et en prime, leurs nouvelles versions sont largement plus rapides que les originales.

Les benchmarks parlent d’eux-mêmes : l’utilitaire base64 mouline maintenant en 3,146 secondes là où GNU Coreutils prend 4,901 secondes. La version Rust est donc clairement plus rapide, mais le plus fou, c’est que la version précédente de Rust Coreutils mettait encore 5,998 secondes. En gros, ils ont pratiquement doublé la vitesse entre leurs deux versions mineures.

Alors comment ils ont fait ça ? Et bien en intégrant la bibliothèque base64-simd qui exploite les instructions SIMD des processeurs modernes. Pour faire simple, au lieu de traiter les données octet par octet comme un escargot asthmatique, le nouveau code traite plusieurs octets en parallèle, comme un guépard qui serait abonné à la chaine de Tibo Inshape. SSE4.1, AVX2, AVX-512 pour les processeurs Intel et AMD, et ARM NEON pour les puces ARM comme les Apple Silicon… ce sont toutes ces architectures qui profitent de l’accélération.

D’ailleurs, ce n’est pas qu’une histoire de performance brute. Ubuntu prévoit d’intégrer ces outils Rust dans sa version 25.10. Et Canonical ne fait pas ça pour suivre la mode du Rust… Non, ils voient un vrai intérêt qui est la sécurité mémoire garantie par Rust. Cela élimine toute une catégorie de bugs qui hantent le code C depuis des décennies, à savoir les buffer overflows, les use-after-free…etc, tout ce folklore de développeur devient impossible avec Rust.

Et Sylvestre Ledru , le développeur principal du projet uutils, n’a pas juste optimisé base64. Par exemple, la commande tr qui était 9,8 fois plus lente que GNU dans les anciennes versions est maintenant 1,58 fois plus rapide par rapport à sa propre version précédente !

Bon après, je vais faire plaisir aux grincheux qui n’aiment pas le changment, oui, tout n’est pas rose non plus. Sur les 600 tests de la suite GNU, Rust Coreutils n’en passe que 500 environ. Il reste donc un peu de boulot pour avoir une compatibilité parfaite. Mais avec l’attention que le projet reçoit en ce moment et le soutien d’Ubuntu, ça devrait s’améliorer rapidement.

Ça fait plaisir de voir ce bon vieux code C qui fait tourner nos systèmes depuis des millénaires est en train d’être challengé par du Rust. Et non pas parce que c’est à la mode, mais parce que dans certains cas, c’est objectivement meilleur : plus rapide, plus sûr, plus maintenable.

Pour les dev parmi vous qui veulent tester, la nouvelle release 0.2.2 est disponible sur GitHub . Et pour ceux qui se demandent si c’est vraiment utile d’optimiser des commandes qui s’exécutent en quelques secondes, rappelez-vous que ces outils sont appelés des milliers de fois par jour dans des scripts, des pipelines CI/CD, des conteneurs Docker… Chaque milliseconde gagnée, c’est donc un gros paquet d’énergie économisée et du temps machine libéré !

Alors, prêts à voir vos vieilles commandes Linux carburer au Rust ?

Source

❌