Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Quand Claude Code pilote votre terminal...

Il y a des moments où on tombe sur une approche si simple et efficace qu’on se demande pourquoi on n’y avait pas pensé avant. C’est exactement ce que j’ai ressenti en découvrant la technique d’Armin Ronacher pour donner à Claude Code le contrôle total d’une session de debugging.

Le principe c’est de combiner GNU Screen, ce vieux multiplexeur de terminal que certains considèrent comme dépassé, avec LLDB, le debugger de LLVM, pour créer un environnement où Claude peut littéralement piloter votre terminal comme s’il était assis devant votre clavier.

Comme ça, au lieu d’implémenter des serveurs MCP complexes ou des intégrations cheloues, Ronacher s’appuie sur des outils qui existent depuis des décennies. GNU Screen permet de multiplexer un terminal physique entre plusieurs processus, créant des sessions persistantes qui survivent aux déconnexions SSH. C’est cette persistance qui devient la clé de voûte du système.

Dans sa démonstration vidéo, Ronacher montre donc comment il configure Claude Code pour automatiser complètement une session de debugging. Le secret tient dans quelques lignes ajoutées au fichier CLAUDE.md : “définir un nom de session Screen spécifique pour le debugging, utiliser la syntaxe “dollar string” pour envoyer des commandes, et fermer proprement la session une fois terminé”.

Claude peut alors créer la session, lancer LLDB, identifier un bug de type segfault, le corriger, recompiler le code et vérifier que tout fonctionne. Le tout sans intervention humaine.

Comme le souligne Ronacher dans ses recommandations, Claude Code excelle quand on lui donne accès à des outils bien documentés qu’il connaît déjà. Screen et LLDB font partie de ces outils sur lesquels il existe une montagne de documentation et d’exemples donc Claude peut les manipuler avec aisance. En tout cas, beaucoup plus que moi, c’est certain !

Mais au-delà du debugging, cette technique ouvre des perspectives fascinantes pour l’automatisation. On pourrait imaginer un Claude gérant vos sessions tmux pour orchestrer des déploiements multi-serveurs, surveillant des logs en temps réel via Screen pour détecter des anomalies, ou même maintenant des connexions SSH persistantes vers des serveurs pour des interventions d’urgence. J’avoue c’est toujours prendre un risque donc à éviter sur de la prod, mais c’est très cool quand même.

Surtout que les sessions Screen continuent de fonctionner même quand la fenêtre n’est pas visible. C’est ça qui permet à Claude de maintenir des processus longs sans monopoliser votre terminal.

Si vous faites du DevOps, vous pourriez configurer Claude pour qu’il lance automatiquement des sessions Screen lors de debugging de containers Docker, maintienne des tunnels SSH persistants pour du debugging à distance de Kubernetes, ou même gère des sessions de monitoring avec des dashboards textuels comme htop ou glances. La combinaison de la persistance de Screen et de l’intelligence de Claude crée un assistant capable de gérer des workflows complexes de manière autonome.

C’est vrai que Screen est souvent considéré comme obsolète face à tmux, mais dans ce cas précis, sa simplicité devient un avantage car Claude a probablement plus de données d’entraînement sur Screen, qui existe depuis 1987, que sur des alternatives plus modernes. Donc c’est smooooth pour lui…

Un autre cas d’usage intéressant serait la gestion de sessions de développement complexes durant lesquelles Claude pourrait maintenir plusieurs fenêtres Screen avec différents environnements : une pour les tests, une pour le serveur de développement, une pour les logs, et naviguer entre elles selon les besoins. Vous pourriez ainsi demander à Claude de lancer les tests et de vous montrer les logs en cas d’échec, et il orchestrerait tout via Screen.

Pour les équipes, cette technique pourrait vraiment renforcer le pair programming à distance…. Vous partagez une session Screen avec Claude et un collègue simultanément et Claude pourrait vous assister en temps réel, suggérer des corrections, exécuter des commandes de diagnostic, pendant que vous discutez de l’architecture avec votre collègue avec un petit kawa. C’est comme avoir un 3e collègue expert toujours dispo.

Pas besoin d’API, de webhooks, ou de services cloud… Juste des outils Unix standard que tout développeur a déjà sur sa machine et un bon prompt et hop ça fait des chocapics (ou plus de bugs…^^) !

Bref, parfois les solutions les plus belles sont aussi les plus simples. Pas besoin de réinventer la roue…

Un système solaire 3D dans votre navigateur

Elle est loin l’époque où on s’extasiait devant un gif animé de la Terre qui tournait. Mais non, rien de rien, je ne regrette rien car un développeur du nom de SoumyaEXE nous a pondu un système solaire complet avec 50 lunes et des ceintures d’astéroïdes, le tout qui tourne dans votre navigateur. Sans plugin. Sans téléchargement. Juste du JavaScript et sa magie.

En plus ce projet débarque pile au moment où de plus en plus de développeurs cherchent l’équilibre parfait entre la simplicité et la performance pour leurs applications web, et ce système solaire en est le parfait exemple. Les textures viennent directement de la NASA, les distances sont mises à l’échelle pour que votre cerveau puisse y comprendre quelque chose, et même votre vieux smartphone peut faire tourner le tout sans broncher ou presque.

J’ai passé plusieurs minutes à zoomer / dezoomer sur les lunes de Jupiter et les astéroides, et c’est assez hypnotisant. Pan, zoom, rotation… tout est fluide comme dans du Planta Fin ^^ et le dev a même pensé à ajouter des toggles pour afficher ou masquer les orbites, les labels, les ceintures d’astéroïdes. Bref, vous pouvez littéralement personnaliser votre exploration spatiale pour vous la jouer Thomas Pesquet en culottes courtes.

C’est fou surtout de voir comment Three.js a évolué. Sur les forums spécialisés, le développeurs explique que créer ce genre de simulation était sa motivation principale pour apprendre cette technologie, et je trouve ça bien comment façon de faire. Et quand on voit le résultat, je me dit que les limites du web sont vraiment repoussées chaque jour un peu plus.

Techniquement, le projet utilise également Vite pour le build, ce qui explique pourquoi tout est si rapide à charger. Les modèles 3D sont optimisés, les animations d’orbites sont calculées en temps réel, et pourtant, aucun ralentissement. C’est accessible, performant, et surtout open source.

D’ailleurs, parlant d’open source, tout le code est disponible sur GitHub. Donc vous pouvez le cloner, le modifier, ajouter d’autres objets si ça vous chante (Ou faire basculer Pluton du côté des planètes…^^), ou pourquoi pas le franciser. Et pour apprendre Three.js, c’est également un excellent point de départ.

Et si vous voulez une ambiance plus immersive, vous pouvez même ajouter de la musique d’Interstellar. Bon, ok, c’est un peu gadget, mais ça fait son petit effet.

Pour les développeurs qui lisent ça, sachez que le projet utilise les GLTFLoader et OrbitControls de Three.js, avec un système de caméra perspective bien pensé. L’éclairage combine ambient et directional lights pour donner ce rendu réaliste aux planètes. C’est du travail propre, bien commenté, et facilement extensible.

Donc si vous cherchez une excuse pour procrastiner intelligemment aujourd’hui, foncez tester cette merveille. Et qui sait, peut-être que ça vous donnera envie de vous lancer dans le développement web 3D.

Source

Les États-Unis planquent des trackers GPS dans les puces IA pour coincer les contrebandiers

Imaginez un instant que soyez contrebandier de puces électroniques… Vous venez de recevoir un serveur Dell flambant neuf bourré de puces Nvidia H100 que vous comptez évidemment revendre à prix d’or sur le marché chinois.

Alors vous ouvrez le carton, pour inspecter minutieusement chaque recoin du paquet et là, Ô surprise, vous trouvez un petit boîtier de la taille d’un smartphone bien caché dans l’emballage. Félicitations !! Vous venez de vous faire griller par l’Oncle Sam !

Cette histoire n’est pas tirée d’un film d’espionnage de mon cerveau torturé mais bien de la réalité car selon Reuters, les autorités américaines ont placé secrètement des trackers GPS dans certaines livraisons de puces IA qu’elles considèrent à haut risque de détournement vers la Chine.

Et apparemment, ça fonctionne plutôt bien puisque deux ressortissants chinois ont été arrêtés début août pour avoir tenté d’exporter illégalement pour des dizaines de millions de dollars de puces Nvidia vers l’Empire du Milieu.

Et le niveau de sophistication de l’opération est top, car les trackers ne sont pas juste collés sur les cartons. Dans un cas documenté datant de 2024, les autorités ont carrément placé plusieurs types de dispositifs. A la fois des gros trackers visibles sur les boîtes d’expédition pour le suivi basique, et des plus petits, bien planqués dans l’emballage voire directement dans les serveurs eux-mêmes. C’est malin !!

Mais ces contrebandiers ne sont pas dupes non plus. On peut lire par exemple dans les documents judiciaires, que l’un des accusés avait prévenu son complice : “Fais attention de bien chercher s’il y a un tracker dessus, tu dois regarder attentivement”. Ces types passent leur temps à démonter des serveurs Dell et Super Micro pour vérifier qu’il n’y a pas de mouchard caché quelque part… Bref, ce sont devenu des champions au jeu du chat et de la souris avec les autorités.

Bien sûr cette pratique n’est pas nouvelle du tout. Les États-Unis utilisent des trackers pour surveiller les exportations sensibles depuis des décennies. En 1985 déjà, Hughes Aircraft avait vu ses équipements interceptés par les douanes américaines qui y avaient installé un dispositif de localisation. Sauf qu’à l’époque, on parlait de pièces d’avion, pas de puces IA capables de faire tourner des LLM.

Et l’ampleur de ce trafic est vertigineuse. Malgré les restrictions imposées depuis 2022, au moins 1 milliard de dollars de puces Nvidia auraient été introduites illégalement en Chine rien qu’au cours des trois derniers mois. Les contrebandiers passent par la Malaisie, Singapour ou les Émirats arabes unis pour brouiller les pistes. C’est un vrai business qui rapporte gros quand on sait qu’une seule puce H100 peut se négocier plusieurs dizaines de milliers de dollars au marché noir.

Et pendant ce temps, la tension monte entre Pékin et les fabricants de puces. Le 31 juillet dernier, l’administration chinoise du cyberespace a convoqué Nvidia pour lui demander des explications sur les risques de “backdoors” dans ses puces H20. Les Chinois craignaient que les Américains puissent désactiver à distance leurs précieux processeurs ou les utiliser pour les espionner. Nvidia a bien sûr démenti catégoriquement (What else !?), expliquant que mettre des backdoors dans des puces serait un cadeau fait aux hackers et aux acteurs hostiles et que ça mettrait à risque l’infrastructure numérique mondiale.

Au milieu de ce bras de fer géopolitique, les entreprises comme Dell et Super Micro se retrouvent donc coincées. Dell affirme ne pas être au courant de cette initiative gouvernementale de tracking, tandis que Super Micro refuse de commenter ses “pratiques et politiques de sécurité”. Nvidia et AMD, eux, préfèrent ne pas répondre du tout. On les comprend, c’est un sujet sensible…

Cette histoire de trackers dans les puces révèle surtout l’absurdité de la situation actuelle car d’un côté, les États-Unis tentent désespérément d’empêcher la Chine d’accéder aux technologies d’IA les plus avancées. Et de l’autre, la demande chinoise est tellement forte que des réseaux entiers de contrebande se sont organisés pour contourner l’embargo.

Le pire c’est que les autorités américaines envisagent maintenant d’obliger les fabricants à intégrer directement des systèmes de localisation DANS leurs puces. Oui, oui… Vous vous doutez, c’est une proposition qui fait bondir l’industrie, car elle créerait une vulnérabilité permanente dans le hardware. Comme l’a dit David Reber, le responsable sécurité de Nvidia, intégrer un kill switch dans une puce, serait “une invitation ouverte au désastre”, et je suis assez d’accord avec lui.

Bref, bon courage aux chinois ^^

MkEditor - L'éditeur Markdown que personne n'attendait

Moi, j’adore quand quelqu’un fabrique un truc juste parce qu’il en a envie, sans business plan, sans pitch deck, sans lever de fonds. Juste un dev, son clavier, et l’envie de créer.

Et bien c’est exactement ce qui s’est passé avec MkEditor, et ça fait du bien !

Le créateur de MkEditor (qui se décrit lui-même comme “un peu timide pour partager ses créations”) a passé plusieurs années à maintenir cet éditeur Markdown qui respecte les specs CommonMark.

Pourquoi ?

Et bien pas pour concurrencer Obsidian ou Typora. Pas pour devenir la prochaine licorne de la tech. Non, non, juste parce qu’il voulait comprendre comment VSCode fonctionnait en détail. Et ce qu’il nous a pondu, c’est un éditeur qui utilise Monaco Editor de Microsoft, le même moteur qui fait tourner VSCode.

Alors oui, on va me dire “mais Korben, il existe déjà 50 éditeurs Markdown”. C’est vrai et ces éditeurs ont su se rendre incontournables pour les développeurs et les équipes. Obsidian cartonne avec son graph view, Typora fait toujours rêver avec son rendu en temps réel. Mais MkEditor a quelque chose de différent : Il ne cherche pas à révolutionner quoi que ce soit. Il fait juste très bien ce qu’il fait.

L’outil embarque des fonctionnalités plutôt sympas. D’abord, vous avez un split screen redimensionnable avec synchronisation du scroll entre l’éditeur et la preview. Ensuite, des raccourcis clavier personnalisables pour formater votre texte ou insérer des blocs de code. Et il y a même de l’autocomplétion pour les langages dans les code blocks, exactement comme dans VSCode.

Ce qui est bien pensé aussi, c’est l’export HTML. Vous pouvez comme ça générer du HTML brut ou une version stylée avec Bootstrap et FontAwesome directement injectés dans le <head>. Pratique quand vous voulez partager un document qui a de la gueule sans vous prendre la tête avec le CSS. Les paramètres sont configurables soit via l’interface, soit directement dans un fichier settings.json pour les puristes du terminal.

Le truc cool aussi, c’est qu’il y a la palette de commandes de VSCode. Vous tapez Ctrl+Shift+P (ou Cmd+Shift+P sur Mac) et boom, vous avez accès à toutes les commandes. Pour ceux qui vivent dans VSCode, c’est comme retrouver ses pantoufles.

Et si vous ne voulez pas installer l’application desktop (disponible en Electron pour Windows, Linux et macOS), vous pouvez tester directement la version web en cliquant ici. Pas de compte à créer, pas de données à fournir, vous arrivez et vous écrivez. C’est chouette non, à une époque où chaque app veut votre mail, votre 06 et votre groupe sanguin.

Le développeur l’avoue lui-même dans son post… il a créé MkEditor juste parce qu’il en avait envie, sans cas d’usage particulier, juste pour le plaisir de construire quelque chose. C’est cette philosophie qui résume tout ce que j’aime dans l’open source.

Le projet est donc sur GitHub si vous voulez contribuer ou juste jeter un œil au code. Le dev accepte les feedbacks et les rapports de bugs, toujours avec cette modestie qui caractérise les vrais artisans du code.

Alors non, MkEditor ne va pas détrôner les géants du Markdown et il ne va pas lever 10 millions (enfin, quoique, on ne sait jamais dans la vie…). Il n’aura peut-être même pas sa propre conférence annuelle, mais il existe, il fonctionne bien, et il est gratuit.

Botasaurus - Le scraper qui rend Cloudflare aussi facile à contourner qu'un CAPTCHA de 2005

Hey les scrapers de l’espace là, vous en avez marre de vous battre contre Cloudflare comme si c’était le boss final d’un Dark Souls ? Et bien sûr, vous avez testé Selenium et Playwright mais vos bots se font démasquer plus vite qu’un menteur à l’Assemblée Nationale ? Alors ça tombe bien car j’ai trouvé votre nouveau meilleur ami, et il s’appelle Botasaurus.

Derrière ce nom de dinosaure se cache un framework Python open source, conçu pour le scraping web moderne. Créé par Omkar Cloud, il promet de faire passer vos bots pour des humains plus vrais que nature.

La première chose avec Botasaurus, c’est sa capacité à contourner les protections anti-bot. Il passe notamment la barrière de Cloudflare avec brio mais pas seulement, puisqu’il gère aussi très bien PerimeterX, BrowserScan, Fingerprint Bot Detection, et même les CAPTCHA Turnstile. Le créateur du framework a même publié une vidéo où il contourne tous ces systèmes en live. La grande classe !

Concernant Datadome, il semble cependant galérer encore un peu d’après les retours que j’ai eu.

Ce qui démarque Botasaurus, c’est surtout son approche “humane driver” car au lieu d’utiliser bêtement Selenium ou Playwright, le framework ajoute une couche d’humanisation qui simule des mouvements de souris réalistes, des temps de pause naturels, et même des patterns de navigation qui imitent un vrai utilisateur. Du coup vos bots passent incognito avec du style ^^.

Ce framework permet même d’économiser jusqu’à 97% sur les coûts de proxy. Comment ? Et bien en utilisant des requêtes fetch basées sur le navigateur au lieu de lancer un navigateur complet pour chaque requête. C’est malin et ça fait une sacrée différence sur la facture à la fin du mois.

Pour l’installation, c’est du Python classique :

python -m pip install --upgrade botasaurus

Et voici un exemple simple pour scraper un site :

from botasaurus.browser import browser, Driver

@browser
def scrape_heading_task(driver: Driver, data):
# Visite le site via Google Referrer (pour bypass Cloudflare)
driver.google_get(data['url'])

# Récupère le texte du titre
heading = driver.get_text('h1')

return {"heading": heading}

# Lance le scraping
scrape_heading_task()

Ce décorateur @browser gère automatiquement tout le setup du navigateur, les anti-détections, et même la sauvegarde des résultats en JSON. Comme ça, pas besoin de se prendre la tête avec la configuration.

Et pour les cas où vous avez besoin de contourner du Cloudflare plus agressif, il suffit d’ajouter un paramètre comme ceci :

driver.google_get(url, bypass_cloudflare=True)

D’après les benchmarks de ScrapingAnt, Botasaurus est plus furtif qu’undetected-chromedriver et puppeteer-stealth. C’est dire le niveau de sophistication atteint.

Un autre point fort de Botasaurus, c’est également la possibilité de transformer votre scraper en application desktop. En une journée, vous pouvez créer une app pour Windows, Mac et Linux avec une interface graphique complète. C’est génial, car ça vous éviter d’expliquer à vos clients comment lancer un script Python. Ils ont juste une app sur laquelle double-cliquer.

Le framework inclut aussi un serveur web intégré qui permet de créer une UI pour vos scrapers comme ça, avec quelques lignes de JavaScript, vous pouvez définir des formulaires d’input, des filtres, des exports en CSV/Excel, et même une API REST pour intégrer votre scraper ailleurs.

Ce framework brille donc particulièrement pour tout ce qui est :

  • Les sites avec protection Cloudflare basique à modérée
  • Le scraping local ou sur VPS avec peu de volume
  • La création rapide de scrapers avec UI
  • Les projets où l’anti-détection prime sur la performance pure

Par contre, pour du scraping massif à grande échelle ou contre des protections enterprise ultra-sophistiquées, vous devrez probablement combiner Botasaurus avec d’autres outils ou services.

Bref, c’est à tester !

SynoCommunity - Transformez votre NAS Synology avec ces outils en ligne de commande

Si vous possédez un NAS Synology et que vous aimez mettre les mains dans le cambouis, faut absolument que vous lisiez cet article. Car vous avez déjà forcement connu ce moment hyper frustrant où vous voulez juste lancer un nano ou un htop sur votre NAS et… rien ? En effet, le terminal Synology est plutôt spartiate de base. Heureusement, SynoCommunity vient à votre rescousse avec ses packages SynoCli qui permet d’ajouter de nouveaux outils indispensables sur votre NAS.

Alors SynoCommunity, c’est donc une communauté open source qui maintient plus de 130 packages tiers pour Synology DSM. Des applications comme Transmission, SickRage, ou même Home Assistant, mais aujourd’hui, j’aimerai surtout qu’on se concentre sur leurs 7 packages SynoCli qui regroupent plus de 110 outils en ligne de commande. Ça va vous permettre d’installer tout un arsenal d’utilitaires Linux d’un seul coup, sans vous prendre la tête avec les compilations croisées.

La beauté du truc, c’est que tout passe par le Package Center de votre Synology. Pas besoin de SSH, pas de risque de casser votre système, et surtout, tout reste proprement géré par DSM. Si vous mettez à jour votre NAS ou que vous voulez désinstaller, tout se fait proprement.

Bon, trêve de blabla, passons maintenant aux choses sérieuses : ✨l’installation✨.

D’abord, il faut ajouter le dépôt SynoCommunity à votre Package Center. Pour cela, connectez-vous à votre DSM, allez dans le Package Center, puis dans les Paramètres. Et dans l’onglet Sources de paquets, cliquez sur Ajouter et entrez :

Validez, et voilà, vous avez maintenant accès à tout le catalogue SynoCommunity dans l’onglet Communauté de votre Package Center.

Maintenant, cherchez “SynoCli” dans le Package Center. Vous allez alors tomber sur 7 packages différents, chacun ayant sa spécialité. Voici ce que contient chaque package :

  • SynoCliNet pour le réseau : vous avez nmap (l’outil de scan réseau par excellence), tmux et screen pour gérer vos sessions SSH, mtr pour diagnostiquer les problèmes réseau, rsync pour vos synchronisations, et même sshfs pour monter des systèmes de fichiers distants. La version actuelle inclut aussi telnet, whois et dig.
  • SynoCliFile pour la gestion de fichiers : c’est le package star avec nano et micro pour éditer vos fichiers, tree pour visualiser l’arborescence, fzf (le fuzzy finder qui change la vie), ripgrep pour des recherches ultra-rapides, bat (un cat avec coloration syntaxique), et même Midnight Commander pour ceux qui ont la nostalgie de Norton Commander. Les dernières versions incluent aussi eza et lsd, des alternatives modernes à ls.
  • SynoCliMonitor pour surveiller votre système : htop évidemment (parce que top c’est has-been), iotop pour voir qui bouffe votre disque, iperf pour tester votre bande passante, et même bandwhich pour visualiser en temps réel qui utilise votre réseau. Les amateurs d’SNMP seront ravis de trouver les outils net-snmp inclus.
  • SynoCliDevel pour les développeurs : automake, autoconf, make, gdb pour débugger, pkg-config, et même strace pour tracer les appels système. Parfait si vous voulez compiler des trucs directement sur votre NAS.
  • SynoCliDisk pour gérer vos disques : testdisk pour récupérer des partitions perdues, ncdu pour voir ce qui prend de la place (en mode interactif), smartmontools pour surveiller la santé de vos disques, et ddrescue si vous devez récupérer des données d’un disque mourant.
  • SynoCliKernel pour les modules kernel : celui-là est plus spécialisé, avec des modules pour l’USB série et les tuners TV. Utile si vous branchez des périphériques exotiques sur votre NAS.
  • SynoCliMisc pour tout le reste : bc (la calculatrice en ligne de commande), expect pour automatiser des scripts interactifs, parallel pour paralléliser vos commandes, et plein d’utilitaires issus de util-linux comme lsblk, lscpu, findmnt.

Une fois installés, tous ces outils sont alors accessibles directement depuis le terminal SSH de votre Synology. Pas de PATH à configurer, pas de bibliothèques manquantes, ça marche direct.

Petite astuce quand même en passant… vous n’êtes évidemment pas obligé d’installer tous les packages. Si vous voulez juste éditer des fichiers et surveiller votre système, SynoCliFile et SynoCliMonitor suffisent largement. Chaque package fait entre 10 et 50 MB, donc ça reste raisonnable.

Pour DSM 7, attention, selon les développeurs, certains packages peuvent nécessiter des adaptations, mais la communauté est active et les mises à jour sont régulières. D’ailleurs, si vous upgradez de DSM 6 vers DSM 7, pensez à sauvegarder vos configurations avant. Ce qui est cool avec SynoCommunity surtout, c’est que tout est open source. Vous pouvez aller voir le code sur GitHub, contribuer si vous voulez, ou même créer vos propres packages avec leur framework spksrc. C’est une vraie communauté de passionnés qui maintiennent ça sur leur temps libre.

Bref, si vous utilisez votre Synology pour autre chose que du stockage basique, ces packages SynoCli sont indispensables. Ça transforme votre NAS en véritable serveur Linux, avec tous les outils dont vous avez besoin pour administrer, développer, et débugger… Comme ça, plus besoin d’installer Entware ou de bricoler avec ipkg/opkg. Tout est propre, maintenu, et intégré à DSM.

Alors oui, vous pourriez compiler tout ça vous-même, mais pourquoi se compliquer la vie quand une communauté entière le fait déjà pour vous ? En plus, avec le système de packages Synology, vous pouvez installer/désinstaller/mettre à jour en un clic, sans risquer de casser votre système.

Voilà, maintenant votre NAS Synology n’a plus aucune excuse pour ne pas avoir tous les outils CLI dont vous rêvez.

Puis c’est quand même plus classe de faire un htop dans un terminal que de regarder le Resource Monitor dans l’interface web, non ?

Uxn - La machine virtuelle de 100 lignes qui fait tourner des apps sur votre Game Boy

C’est l’histoire d’un couple d’artistes développeurs qui largue les amarres pour vivre sur un voilier dans le Pacifique Nord. Pas de connexion internet stable, pas d’électricité illimitée, juste l’océan et quelques panneaux solaires…

C’est dans ces conditions que Devine Lu Linvega et Rek Bell de 100 Rabbits ont créé Uxn, une machine virtuelle qui tient en 100 lignes de C et qui fait tourner des applications graphiques complètes sur à peu près n’importe quoi, de votre vieille Game Boy Advance à votre Raspberry Pi Pico.

Le truc vraiment génial avec Uxn, c’est qu’elle ne prend que 64KB en RAM. Pour vous donner une idée, c’est environ 65 000 fois moins que ce que Chrome bouffe juste pour afficher cette page. Et pourtant, avec ces 64KB, vous pouvez faire tourner un éditeur de texte complet, un logiciel de dessin, un environnement de livecoding musical, et même des jeux comme Oquonie ou Donsol.

Sorcellerie me direz-vous ? Et bien non, c’est tout à fait possible en revenant aux fondamentaux de l’informatique et en appliquant les principes du permacomputing.

L’idée du permacomputing, c’est de créer des systèmes informatiques résilients et durables. Au lieu de racheter un nouveau PC tous les 3 ans parce que le dernier Windows rame, vous créez des logiciels qui tourneront encore dans 20 ans sur le matériel d’aujourd’hui. C’est une philosophie qui maximise la durée de vie du hardware et minimise la consommation énergétique. Et Uxn incarne parfaitement cette approche.

Pour programmer sur Uxn, vous devez utilise Uxntal, un langage assembleur basé sur une stack machine avec notation postfixe. Par exemple, au lieu d’écrire 3 + 4, vous écrivez 3 4 +. Ça peut paraître bizarre au début, mais c’est redoutablement efficace. Et contrairement à ce qu’on pourrait penser, Uxntal supporte même des concepts avancés comme les fonctions lambda et la programmation fonctionnelle.

Ce qui est vraiment cool avec cet OS, c’est sa portabilité. Le même fichier ROM Uxn peut tourner sur votre PC Linux avec SDL2, sur une Nintendo DS, sur un navigateur web, sur DOS, sur une PlayStation Vita, et même sur des trucs complètement barrés comme un télétypographe ou un STM32. C’est exactement comme les ROMs des vieilles consoles en fait… Vous créez votre programme une fois, et il tourne partout où il y a un émulateur Uxn.

Les applications disponibles sont d’ailleurs impressionnantes. Il y a Left, un éditeur de texte graphique, Noodle qui permet de dessiner, Orca qui est un environnement de livecoding pour créer de la musique, Nasu qui édite des sprites, Turye qui crée des polices de caractères. Et tout ça dans des fichiers de 10 à 15KB maximum.

L’écosystème Uxn est aussi super accessible pour les développeurs. La documentation sur GitHub liste des dizaines d’émulateurs, d’outils et de tutoriels. Il y a même des compilateurs comme Dotal et Funktal qui permettent d’écrire dans des langages de plus haut niveau et de compiler vers Uxntal. La communauté est aussi très active sur IRC (#uxn sur libera.chat) et Discord, et les workshops d’introduction sont excellents pour débuter.

Maintenant, pour installer Uxn sur votre machine, c’est super simple. Sur Linux, vous installez SDL2 (sudo apt install libsdl2-dev sur Ubuntu), vous téléchargez l’émulateur, et vous lancez vos ROMs. Vous pouvez même développer directement sur Uxn avec Bicycle, un REPL interactif, ou Dexe, un éditeur hexadécimal.

Ce que j’adore avec Uxn, c’est que ça remet en question tout ce qu’on considère comme acquis dans le développement moderne. On n’a pas besoin de 8GB de RAM et d’un framework JavaScript de 500MB pour faire une calculatrice. On peut créer des outils puissants et élégants avec des contraintes extrêmes. Et le fait que tout ça vienne de deux personnes vivant sur un bateau, alimentées par de l’énergie solaire, ça rajoute une dimension poétique au projet.

Donc si vous cherchez une alternative radicale à la course à la puissance, si vous voulez explorer ce qu’on peut faire avec des systèmes minimaux, ou si vous êtes juste curieux de voir comment on peut faire tenir un OS complet dans moins de mémoire qu’une photo Instagram, Uxn vaut vraiment le détour.

Car parfois, c’est bon d’en enlever un peu pour retrouver l’essentiel.

Buttercup - L'IA qui trouve et patche automatiquement les failles de sécurité

Ce serait quoi un monde où les bugs de sécurité se font corriger avant même que les hackers ne les trouvent ? Ce serait plus calme non ? J’écrirais moins sur les failles de sécurité cela dit, mais ça me ferais plus de temps pour chiller dans le hamac. Breeeef, ça va peut-être se produire bientôt car c’est exactement ce que vient de rendre possible Trail of Bits en libérant Buttercup, leur système AI qui a décroché la deuxième place et 3 millions de dollars au challenge AIxCC du DARPA.

Et c’est maintenant open source et ça tourne sur votre laptop.

La tendance actuelle c’est une explosion des vulnérabilités… y’a plus de code produit que jamais, des dépendances partout, et des hackers de plus en plus organisés. Donc les équipes de sécurité sont débordées et passent leur temps à courir après les failles. Heureusement, Buttercup vient inverser complètement la donne en automatisant tout le processus, de la détection au patch.

Ce qui rend ce système spécial, c’est qu’il combine le meilleur des deux mondes. D’un côté, les techniques classiques de cybersécurité comme le fuzzing (bombarder le code avec des entrées aléatoires pour le faire planter) et l’analyse statique. Et de l’autre, sept agents IA différents qui collaborent pour comprendre le contexte, générer des patchs et vérifier qu’ils ne cassent rien d’autre.

Lorsqu’on lui confie une analyse, d’abord, Buttercup lance donc une campagne de fuzzing augmentée par IA sur votre code. Et au lieu de tester bêtement des entrées aléatoires, l’IA apprend quels patterns ont le plus de chances de révéler des bugs. Puis, quand une vulnérabilité est trouvée, le système utilise des outils comme tree-sitter et CodeQuery pour créer un modèle complet du programme et comprendre exactement comment le bug s’intègre dans l’architecture globale.

Et c’est là que ça devient vraiment intéressant car les sept agents IA entrent alors en action, avec chacun avec sa spécialité. L’un analyse le bug, l’autre génère des propositions de patch, un troisième vérifie que le patch ne casse pas les tests existants, et ainsi de suite. Ils se coordonnent tous pour produire un patch normalement robuste qui corrige vraiment le problème sans créer de régression.

Pendant la compétition DARPA à DEF CON 33, Buttercup a impressionné tout le monde. Le système a trouvé et patché des vulnérabilités dans 20 des 25 CWEs les plus dangereux selon MITRE. Et je vous parle de trucs sérieux : buffer overflows, injections SQL, race conditions… Trail of Bits a même reçu le prix “LOC Ness Monster” pour avoir soumis un patch de plus de 300 lignes qui fonctionnait parfaitement.

Ce qui est fou, c’est qu’ils ont obtenu ces résultats en utilisant uniquement des modèles IA moins chers, non-reasoning, et pas les gros modèles de raisonnement ultra-chers. Ça veut dire que c’est accessible pour des projets normaux, pas seulement pour les géants de la tech avec des budgets illimités.

L’installation est vraiment simple pour un outil de cette complexité :

git clone --recurse-submodules https://github.com/trailofbits/buttercup.git
cd buttercup
make setup-local
make deploy-local

Bon, il vous faudra quand même 8 cœurs CPU, 16GB de RAM et environ 100GB d’espace disque. Plus des clés API pour OpenAI ou Anthropic si vous voulez utiliser les fonctionnalités IA. Mais comparé à d’autres outils de sécurité enterprise, c’est vraiment raisonnable. Rassurez-vous aussi, il est possible de fixer un budget maximum en conso API.

Le système supporte actuellement le C et le Java, avec une compatibilité OSS-Fuzz pour s’intégrer facilement dans vos pipelines existants. Il y a même une interface web pour monitorer les tâches en cours et voir exactement ce que fait le système.

Ce qui me plaît vraiment dans ce projet, c’est surtout la philosophie derrière car au lieu de garder cette technologie secrète ou de la vendre hyper cher, Trail of Bits a décidé de tout libérer. Ils ont même créé une version “laptop-friendly” spécialement optimisée pour tourner sur des machines normales, pas juste des clusters de serveurs.

Dans le contexte actuel, c’est une vraie révolution. Google a par exemple montré que son IA peut trouver de nouvelles vulnérabilités dans des projets open source majeurs et Meta développe AutoPatchBench pour standardiser la réparation automatique. Mais Buttercup est le premier système complet, de bout en bout, et open source.

Avec cet outil, des projets open source pourrait se patcher automatiquement et les développeurs pourraient alors se concentrer sur les features au lieu de passer des heures à debugger. Bien sûr, ce n’est pas magique et Buttercup ne remplacera pas les experts en sécurité mais c’est un outil incroyablement puissant qui peut automatiser la partie la plus répétitive et chronophage du travail. Et vu que c’est open source, la communauté peut l’améliorer, l’adapter à ses besoins, créer des plugins…

Donc, si vous bossez dans le dev ou la sécurité, allez jeter un œil au GitHub de Buttercup et qui sait, peut-être qu’un jour on regardera en arrière et on se demandera comment on faisait sans IA pour sécuriser notre code.

Des scientifiques cachent des codes secrets dans la lumière pour piéger les deepfakes

Ce serait cool non, si on pouvait transformer n’importe quelle lampe de bureau en détecteur de deepfakes, non ?

Car le problème avec les deepfakes aujourd’hui, c’est qu’on court constamment après les faussaires. Ils ont accès aux mêmes vidéos authentiques que nous, aux mêmes outils d’édition ultra-sophistiqués, et l’IA apprend tellement vite qu’elle produit des faux quasi-indétectables. Il leur est donc très facile de reprendre une vraie vidéo et de la trafiquer légèrement pour manipuler les opinions.

Il faudrait donc une sorte de bouclier anti-manipulation-IA pour empêcher toute manip ultérieure d’une captation vidéo. Et bien c’est exactement ce que viennent de réussir des chercheurs de l’université Cornell, et leur technique est brillante… sans mauvais jeu de mots, vous me connaissez ^^.

Abe Davis, à gauche, professeur adjoint d’informatique au Cornell Ann S. Bowers College of Computing and Information Science, et Peter Michael, étudiant diplômé.

Comme l’explique Abe Davis de Cornell : “La vidéo était considérée comme une source de vérité, mais ce n’est plus une hypothèse qu’on peut faire”. Donc, plutôt que de jouer éternellement au chat et à la souris avec la connerie des gens et le talent des faussaires, l’équipe de Cornell a eu une idée géniale : Et si on marquait les vidéos dès leur création, avec un code secret planqué dans la lumière elle-même ?

Leur technologie, baptisée NCI pour “noise-coded illumination”, fonctionne en ajoutant des fluctuations microscopiques à l’éclairage. Ces variations sont totalement invisibles à l’œil nu car votre cerveau les interprète comme du bruit lumineux normal. Mais une caméra, elle pourra tout capter.

Le truc vraiment cool, c’est que chaque source lumineuse peut avoir son propre code secret comme ça vous pouvez programmer votre écran d’ordinateur, vos lampes de bureau, même l’éclairage d’une salle de conférence entière. Et pour les vieilles lampes qui ne sont pas connectées, une simple puce de la taille d’un timbre-poste suffit à les transformer en watermark lumineux.

Mais ensuite, comment ça détecte les fakes ? Et bien c’est là que ça devient vraiment intéressant car le watermark enregistre en permanence une version basse résolution de ce qui se passe sous cet éclairage, avec un horodatage. Les chercheurs appellent ça des “code videos”. Ainsi, quand quelqu’un manipule la vidéo, que ce soit pour insérer un deepfake, changer la vitesse, ou ajouter des éléments, les parties modifiées ne correspondent plus aux code videos. C’est comme si la lumière gardait un registre secret de tout ce qui s’est vraiment passé.

Comme ça, si un petit malin essaie de générer une fausse vidéo avec l’IA à partir d’une vraie vidéo, les code videos ressembleront alors à du charabia aléatoire, ce qui trahira immédiatement la supercherie. Et même si le faussaire connaît la technique et arrive à décoder les codes secrets, il devrait falsifier chaque code video séparément, et s’assurer qu’ils correspondent tous parfaitement entre eux. Autant dire que c’est mission impossible.

Peter Michael, l’étudiant qui a mené les travaux, a présenté cette innovation au SIGGRAPH 2025 à Vancouver et les tests sont vraiment impressionnant car la technique résiste aux compressions vidéo agressives, aux mouvements de caméra, aux flashs, et fonctionne même en extérieur avec différents tons de peau.

Pendant ce temps, la course à l’armement anti-deepfake continue. Le MIT a son projet Detect Fakes actif depuis 2020. Microsoft a son Video Authenticator qui analyse les pixels pour détecter les anomalies. Intel mise sur son FakeCatcher qui atteint 96% de précision en détectant les variations de flux sanguin dans les vidéos (parce que oui, même les meilleurs deepfakes n’arrivent pas encore à reproduire parfaitement les micro-changements de couleur de la peau dus à la circulation sanguine).

Reality Defender, de son côté, utilise une approche multi-modèle qui n’a pas besoin de watermarks préalables. Ils analysent images, vidéos, audio et texte en temps réel pour repérer les manipulations… C’est impressionnant, mais ça reste une approche défensive qui court après les faussaires et n’empêche pas leur “travail”.

Et c’est ça qui rend la solution de Cornell vraiment prometteuse… C’est parce qu’elle est proactive. Plus besoin d’analyser après coup si une vidéo est truquée puisque la preuve d’authenticité est encodée dedans dès le départ. On pourrait sécuriser comme ça des salles de presse équipées de ce système, des interviews officielles protégées par défaut, ou même le siège de l’ONU avec un éclairage anti-deepfake intégré.

Bien sûr, ce n’est pas la solution miracle et Davis lui-même admet que “c’est un problème qui ne va pas disparaître, et qui va même devenir plus difficile” car les faussaires trouveront de nouvelles parades, c’est certain. Mais pour l’instant, cette technologie donne une longueur d’avance cruciale aux défenseurs de la vérité.

Qui aurait cru qu’on combattrait les deepfakes avec une simple lampe de bureau ??

Source

WordPress Playground fait tourner WordPress dans votre navigateur... sans serveur

J’ai découvert ce matin qu’on pouvait maintenant faire tourner un WordPress complet dans un navigateur. Sans serveur. Sans PHP installé. Sans MySQL. Juste votre navigateur et voilà, vous avez un WordPress fonctionnel. Ça s’appelle WordPress Playground et le truc de fou, c’est que tout ça tourne grâce à WebAssembly.

Pour ceux qui ne connaissent pas, WebAssembly c’est cette techno qui permet de faire tourner du code compilé directement dans le navigateur à une vitesse proche du natif. Les mecs de WordPress ont donc carrément compilé PHP en WebAssembly. Selon la documentation officielle, ils utilisent même SQLite à la place de MySQL, avec un driver qui intercepte toutes les requêtes MySQL pour les traduire en SQLite.

Concrètement, vous allez sur playground.wordpress.net, et hop, vous avez un WordPress qui se lance instantanément. Pas d’“installation en 5 minutes” comme avant. C’est direct. Vous pouvez même installer des plugins, des thèmes, créer du contenu, tout ça dans votre navigateur. Et le plus beau c’est que comme tout reste en local dans votre navigateur, et rien n’est envoyé sur un serveur distant.

Les dernières mises à jour ont ajouté un nouveau driver SQLite qui améliore les performances, et maintenant le CLI supporte le montage de votre répertoire de travail, ce qui vous pouvez bosser sur vos fichiers locaux directement depuis WordPress Playground. Plus besoin de jongler entre votre éditeur et un serveur local.

Pour les développeurs, c’est surtout la révolution, car si vous codez un plugin, vous créez un Blueprint (un fichier JSON de configuration) et vous pouvez générer instantanément un environnement de test avec votre plugin préinstallé, des données de démo, et même des utilisateurs de test déjà connectés. La documentation Blueprint explique comment créer ces configurations, et c’est super simple. C’est comme Docker Compose mais pour WordPress, sauf que ça tourne dans le navigateur.

Dans le même genre des trucs cools, il y a l’outil wp-now. Vous êtes dans le dossier de votre plugin ou thème, vous tapez npx @wp-playground/cli server --auto-mount, et vous obtenez un WordPress local qui tourne avec votre code monté automatiquement. Pas d’installation, pas de config Apache, pas de base de données à créer. C’est instantané.

Et puis il y a tout ce qui est démos interactives. Selon WordPress Developer Blog, vous pouvez créer des tutoriels interactifs où les gens peuvent tester votre plugin directement dans leur navigateur. Plus besoin de dire “installez WordPress, puis installez mon plugin, puis configurez ci et ça”. Vous leur envoyez juste un lien avec un Blueprint, et ils ont tout prêt à tester.

Le repository WordPress.org a même commencé à intégrer des previews live pour les plugins. Vous allez sur la page d’un plugin, et au lieu de juste lire la description, vous pouvez le tester direct. Il suffit de créer un fichier blueprint.json dans le dossier assets de votre plugin, et WordPress.org s’occupe du reste.

Pour ceux qui se demandent comment ça marche techniquement, c’est assez balèze. Ils ont un Service Worker qui intercepte toutes les requêtes HTTP et les passe à une instance PHP qui tourne dans un Web Worker séparé. Le PHP est compilé avec Emscripten (l’outil qui convertit du C/C++ en WebAssembly), et ils ont adapté toute la stack pour que ça fonctionne dans le navigateur. Et selon Platform Uno, avec l’arrivée de WASI 0.3, on va avoir des capacités async natives qui vont encore améliorer les performances.

Ce qui est vraiment cool aussi, c’est l’extension VS Code qu’ils ont sortie. Vous codez dans VS Code (ou Cursor pour les hipsters), et vous avez un WordPress Playground intégré directement dans l’éditeur. Ça évite de switcher entre l’éditeur et le navigateur pour tester. Ça change complètement le workflow de développement.

Alors oui, c’est encore expérimental. Oui, il y a des limitations (pas de support pour certaines extensions PHP, pas de persistance longue durée par défaut). Mais franchement, pour du prototypage rapide, des démos, ou même juste pour apprendre WordPress sans se prendre la tête avec l’installation, c’est parfait. Avec ça, vous pouvez même faire dess formations WordPress sans avoir à gérer 30 installations différentes pour vos étudiants.

Les développeurs parlent maintenant de faire tourner WordPress sur l’edge computing, d’avoir des sites WordPress décentralisés, et même de pouvoir développer des plugins depuis votre smartphone. Avec WebAssembly qui devient de plus en plus puissant, c’est vrai qu’on n’est qu’au début de ce qui est possible.

Donc si vous voulez tester, allez direct sur playground.wordpress.net. Et si vous êtes développeur, regardez la doc des Blueprints, c’est vraiment un génial pour créer des environnements de test reproductibles. Comme ça, plus d’excuses pour ne pas tester vos plugins dans toutes les configs possibles maintenant !

Cursor CLI - GPT-5 directement dans votre terminal (et c'est gratuit)

Ça vous dirait de pouvoir taper cursor-agent "trouve et corrige tous les bugs" dans votre terminal et voir GPT-5 analyser l’ensemble de votre code, proposer des corrections, et même les appliquer après votre validation ?

Plus besoin de copier-coller entre ChatGPT et votre éditeur, plus besoin de jongler entre interfaces. Et bien c’est exactement ce que Cursor CLI propose.

Avec la sortie de GPT-5 et l’explosion des assistants de code IA, Cursor frappe fort en proposant une alternative terminal-first qui s’intègre partout : JetBrains, Android Studio, Xcode, ou même directement dans votre shell préféré. Et ce qui est cool c’est qu’on peut utiliser GPT-5 gratuitement pendant la beta.

Alors perso, moi je suis un fervent utilisateur de Claude Code qui fonctionne excellement bien, à tel point que je trouve les IDE Cursor et Windsurf un peu nul maintenant. Donc voir Cursor sortir son clone de Claude Code, branché sur GPT-5, évidemment, ça m’intéresse.

L’installation se fait avec cette ligne magique :

curl https://cursor.com/install -fsS | bash

Une fois installé, vous suivez les instructions pour exporter cursor-agent dans votre environnement shell et ensuite vous lancez cursor-agent, et vous voilà avec un agent IA surpuissant directement dans votre terminal. Selon la documentation officielle, le CLI réutilise toute votre configuration Cursor existante : vos règles personnalisées, votre fichier AGENTS.md, et même vos intégrations MCP.

Ce qui distingue Cursor CLI des alternatives comme Claude Code ou Gemini CLI, c’est son système d’approbation granulaire. Par exemple, si vous demandez à l’agent de créer une API Express avec des tests Jest, il vous montrera d’abord les modifications proposées. Vous pouvez ensuite accepter, refuser, ou modifier chaque changement avant qu’il ne touche vos fichiers. Cette approche réduit considérablement les erreurs par rapport aux solutions qui appliquent tout automatiquement.

La vraie puissance du truc se révèle surtout dans l’automatisation, car vous pouvez créer des scripts qui utilisent Cursor CLI pour :

  • Générer automatiquement de la documentation à partir de votre code
  • Lancer des revues de sécurité sur chaque commit
  • Créer des agents personnalisés pour vos workflows spécifiques
  • Scaffolder des projets entiers avec une seule commande

Le support des modèles est lui aussi impressionnant. A part GPT-5, vous avez accès à Claude 4 Sonnet, Opus (et aussi Gemini, Grok, o3…etc mais j’ai pas vu ça dans ma beta). Un simple /model ls liste tous les modèles disponibles, et /model gpt-5 vous permet de basculer dessus instantanément. Cette flexibilité permet d’utiliser le modèle le plus adapté à chaque tâche.

Perso, j’ai beaucoup testé GPT-5 hier via Windsurf pour voir ce qu’il avait dans le ventre (sur du code uniquement) et hormis le fait que c’était lent de fou, ça ne m’a pas non plus très impressionné. J’avais un bug à régler et le truc a tourné toute la matinée pour au final me faire un gros caca. Et j’ai fini par résoudre le bug en fin de journée, cette fois avec Claude Code et en quelques dizaines de minutes. Donc j’avoue que pour le moment, je suis hyper déçu de GPT-5 mais bon, je lui redonnerai sa chance plus tard.

Pour les équipes, Cursor CLI c’est top pour votre CI/CD. Vous pourriez par exemple concevoir des pipelines qui utilisent GPT-5 pour :

  • Générer automatiquement des tests pour le code non couvert
  • Optimiser les performances avant chaque déploiement
  • Créer des changelogs détaillés basés sur les commits
  • Adapter automatiquement le code aux breaking changes des dépendances

Le système de règles personnalisées change aussi la donne. Vous pouvez définir des contraintes spécifiques dans votre fichier AGENTS.md (TypeScript strict, tests obligatoires, commentaires en français, etc.) et Cursor CLI respectera ces règles dans toutes ses générations.

L’aspect privacy est également bien pensé aussi car contrairement à des outils comme Copilot qui envoie votre contexte en permanence, Cursor CLI ne transmet que ce que vous lui demandez explicitement. Vos secrets restent locaux et votre code propriétaire reste protégé.

Par contre, c’est encore en beta donc il reste des bugs notamment sous Windows (WSL), et certains utilisateurs ont indiqué avoir des timeouts sur les gros projets. Mais bon, ça comme avec Claude Code, l’équipe met à jour quasiment non stop.

Pour tester rapidement, lancez simplement cursor-agent pour un chat interactif, ou utilisez les flags -m pour choisir le modèle et --no-interactive pour l’automation complète sans confirmation manuelle.

Et prochainement, il devrait y avoir du contexte persistant entre sessions, de la collaboration multi-agents, et même une intégration native avec les éditeurs via LSP.

Voilà, donc si vous cherchez une alternative à Claude Code ou GitHub Copilot qui respecte votre workflow dans le terminal, Cursor CLI mérite le détour. C’est gratuit pendant la beta et ça devrait bien vous aider !

Second Me - Créez votre jumeau virtuel en local

Ce serait quand même sympa de pouvoir entraîner une IA qui non seulement vous comprend parfaitement, mais qui peut littéralement penser et répondre comme vous le feriez, non ?

Comment ça nooon ??

Bah, tant pis pour vous parce que c’est exactement ce que propose Second Me, un projet open source qui est capable d’imiter votre pensée.

Le concept est assez cool car plutôt que de confier vos données personnelles à une grosse boîte tech comme OpenAI ou Google, vous entraînez votre propre “double numérique” directement sur votre machine. Le truc reste chez vous, sur votre ordi, avec vos données, mais peut quand même se connecter à un réseau décentralisé pour interagir avec d’autres IA ou des applications quand vous le souhaitez.

La technologie derrière Second Me repose sur ce qu’ils appellent l’AI-native Memory, avec notamment un système de Hierarchical Memory Modeling (HMM) et leur fameux algorithme Me-Alignment, comme détaillé dans leur doc GitHub. En gros, ça permet à votre clone IA d’apprendre progressivement vos habitudes d’écriture, votre façon de coder, vos expressions favorites, et même vos petites manies linguistiques. L’idée c’est vraiment de créer une extension de vous-même dans le monde numérique.

Pour faire tourner tout ça, vous avez quand même besoin d’un peu de matos. Par exemple, avec 8 Go de RAM, vous pouvez faire tourner un modèle d’environ 0.8 milliard de paramètres sous Docker , selon les spécifications indiquées dans le README du projet. Si vous avez 32 Go, vous montez à 2.8B de paramètres. Les utilisateurs Mac avec puce Silicon peuvent utiliser MLX pour faire tourner des modèles plus gros.

Pour l’utiliser, d’abord vous clonez le repo GitHub, puis vous lancez les conteneurs Docker avec un simple make docker-up, et hop, vous accédez à l’interface web sur localhost:3000.

# 1. Clonez le repo
git clone https://github.com/mindverse/Second-Me.git
cd Second-Me
# 2. Démarrez le conteneur Docker
make docker-up
# 3. Et roule ma poule !
# Ouvrez le navigateur et allez sur : http://localhost:3000

Ce qui est vraiment intéressant avec Second Me, c’est surtout la philosophie derrière car plutôt que de créer une “Super IA” centralisée qui menace votre indépendance et vos données, ils veulent donner à chacun la possibilité de créer sa propre IA capable d’amplifier notre individualité au lieu de l’effacer. Votre Second Me peut même jouer différents rôles selon les scénarios. Par exemple répondre à vos emails pendant que vous dormez, participer à des réunions Zoom à votre place, ou collaborer avec d’autres Second Me pour brainstormer sur des projets.

D’ailleurs, ils ne sont pas les seuls à explorer cette voie des IA personnelles. Par exemple, PIN AI vient de lancer une app mobile qui permet de faire tourner des modèles open source comme DeepSeek ou Llama directement sur votre smartphone. Au MWC 2025, Newnal a même présenté un téléphone IA capable de créer un clone numérique complet avec vos données médicales et financières, qui peut même souscrire une assurance auto à votre place (c’est un peu flippant quand même ^^).

Le projet Second Me utilise des briques open source solides comme GraphRAG de Microsoft pour la synthèse de données, llama.cpp pour l’inférence, et les modèles de base viennent principalement de la série Qwen2.5. Tout ça sous licence Apache 2.0, donc vraiment libre d’utilisation. L’équipe travaille même sur un système de versioning pour les états de mémoire et d’identité, des pipelines d’entraînement continus, et même des solutions cloud pour ceux qui n’ont pas la puissance de calcul nécessaire en local.

Pour ceux qui veulent tester, il y a déjà quelques démos sympas comme Felix AMA (une app de roleplay), ou des outils de brainstorming où plusieurs Second Me collaborent ensemble. La communauté est super active sur Discord et Reddit, et le projet cartonne sur GitHub avec des contributeurs du monde entier.

Maintenant, avec des modèles en dessous de 0.5B de paramètres, vous n’aurez pas des performances extraordinaires pour des tâches complexes, mais l’idée est là, à savoir reprendre le contrôle sur notre identité numérique et nos données, tout en profitant de la puissance de l’IA. Cool non ?

Merci à Letsar pour la découverte !

Source

Jules de Google - L'IA qui code pendant que vous dormez

Pendant que vous lisez cet article, Jules pourrait être en train de corriger les bugs présent dans votre code. Non, c’est pas une blague, c’est le nouveau délire de Google qui vient de sortir de beta. Jules, c’est un agent IA qui code vraiment tout seul, et franchement, après l’avoir testé, je commence à me demander si le métier de dev a encore un avenir.

Vous créez une issue GitHub avec le label “jules”, vous partez boire un café (ou vous taper une petite sieste), et quand vous revenez, hop, une pull request toute propre vous attend. Tests écrits, dépendances mises à jour, et bugs corrigés. Jules a tout fait pendant que vous vous tourniez les pouces.

Ce qui rend Jules différent de Copilot et consorts c’est qu’il ne se contente pas de compléter votre code ou de suggérer des snippets. Non, non. C’est un véritable agent autonome qui clone votre repo dans une VM Google Cloud sécurisée et se met au boulot tout seul. Sous le capot c’est Gemini 2.5 Pro, donc il comprend le contexte global de votre projet et peut enchaîner plusieurs tâches complexes.

L’intégration GitHub est particulièrement soignée. Jules peut créer ses propres branches, ouvrir des pull requests avec des commits propres et même générer des changelogs audio. C’est fou ça, des changelogs audio. Faut croire que lire en 2025 c’est has been…

Pour l’utiliser, c’est simple comme bonjour. Vous vous connectez sur jules.google.com (avec votre compte Google, évidemment), vous liez votre GitHub, et c’est parti. Le bouton “Give a plan” lance le processus de réflexion de Jules qui vous soumettra alors son grand projet pour vous. Et si ça vous convient, vous validez et il se met au travail.

Comme Jules fonctionne de manière totalement asynchrone, vous pourriez être en train de jouer à Baldur’s Gate 3 qu’il continuerait tranquillement de refactoriser votre code tout pourri.

Les fonctionnalités qui tuent c’est d’abord, les mises à niveau de version. Terminées les heures passées à vérifier la compatibilité et à ajuster le code pour la dernière version d’une lib. Jules s’en charge. L’écriture de tests, cette tâche aussi cruciale que chiante, Jules la fait. Et en plus, il le fait bien, le bougre.

Niveau langages supportés, c’est du lourd : Node.js, Python, Go, Java et Rust. Par contre, pas de PHP pour l’instant. Désolé les warriors du web de 2005. Google promet d’autres langages bientôt, mais on connaît leurs promesses…

Bon, parlons fric maintenant. Google a sorti trois forfaits. Y’a le plan gratuit qui vous donne 15 tâches par jour et 3 simultanées. C’est déjà pas mal pour tester. Le Pro multiplie les limites par 5, et l’Ultra par 20 pour les gros projets avec du multi-agent.

Un truc important sur la privacy, c’est que si votre repo est public, Google peut utiliser vos données pour entraîner l’IA. Et si c’est privé, rien n’est envoyé. En tout cas, c’est ce qu’ils disent.

Google est tellement confiant qu’ils vont l’utiliser sur leurs propres projets.

Alors est-ce que Jules va remplacer les développeurs ? Non, je crois pas, mais il va clairement changer notre façon de travailler car au lieu de passer des heures sur des tâches répétitives, on pourra se concentrer sur l’architecture, la créativité, les vrais problèmes complexes. Et lui s’occupera du sale boulot.

Par contre, si vous êtes le genre de dev qui se contente de copier-coller du Stack Overflow, là oui, commencez à chercher une reconversion. Car Jules fait ça mieux, plus vite, et il ne se plaint jamais du montant de ses tickets resto.

Merci à Lorenper pour la découverte !

Les secrets pour cartonner sur Perplexity AI

Si vous vous intéressez au référencement, ce que je vais vous raconter aujourd’hui risque de chambouler pas mal de vos certitudes sur le SEO. En effet, un chercheur vient de découvrir 59 facteurs de ranking cachés dans l’algorithme de Perplexity AI, et autant vous dire que ça change complètement la donne pour tous ceux qui veulent être visibles sur ce moteur de recherche IA.

Si vous ne connaissez pas encore Perplexity et bien c’est pas grave, je vous explique ! C’est un site qui combine un LLM avec un moteur de recherche traditionnel ce qui lui permet d’éviter la plupart du temps, les fameuses hallucinations de l’IA. Mais ce qu’on ne savait pas jusqu’à maintenant, c’est comment ce truc décide exactement quel contenu mérite d’apparaître dans ses réponses. Et vous allez voir, ce système est d’une complexité hallucinante.

Il y a d’abord ce qu’ils appellent le newpostimpression_threshold. C’est une fenêtre critique qui apparait juste après la publication et où tout se joue. Si votre contenu ne performe pas dans les premières minutes (littéralement), vous êtes grillé pour toujours. C’est brutal mais c’est comme ça que l’algorithme fonctionne.

D’ailleurs, l’algorithme Sonar de Perplexity (oui, ils lui ont donné un petit nom, c’est meugnon) est complètement obsédé par la fraîcheur du contenu. Sonar prend le système QDF de Google et le pousse à son maximum. Même une modification mineure remet complètement à zéro le chrono de fraîcheur. Du coup, certains malins automatisent des updates hebdomadaires juste pour rester dans la course.

Mais attendez, ça devient encore plus intéressant car le système utilise aussi un reranker machine learning à trois couches (L3) pour les recherches d’entités. En gros, après avoir récupéré les résultats initiaux, l’algo applique des filtres ML super stricts et si trop peu de résultats passent le seuil, hop, toute la liste part à la poubelle. C’est du tout ou rien.

Un autre pattern complètement loufoque, ce sont les titres YouTube qui obtiennent une visibilité boostée sur les deux plateformes, s’il correspondent exactement aux requêtes trending sur Perplexity. Ça suggère donc une validation croisée entre YouTube et Perplexity. Le système récompense ceux qui réagissent vite sur les sujets émergents.

Pour le contenu structuré, c’est également la fête du FAQ Schema. Les blocs JSON-LD avec @type: FAQPage doublent littéralement la fréquence de citation dans les tests A/B. Perplexity adore ces chunks sémantiques bien découpés qui s’alignent parfaitement avec la logique de récupération des LLM.

Et puis il y a cette histoire de PDFs qui défie toute logique. Un PDF obtient en moyenne 1,6 citations pour 100 requêtes contre 1,3 pour le même contenu en HTML. Ça peut paraître insignifiant, mais multipliez ça par le volume de recherches et vous comprenez vite l’intérêt.

Le système maintient aussi des listes manuelles de domaines autoritaires (Amazon, GitHub, LinkedIn, Coursera…) comme ça, si votre contenu est lié ou référencé par ces plateformes, vous bénéficiez automatiquement d’un boost d’autorité. C’est du favoritisme assumé, mais ça marche.

Pour ceux qui veulent optimiser leur contenu, pensez donc à le structurer avec des H1-H4, des bullet points, des listes numérotées car ces formats facilitent l’extraction par l’IA et améliorent vos chances d’être cité. Simple mais efficace. Perso, je ne mets jamais trop de liste ou d’inter-titres dans mes articles mais c’est encore à ma portée.

Le système privilégie aussi certains topics avec des multiplicateurs de visibilité différents. L’IA, la tech, la science et le business analytics sont les grands gagnants donc si vous écrivez sur ces sujets, vous partez avec un avantage naturel.

Un autre détail technique important c’est il existe un schéma cryptographique “weak” au niveau des requêtes du navigateur qui gouverne l’évaluation du contenu. Les signaux passent par cette couche additionnelle invisible via l’API standard, ce qui explique pourquoi certains contenus semblent avoir des avantages inexpliqués.

La fonction Deep Research de Perplexity décompose aussi automatiquement les questions complexes en sous-tâches, consulte diverses sources spécialisées et compile tout ça en rapport détaillé. C’est cette capacité qui rend l’optimisation si différente du SEO classique.

Bref, on est en plein dans du GEO (Generative Engine Optimization) qui est en train de remplacer progressivement le SEO traditionnel. Les règles changent complètement et s’en est fini du bourrage de mots-clés… Maintenant, place à la richesse sémantique et à la structuration intelligente du contenu.

Donc pour maximiser vos chances, voici la stratégie gagnante : Publiez fréquemment du contenu ultra-frais, structurez-le parfaitement avec du schema markup FAQ, créez des clusters de contenu interconnectés, et surtout, surtout, assurez-vous que les premières minutes après publication soient explosives en termes d’engagement.

Le time decay est impitoyable sur Perplexity et votre contenu perd exponentiellement en visibilité au fil du temps. C’est pourquoi les updates réguliers ne sont pas une option mais une nécessité absolue. Certains créateurs programment des rafraîchissements automatiques toutes les semaines juste pour maintenir leur position.

Perso, ça me parait compliqué à mon échelle de gérer tout ça, donc je vais passer mon tour et laisser mes collègues média bien se prendre le chou pour se faire indexer du mieux qu’ils peuvent. Vous me raconterez, moi j’ai la flemme ! Je compte uniquement sur mon flux RSS maintenant et sur les gens qui mettent korben.info en page d’accueil (ou qui installent ce plugin). Et advienne que pourra…

Ce qu’il faut retenir, c’est que Perplexity est très fort pour valider la pertinence en temps réel. Le système analyse les embeddings avec des seuils de similarité sophistiqués, traque l’engagement utilisateur de manière ultra-précise, et récompense les réseaux de contenu interconnectés qui démontrent une expertise par sujet.

Bref, je vous laisse lire tout ça mais ces 59 facteurs révèlent un algorithme d’une complexité insoupçonnée qui mélange machine learning avancé, signaux temps réel et validation cross-platform. J’sais pas si Google est au point là dessus, mais je leur souhaite aussi bon courage !

Et un grand merci à Lorenper pour l’info !

Source

L'IA va contrôler les armes nucléaires et personne ne sait vraiment ce que ça veut dire

Bon, je vais encore vous raconter un truc qui devrait vous filer des sueurs froides. Désolé ^^.

En juillet dernier, des prix Nobel se sont réunis à l’Université de Chicago pour écouter des experts du nucléaire leur expliquer comment le monde pourrait finir. Et devinez quoi ? Ils sont tous d’accord sur un point : l’IA va bientôt s’infiltrer dans les systèmes d’armes nucléaires. C’est pas une question de “si”, c’est simplement une question de “quand”.

Bob Latiff, un général de l’US Air Force à la retraite qui aide à régler l’horloge de l’apocalypse chaque année, compare l’IA à l’électricité : “Ça va s’infiltrer partout”. Et quand un mec qui s’occupe littéralement de l’heure de la fin du monde dit ça, j’sais pas vous, mais moi je commences à me poser des questions.

Le problème, c’est que personne ne sait vraiment ce que ça signifie de donner le contrôle d’armes nucléaires à une IA. Jon Wolfsthal, ancien assistant spécial de Barack Obama et maintenant directeur du risque global à la Federation of American Scientists, le dit tout de go : “Personne ne sait vraiment ce qu’est l’IA”. C’est vrai ça, on parle de quoi exactement ? De ChatGPT avec les codes nucléaires ? D’une puce qui décide de lancer des missiles ?

Rassurez-vous (ou pas), tous les experts s’accordent pour dire que ChatGPT ou Grok n’auront pas les codes nucléaires de sitôt, par contre, Wolfsthal a entendu des trucs flippants dans les couloirs du pouvoir américain. Des gens proposent sérieusement de créer des LLM pour simuler Putin ou Xi Jinping, histoire d’aider le président à anticiper leurs réactions. “Super idée”, dit Wolfsthal, “mais comment tu sais que Putin croit vraiment ce qu’il dit ou écrit ?

L’année dernière, le général Anthony J. Cotton, le chef militaire en charge de l’arsenal nucléaire américain, a fait également un long discours sur l’importance d’adopter l’IA. Les forces nucléaires développent des “outils d’aide à la décision activés par l’IA mais dirigés par des humains”. Ça sonne bien sur le papier, mais dans la pratique, aucune idée de ce que ça donne…

Parlons maintenant de Stanislav Petrov, ce lieutenant-colonel soviétique qui a littéralement sauvé le monde en 1983. Selon le Bulletin of the Atomic Scientists, son système d’alerte précoce lui indiquait que les États-Unis avaient lancé 5 missiles. Et Petrov, sans se chier dessus, s’est dit : “C’est con, une première frappe américaine, ce serait tout ou rien, pas cinq missiles”. Il a donc décidé d’ignorer l’alerte. Bonne intuition ! En réalité, c’était le soleil qui se reflétait sur les nuages.

Du coup, si Petrov avait été une machine programmée pour répondre automatiquement à une attaque, c’est sûr qu’on aurait eu une guerre nucléaire. Petrov étant humain, il a su sortir de ses “données d’entraînement”, si je puis dire. Il a fait un jugement humain basé sur l’expérience et l’intuition. Une IA, par définition, ne peut pas faire ça.

Ce qui fait vraiment flipper Wolfsthal, ce n’est pas l’idée qu’une IA devienne skynet et lance une guerre nucléaire toute seule. C’est plutôt que quelqu’un décide d’automatiser certaines parties du système, créant des vulnérabilités qu’un adversaire pourrait alors exploiter. Ou pire, que l’IA produise des recommandations que les humains ne comprennent pas vraiment mais suivent quand même.

D’ailleurs, selon un rapport de Chatham House de juin 2025, l’IA pourrait aider à prévenir l’escalade nucléaire en étant intégrée dans les systèmes d’alerte précoce mais seulement si on comprend vraiment les risques. Et je vous spoile direct : On ne les comprend pas.

La France n’est pas en reste dans cette course. L’IFRI note que l’IA pourrait affaiblir la dissuasion nucléaire en rendant vulnérables des systèmes jusqu’alors considérés comme protégés. Les États-Unis développent également un projet pour frapper les lanceurs mobiles de missiles balistiques en utilisant l’IA pour analyser des données en temps réel. Les États pourraient alors avoir recours à l’arme nucléaire de manière préventive par peur de perdre leur capacité de riposte.

La Russie a aussi déjà son système Perimeter, surnommé “Dead Hand” (la main morte), et développe Poseidon, un drone sous-marin autonome armé nucléairement. Un drone qui peut traverser les océans tout seul pour livrer une bombe capable de vaporiser une ville entière. Qu’est-ce qui pourrait mal tourner, voyons ?

Le problème des biais d’automatisation est particulièrement vicieux. Brookings explique que les études montrent que les gens font naturellement confiance aux systèmes automatisés. Imaginez un opérateur stressé en temps de crise qui doit choisir entre son intuition et ce que lui dit l’IA. Et bah dans 99% des cas, il déposera son cerveau et suivra l’IA. Vous le savez, c’est ce que vous faites quand vous vibe codez ;-).

Le plus marrant dans tout ça (ou pas) c’est que Donald Trump et le Pentagone ont déclaré que l’IA était “le prochain projet Manhattan” et que “les États-Unis VONT GAGNER”. Sauf que comme le fait remarquer Lin : “Je sais quand le projet Manhattan s’est terminé… on a fait exploser une bombe. Mais je ne sais pas ce que signifie avoir un projet Manhattan pour l’IA.” Bah oui, ils vont faire exploser quoi ??

La revue de l’OTAN se demande si l’IA devrait être complètement bannie des systèmes d’armes nucléaires. En 2023, le Congrès américain a même proposé une loi dans ce sens et Biden a signé un décret sur le sujet. Mais il n’y a toujours pas de consensus global sur le fait que les humains doivent rester dans la boucle de décision nucléaire.

Voilà, donc pour l’instant, lancer une arme nucléaire américaine nécessite encore une chaîne complexe de décisions humaines et il faut toujours deux personnes qui doivent tourner des clés en même temps dans un silo pour lancer un missile. La politique nucléaire américaine exige ce qu’on appelle une “double phénoménologie”. Cela veut dire qu’une attaque doit être confirmée par satellite ET radar pour être considérée comme réelle. Mais combien de temps avant qu’on remplace un de ces phénomènes par une IA ?

Perso, je pense que l’IA dans le nucléaire c’est une idée à la con. Pourquoi jouer à la roulette russe avec l’humanité entière alors qu’on a déjà fort à faire avec tous nos dirigeants mentalement instables ?

Évidemment, vous l’aurez compris, l’IA ne lancera probablement pas des missiles toute seule, mais elle pourrait très bien nous convaincre de le faire nous-mêmes, à cause d’une mauvaise interprétation de données ou d’un bug qu’on ne comprend même pas. Et ça, c’est tout aussi flippant, je trouve.

Source

LuxPDF - L'outil PDF qui fait passer la vie privée en premier

Je suis presque sûr que quand vous devez convertir un document avec des infos sensibles dedans en un joli PDF, vous n’installez rien sur votre ordinateur et vous préférez l’uploader sur un service random de conversion qui va probablement analyser et pomper son contenu ?

Je me trompe ?

C’est vrai que c’est plus rapide de faire confiance aveuglément à des services qui nous demandent notre email, notre carte bleue et notre âme pour simplement fusionner deux PDFs, mais moi, perso, j’aime pas trop ça !

Et apparemment, je ne suis pas le seul puisque des étudiants ont créé LuxPDF une boite à outils grâce à laquelle vos fichiers ne quittent JAMAIS votre ordinateur. Tout se passe dans le navigateur, côté client, y’a pas de serveur, pas d’upload, pas de stockage louche. Comme ça, vos documents restent chez vous, et picétou !

L’histoire derrière ce projet, c’est donc celle de petits jeunes qui devaient constamment convertir des PDFs pour leurs devoirs et leurs projets. Sauf que ces PDFs contenaient leurs noms, des infos financières, des données perso… et les services existants leur demandaient systématiquement de se créer un compte, de payer un abonnement, et tout ça pour des fonctions basiques. Sur Hacker News, ils expliquent qu’ils en ont donc eu super marre de sacrifier leur vie privée juste pour convertir un simple fichier en PDF et que c’est pour ça qu’ils ont codé LuxPDF.

Niveau fonctionnalités, on a donc le droit à 16 outils différents : conversion PDF vers PNG/JPEG/TXT, fusion, division, compression, rotation, suppression de métadonnées (super important pour la vie privée !), retrait de mot de passe, extraction de pages spécifiques…

Bref, tout ce qu’on attend d’une boîte à outils PDF complète. Et contrairement aux concurrents comme ILovePDF ou SmallPDF qui limitent le nombre d’utilisations gratuites ou la taille des fichiers, ici c’est illimité. Votre navigateur est capable d’encaisser l’ouverture d’un PDF de 1000 pages ? Pas de problème alors, LuxPDF le traitera quasi instantanément.

Le projet est totalement open source donc vous pouvez l’installer chez vous ou utiliser le site de LuxPDF surtout que les développeurs sont transparents sur leur modèle économique : pas de pub, pas de tracking, juste des dons volontaires et des sponsors.

Donc voilà, si vous cherchez une alternative éthique aux mastodontes du PDF qui récupère vos données, LuxPDF mérite clairement le détour. C’est gratuit, open source, sans inscription, et vos documents ne quittent jamais votre machine !

Merci à Letsar pour l’info !

Le coup de maître d'OpenAI qui cache une stratégie à 500 milliards

Vous savez ce qui m’a le plus questionné dans cette annonce d’OpenAI dont tout le monde parle ? Pas le fait qu’ils offrent ChatGPT Enterprise aux agences fédérales américaines pour 1 dollar. Non, c’est surtout que ça arrive pile poil au moment où la boîte négocie une valorisation à 500 milliards de dollars avec ses investisseurs.

Un dollar contre 500 milliards. Ça vous paraît logique comme calcul ?

À moi non plus.

La réalité, c’est qu’OpenAI vient de jouer l’un des coups les plus brillants de l’histoire de la tech et contrairement à ce qu’on pourrait croire, cette “générosité” n’a rien de charitable. C’est du business pur et dur, orchestré avec une précision chirurgicale. Parce que voyez-vous, OpenAI a déjà empoché un contrat de 200 millions de dollars avec le Département de la Défense en juin dernier. Ils ont alors lancé “OpenAI for Government” et obtenu l’approbation officielle de la GSA (General Services Administration) comme fournisseur agréé pour les agences fédérales. Cette offre à 1 dollar, c’est donc juste la cerise sur le gâteau.

L’astuce (selon moi), c’est qu’ils viennent de transformer le gouvernement américain en client captif. Des milliers de fonctionnaires qui vont s’habituer à utiliser ChatGPT au quotidien, qui vont intégrer l’outil dans leurs workflows, leurs processus, leurs habitudes. Et au bout d’un moment, quand OpenAI reviendra avec un tarif “normal”, croyez-vous que le gouvernement pourra s’en passer et revenir à l’age de pierre ?

C’est exactement la stratégie du dealer qui offre la première dose gratuite.

Mais le plus top moumoute dans toute cette histoire (et vous pouvez me traiter de parano), c’est l’accès aux données que ça leur offre. Parce qu’avec ChatGPT Gov qui permet aux agences d’y injecter des “informations sensibles non-publiques”, OpenAI va avoir une vision privilégiée sur les tendances, les projets, les préoccupations du gouvernement américain. Pas besoin d’espionner quand vos “clients” vous donnent volontairement accès à leurs réflexions stratégiques.

OpenAI demande même au gouvernement américain d’évaluer “le niveau de données disponible pour entrainer les IA américaines” et pousse pour que les lois fédérales préemptent les réglementations des États. En gros, ils veulent façonner le cadre réglementaire à leur avantage tout en ayant un accès privilégié aux rouages du pouvoir.

OpenAI veut devenir puissant.

D’un point de vue investisseurs, c’est du caviar. Montrer qu’on a le gouvernement américain dans sa poche, c’est le genre d’argument qui fait monter les valorisations. Surtout quand on sait que les contrats publics, une fois établis, sont rarement remis en question et peuvent durer des décennies.

Au final, cette opération séduction va rapporter bien plus que les quelques millions “perdus” sur cette offre symbolique car entre les futurs contrats gouvernementaux, l’influence réglementaire et la crédibilité que ça apporte face aux investisseurs, ça parle déjà d’un retour sur investissement qui se chiffre en milliards.

OpenAI n’est pas votre ami. OpenAI devient naturellement l’extension technologique d’Oncle Sam et vous verrez, dans quelques années, quand on parlera de dépendance technologique, on citera cette manœuvre comme un cas d’école, j’en suis convaincu !

Kitten TTS - Le modèle de synthèse vocale de 25MB qui fait parler votre grille-pain

Ceci est un truc qui pourrait bien vous intéresser surtout si vous implémentez de la synthèse vocale dans vos projets… Kitten TTS, c’est son petit nom, est un modèle qui fait seulement 25MB et qui est capable de générer de la voix de qualité professionnelle sur n’importe quelle machine, même votre vieux Raspberry Pi qui prend la poussière dans un tiroir.

Le créateur, Divam Gupta de KittenML, l’a sorti hier, et avec ses 15 millions de paramètres (c’est rien du tout comparé aux monstres habituels), Kitten TTS arrive à produire 8 voix différentes (4 féminines et 4 masculines) toutes expressives et naturelles. Le tout sans GPU, juste avec votre bon vieux processeur. C’est mieux que de la magie noire.

Pour comprendre à quel point c’est cool, faut savoir que jusqu’à maintenant, si vous vouliez de la synthèse vocale correcte, vous aviez deux options. Soit vous utilisiez des services cloud comme ceux d’Amazon ou Google (bonjour la latence et les frais), soit vous installiez des modèles énormes qui demandaient une RTX 4090 pour tourner correctement. Piper TTS était déjà pas mal dans le genre léger, mais Kitten TTS est encore plus petit et plus expressif. On parle d’un RTF (Real-Time Factor) de 0.73, ce qui veut dire que ça génère l’audio plus vite que le temps réel.

Le truc vraiment bien, c’est que c’est sous licence Apache 2.0 donc vous pouvez l’utiliser commercialement sans payer un centime. Imaginez les possibilités ! Vous développez un jeu indé ? Boom, voix-off gratuite et de qualité. Vous voulez créer un assistant vocal pour votre domotique ? C’est parti, tout tourne en local sans envoyer vos données à Google. Vous bossez sur des outils d’accessibilité ? Kitten TTS peut s’intégrer directement dans NVDA ou d’autres lecteurs d’écran pour donner une voix naturelle aux malvoyants.

L’installation, c’est du pip install tout bête depuis les releases GitHub. Le repo KittenML/KittenTTS est déjà en train d’exploser avec la communauté qui commence à bidouiller dessus. Vous pouvez aussi récupérer le modèle sur Hugging Face si vous préférez. Et pour ceux qui veulent échanger, y’a même un Discord communautaire qui se monte.

Voici comment l’installer :

python -m venv .venv
source .venv/bin/activate
pip install https://github.com/KittenML/KittenTTS/releases/download/0.1/kittentts-0.1.0-py3-none-any.whl

Voici un code d’exemple :

from kittentts import KittenTTS
import soundfile as sf

print("Loading KittenTTS model... Meow! 🐱")
# This downloads the model from Hugging Face the first time
m = KittenTTS("KittenML/kitten-tts-nano-0.1")

text = "Hello my name is Korben. Thank you for reading my blog."

print(f"Generating audio for: '{text}'")
# Generate the audio waveform
audio = m.generate(text)

# Save the audio to a file at 24kHz sample rate
output_file = 'hello_kitten.wav'
sf.write(output_file, audio, 24000)

print(f"✅ Audio saved to {output_file}! Go listen to it!")

A lancer comme ceci :

python test_kitten.py

Et en quelques secondes, ça vous fera un joli MP3 que voici :

Vous vous en doutez, comme d’hab, pour le moment, c’est anglais uniquement mais les dev bossent sur d’autres langues, alors faudra patienter un peu. Et puis c’est encore en “developer preview”, donc y’a quelques artefacts audio par-ci par-là. Mais pour un modèle de 25MB qui tourne sur une patate, le résultat est bluffant.

Avec ce truc, tous vos objets connectés peuvent maintenant parler avec une voix naturelle, sans connexion internet, sans latence, et sans bouffer votre batterie. Votre frigo peut vous dire qu’il manque du lait avec la voix de Garou. Votre voiture peut vous guider avec une voix sympa au lieu du robot monotone “Ministère de l’Interieur” habituel. Et tout ça en local, donc pas de problème de vie privée.

La comparaison avec Piper TTS est intéressante car Piper reste plus mature avec un écosystème plus développé et plus de langues supportées, mais Kitten TTS a l’avantage d’être encore plus petit et plus expressif pour l’anglais. Pour un projet qui vient de sortir, c’est impressionnant. J’ai donc super hâte de voir débarquer des forks et des améliorations dans les semaines qui viennent.

Si vous voulez tester, le modèle est dispo, et la doc commence à être pas mal. Alors pour une fois qu’on a un outil d’IA vraiment accessible qui ne demande pas une ferme de serveurs pour tourner, faut en profiter. Et puis pouvoir dire “mon grille-pain m’a conseillé ce matin d’investir dans des actions Nvidia”, c’est quand même la classe.

Allez faire un tour sur le site du projet pour voir les démos et comprendre pourquoi ce petit modèle de 25MB est en train de faire trembler les géants du TTS.

L’avenir de la synthèse vocale, c’est peut-être bien un chaton qui tient dans votre poche.

50 000 confessions ChatGPT ont fuité - De l'avocat ripou au dissident en danger

Vous savez ce qui est pire que de se confier à un psy qui prend des notes ?

Bah c’est se confier à ChatGPT en pensant que c’est privé, évidemment !

Un chercheur du nom de Digital Digging vient de révéler que 50 000 conversations ChatGPT ont fuité sur Google, et le contenu est explosif. Un avocat qui demande comment virer une communauté indigène d’Amazonie, des dissidents arabes qui critiquent leur gouvernement, et des PDG qui balancent leurs secrets d’entreprise comme si c’était Snapchat.

Le truc complètement dingue, c’est que tout ça vient d’une petite checkbox innocente dans la fonction de partage de ChatGPT. Vous savez, c’est ce bouton “Share” que tout le monde utilise pour montrer ses prompts géniaux à ses potes. Sauf qu’il y avait une option “Make this chat discoverable” que personne ne lisait vraiment. Du coup Google a indexé toutes ces conversations, et n’importe qui pouvait tomber dessus en cherchant les bons mots-clés.

Digital Digging a ainsi analysé 512 de ces conversations publiques et a découvert que 20% contenaient des informations sensibles ou potentiellement compromettantes : Des victimes de violence domestique qui planifient leur fuite, des professionnels de santé qui partagent des protocoles de traitement détaillés (bonjour le secret médical), et même des utilisateurs qui décrivent des activités cyber-criminelles potentielles. Certains utilisateurs arabes ont partagé des critiques du gouvernement égyptien, ce qui pourrait littéralement leur coûter leur liberté.

L’exemple le plus choquant reste quand même cet avocat d’une compagnie énergétique qui demandait conseil pour négocier le déplacement d’une communauté indigène en Amazonie. Le mec demandait littéralement comment obtenir “le prix le plus bas possible dans les négociations”. Si ça c’est pas un scénario de méchant de James Bond, je sais pas ce que c’est. Et tout ça, accessible publiquement pendant des mois avant qu’OpenAI ne réagisse.

OpenAI a bien essayé de faire le ménage en urgence. Ils ont supprimé les URLs originales, ajouté des tags noindex et nofollow, et demandé à Google de tout désindexer. Gizmodo rapporte qu’ils ont tenté de retirer près de 50 000 conversations de l’index Google. Le CISO d’OpenAI a même qualifié ça d’"expérience de courte durée pour aider les gens à découvrir des conversations utiles". Lol.

Mais voilà le problème : Internet n’oublie jamais. Archive.org, la Wayback Machine, a sauvegardé plus de 110 000 de ces conversations avant qu’OpenAI ne puisse réagir. Et Digital Digging confirme qu’OpenAI n’a même pas demandé à Archive.org de supprimer ces archives. Mark Graham, le directeur de la Wayback Machine, a confirmé qu’aucune demande d’exclusion à grande échelle n’a été faite. Du coup, toutes ces confessions sont encore accessibles pour qui sait où chercher.

Ce qui ressort de cette affaire, c’est surtout que les gens traitent ChatGPT comme un confessionnal numérique. Ils partagent leurs secrets les plus sombres, leurs plans d’affaires confidentiels, leurs problèmes personnels, en pensant que c’est entre eux et la machine. Sauf que non. Dès que vous cliquez sur “Share”, vous créez potentiellement une trace permanente sur Internet. Et même si OpenAI supprime tout de son côté, des dizaines de services d’archivage ont déjà fait des copies.

OpenAI, la boîte qui nous sermonne constamment sur l’importance de l’IA “sûre et responsable”, vient donc de créer la plus grande base de données de confessions publiques de l’histoire de l’humanité. Ils ont littéralement transformé leur chatbot en piège à secrets, et maintenant des milliers de personnes découvrent que leurs conversations privées sont consultables par n’importe qui avec une connexion Internet.

Pour les victimes de cette fuite (qui je le rappelle on quand même cliqué sur “Share” donc bon…), les conséquences peuvent être dramatiques. On parle de personnes qui ont révélé des informations pouvant détruire leur carrière, leur mariage, voire les mettre en danger physique dans le cas des dissidents politiques.

Bref, traitez ChatGPT comme vous traiteriez Twitter ou Facebook. Si vous ne voulez pas que ça se retrouve sur la place publique, ne le partagez pas. Et surtout, SURTOUT, lisez les petites cases à cocher avant de cliquer sur “Partager” parce qu’entre “partager avec un ami” et “indexer sur Google pour l’éternité”, il n’y a qu’une checkbox de différence.

Comme d’hab sur Internet, rien n’est vraiment privé, et ce qui est mis en ligne le reste pour toujours. Même quand c’est censé être une conversation privée…

❌