OpenAI colle des pubs dans ChatGPT, et pendant ce temps, Anthropic fait exactement l'inverse puisqu'ils viennent d'ouvrir tous les outils premium de Claude aux utilisateurs gratuits.
Création de fichiers Excel, PowerPoint, Word, PDF (oui, tout ça)... c'était autrefois réservé aux abonnés Pro et depuis hier, c'est accessible à tout le monde ! Vous pouvez donc créer un tableau Excel avec des formules, un PowerPoint bien formaté, ou un document Word prêt à envoyer.
Côté connecteurs, vous pouvez brancher Claude directement sur Slack, Notion, Figma, WordPress, Zapier, Stripe, Canva, Asana et même PayPal. En gros, l'IA va chercher des infos dans vos outils et agit dessus plutôt que de vous laisser faire du copier-coller.
Y'a aussi les Skills (pour expliquer rapidos, ce sont des fichiers d'automatisation) que vous configurez pour que l'assistant fasse des tâches répétitives à votre place. Du coup, si vous
avez déjà bidouillé avec ses capacités de dev
, vous voyez l'intérêt d'avoir ça.
Anthropic a aussi glissé la "conversation compaction" qui garde le contexte sur des échanges plus longs. Le modèle pour les gratuits, c'est Sonnet 4.5 et les abonnés Pro à 20$/mois gardent Opus. Attention quand même, les limites d'utilisation n'ont PAS bougé parce que bon, faut bien vendre le Pro. Donc au bout de quelques échanges, ça sera moins chouette ^^... sauf si vous passez à la caisse, évidemment.
Moi je suis pas super fan de leur application Desktop et je préfère largement la version Claude Code en CLI mais bon, c'est juste une question de goût, car ça marche tout aussi bien.
Bref, entre les pubs d'OpenAI et les outils gratuits d'Anthropic... le choix est vite fait ! Anthropic est à un virage important et il ne faut pas qu'ils se loupent, car les gens sont (
enfin
) en train de se rendre compte que leur Claude est biiiiien au dessus de ce que propose ChatGPT.
Vous connaissez tous
Kali Linux
,
Metasploit
et compagnie… Mais est-ce que vous avez déjà vu une IA faire un pentest toute seule ? Genre, VRAIMENT toute seule.
Shannon
, c'est un framework open source qui lâche un agent IA sur votre code, et qui enchaîne recon, analyse de vulns, et exploitation, tout ça sans intervention humaine.
En gros, vous lui filez une URL cible et l'accès à votre code source (faut que le repo soit accessible, c'est la base), et l'agent se débrouille. Il commence alors par analyser le code en statique… puis lance des attaques dynamiques sur l'app en live. Pour cela, il déploie plusieurs sous-agents spécialisés qui bossent en parallèle via Temporal, un moteur de workflow.
Un agent pour la reconnaissance, un pour chercher les injections SQL, un autre pour les XSS, un pour les SSRF, un pour les problèmes d'authentification… Bref, chacun fait son taf et tout remonte dans un rapport final au format JSON.
Le truc, c'est que Shannon ne se contente pas de scanner bêtement comme un Nessus ou un Burp. L'agent COMPREND votre code. Il lit les routes, les middlewares, les requêtes SQL, et il construit ses attaques en fonction. Du coup, il trouve des trucs que les scanners classiques loupent complètement, genre une injection NoSQL planquée dans un endpoint obscur ou un bypass d'auth via un cookie mal valide. Attention par contre, si votre app utilise un framework un peu exotique ou du code obfusqué, y'a des chances que l'agent passe à côté… comme tout scanner, hein.
Pour ceux qui se demandent combien coute un
test d'intrusion
classique, ça va de 3 000 € à plusieurs dizaines de milliers d'euros. Shannon, c'est open source et ça tourne sur Docker, par contre, faudra compter environ 50 dollars en tokens API Anthropic par run… c'est pas gratuit mais c'est quand même 60 fois moins cher qu'un audit humain.
Cote installation, c'est Docker + Docker Compose, un fichier .env avec votre cle API Anthropic (la variable ANTHROPIC_API_KEY, classique), et hop, un docker compose up pour lancer le tout. Le workflow complet prend entre 1 h et 1 h 30 selon la taille de votre base de code. Vous pouvez suivre la progression en temps réel via l'interface web Temporal sur localhost:8233. (perso, j'aime bien voir les agents bosser en parallèle, ça a un côté satisfaisant).
Et attention, Shannon exécute de VRAIES attaques. C'est mutatif. Ça veut dire que si l'agent trouve une injection SQL, il va l'exploiter pour de vrai pour prouver que ça marche. Du coup, on le lance sur du code à soi, en local ou sur un environnement de test. Mais jamais en prod. JAMAIS !!!
Bon, sauf si vous aimez vivre dangereusement et que votre boss est en vacances… ^^
Les agents d'exploitation (Auth, SSRF, XSS, AuthZ) en parallèle sur la timeline Temporal
Pour en avoir le cœur net, je l'ai lancé sur une app Node.js/Express maison avec 27 endpoints d'API. 2 heures de scan, 287 transitions d'état, 7 agents qui ont bossé en parallèle… et une facture Anthropic qui pique un peu. Parce que oui, chaque agent consomme des tokens Claude à chaque étape d'analyse et d'exploitation, et ça s'additionne vite. Comptez une cinquantaine de dollars pour un run complet. Bref, c'est pas gratuit de se faire hacker par une IA.
Cote résultats par contre, plutôt parlant. Zero injection SQL exploitable, les 23 paramètres utilisateur ont été tracés jusqu'aux requêtes et Shannon a confirmé que tout était paramétré correctement. Bien joué. Par contre, il a détecté 6 failles SSRF liées à des contournements IPv6, des XSS stockées via innerHTML sans aucun échappement dans le frontend, et surtout… ZERO authentification sur les 27 endpoints. Genre, n'importe qui peut purger ma base ou cramer vos crédits API Claude sans se connecter. Bon après, c'est un outil que je me suis dev, qui est un proto local, donc c'est pas exposé sur internet.
Le rapport final est plutôt bien foutu, je trouve. Pour chaque vuln trouvée, vous avez la sévérité CVSS (critique, haute, moyenne), le vecteur d'attaque utilisé, une preuve d'exploitation avec les payloads, et surtout des recommandations de correction. Shannon va jusqu'à vous montrer la ligne de code fautive, expliquer pourquoi le bypass fonctionne, et proposer le fix. Si vous utilisez déjà des outils comme
Sploitus
pour votre veille secu, Shannon c'est le complément parfait pour passer de la théorie à la pratique sur votre propre code.
Le projet est encore jeune, c'est vrai, mais l'approche est intéressante. Plutôt que d'automatiser bêtement des scans, on a donc un agent qui raisonne sur le code et adapte sa stratégie. Ça change des outils qui balancent des milliers de requêtes à l'aveugle et qui vous noient sous les faux positifs.
Alors après, je vous vois venir, vous allez me dire : est-ce que ça vaut un vrai pentester qui connait votre infra par cœur et qui sait où chercher les trucs tordus ?
Pas vraiment, mais pour un premier audit à moindre coût, ça fait le taf.
Bonne nouvelle pour tous les dev qui n'ont pas peur de l'IA : GitHub vient de sortir
gh-aw, une extension CLI
qui permet d’écrire des workflows agentiques… en markdown. Au chiotte le YAML à rallonge pour vos pipelines CI/CD, vous rédigez vos instructions en langage naturel et c'est une IA (Copilot, Claude ou Codex au choix) qui se charge de les exécuter dans GitHub Actions.
En gros, vous décrivez ce que vous voulez dans un fichier .md, genre"em>fais-moi un rapport quotidien des issues ouvertes" ou "refactorise les fonctions trop longues", et l'agent s'en occupe. Il analyse le contexte de votre dépôt, prend des décisions et livre le résultat sous forme de pull request. Par contre, attention, si votre prompt dans le fichier .md est trop vague genre "améliore
le code", l'agent risque de partir dans tous les sens et vous pondre une PR de 200 fichiers. Faut être précis dans vos instructions, sinon c'est la loterie.
Côté sécurité, ils ont pas rigolé parce que lâcher une IA en roue libre sur votre code, ça pourrait vite tourner au cauchemar (J'en avais d'ailleurs parlé avec les
backdoors planquées dans les fichiers de config
). Ici, tout est sandboxé avec des permissions en lecture seule par défaut sur le runner. Les opérations d’écriture passent par des "safe-outputs" préapprouvés, y'a de l'isolation réseau, du pinning SHA sur chaque dépendance npm/pip… Bref, ils ont pas fait les choses à moitié, côté garde-fous.
Côté moteurs IA, vous avez le choix entre GitHub Copilot, Claude d'Anthropic (via l'API, faut un compte payant), OpenAI Codex ou même votre propre processeur custom. Claude pour du refactoring ça peut être pas mal je pense parce que la fenêtre de contexte est capable d'avaler un dépôt entier, mais pour du triage d'issues, Copilot suffira largement. Comme d'hab, ça dépend de vos besoins (et de votre portefeuille).
Ghidra, le framework de reverse engineering open source de la NSA, est un outil que tous les analystes sécu utilisent au quotidien pour démonter des binaires. Sauf que voilà... quand vous passez des heures à renommer des fonctions, documenter des structures et tracer des cross-references à la main, ça finit par devenir un poil répétitif.
Du coup, un développeur a eu l'idée de coller un
serveur MCP
(Model Context Protocol) directement sur Ghidra. "Encore un wrapper IA bidon ??"... mais non les amis car
Ghidra MCP Server
est un bridge Python + plugin Java qui expose pas moins de 110 outils d'analyse via le protocole MCP. Rien que ça.
Concrètement, ça veut dire que vous pouvez brancher Claude, ou n'importe quel outil compatible MCP, directement sur votre session Ghidra et lui demander de décompiler des fonctions, tracer des call graphs, renommer des variables en batch ou même créer des structures de données automatiquement.
Au niveau architecture, un plugin Java tourne dans Ghidra et expose une API REST sur localhost:8089, puis un bridge Python fait la traduction entre le protocole MCP et ces endpoints HTTP. Vous lancez Ghidra, vous activez le serveur via Tools > GhidraMCP > Start MCP Server, et hop, votre IA peut causer directement avec le décompileur.
Et c'est pas juste de la décompilation basique. Y'a de l'analyse de structures, de l'extraction de strings, du mapping mémoire complet, de la gestion de scripts Ghidra (plus de 70 scripts d'automatisation livrés avec le projet !) et même un système de documentation cross-binaire.
En gros, vous analysez un malware, vous documentez toutes les fonctions, et si vous tombez sur une variante plus tard, l'outil transfère automatiquement votre doc via un système de hash SHA-256 sur les opcodes. Plutôt chouette ! En revanche, ça marche pas si le code est fortement obfusqué... logique.
Bon, pour ceux qui connaissent déjà
OGhidra
(qui fait tourner des LLM en local dans Ghidra), Ghidra MCP Server c'est l'approche inverse. Au lieu d'embarquer l'IA dans Ghidra, c'est Ghidra qui s'ouvre à l'IA via un protocole standardisé. Du coup vous n'êtes pas limité à un seul modèle... Claude, GPT, Gemini, n'importe quel client MCP fait l'affaire.
Côté prérequis, faut Java 21, Maven 3.9+, Python 3.10+ et évidemment Ghidra 12.0.2. L'install se fait en quelques étapes : cloner le repo, pip install, copier les libs Ghidra dans lib/, compiler avec Maven et déployer le zip dans les extensions. Rien de bien sorcier si vous êtes déjà dans l'écosystème... sauf si vous êtes sous Windows, là faudra peut-être un peu galérer avec Maven.
Les opérations batch sont par exemple très intéressantes... Avec cette fonctionnalité, vous pouvez renommer 50 variables d'un coup, poser des commentaires sur toutes les fonctions d'un module, typer des paramètres en série.
Bref, si vous faites de l'analyse de binaires et que vous voulez arrêter de tout vous taper à la main, c'est le genre de combo reverse engineering + IA qui va vous faire gagner pas mal de temps !
Vous faites partie de ceux qui, comme moi, ont gardé leurs bonnes vieilles habitudes de veille techno avec les flux RSS ? Ce truc que tout le monde a enterré y'a 10 ans (merci Google),
continue pourtant de tourner tranquillement
dans l'ombre... Hé bien figurez-vous que des développeurs continuent d'y croire et de nous pondre des agrégateurs toujours plus sympas.
C'est pourquoi aujourd'hui je vous présente
MrRSS
, un petit lecteur de flux qui a la particularité d'être développé en Go côté back et Vue.js côté interface, le tout empaqueté avec Wails v3 pour fonctionner sur Windows, macOS et Linux.
Le projet tourne depuis un petit moment déjà et intègre l'IA pour la traduction et le résumé automatique des articles. Comme ça, si vous tombez sur un article en anglais un peu technique, l'outil peut vous le traduire ou vous en faire un résumé rapide. C'est plutôt pratique quand on suit des dizaines de sources et qu'on veut faire le tri efficacement.
Dans l'interface, on retrouve toutes les fonctionnalités qu'on attend d'un bon lecteur : import et export OPML pour migrer facilement depuis un autre outil, découverte intelligente des flux à partir d'une simple URL, et gestion des catégories pour
organiser tout ça
. Le développeur a aussi pensé aux raccourcis clavier pour naviguer rapidement entre les articles.
Voilà, si vous cherchez un lecteur RSS desktop open source qui fait le job sans fioritures mais avec quelques fonctionnalités modernes sympa comme l'IA,
c'est par ici que ça se passe.
Amusez-vous bien et un grand merci à Lorenper pour le partage !
Vous utilisez Claude Code, le CLI d'Anthropic ? Hé bien figurez-vous qu'il y a des fonctionnalités cachées dedans, et pas des moindres ! Un dev nommé Mike Kelly a fouillé dans le JavaScript minifié du CLI et il a découvert un truc dingue : un mode "Swarms" qui transforme votre assistant en véritable chef d'équipe capable de déléguer le travail à plusieurs agents en parallèle.
En gros, au lieu de parler à une seule IA qui code, vous parlez à un team lead. Et ce team lead, lui, il ne code pas... il planifie, découpe les tâches et les dispatche à une équipe de spécialistes qui bossent en même temps. Du coup quand vous validez un plan, il spawn plusieurs agents workers qui partagent un tableau de tâches, communiquent entre eux via une sorte de boîte aux lettres interne, et reviennent vous faire leur rapport une fois le boulot terminé.
Le truc c'est que cette fonctionnalité existe DÉJÀ dans le code de l'outil CLI, mais elle est verrouillée derrière un feature flag côté serveur (un truc qui s'appelle tengu_brass_pebble pour les curieux). Mike a donc créé
claude-sneakpeek
, un outil qui patche le CLI pour forcer ce flag à true. Hop, les fonctionnalités cachées deviennent accessibles. Si vous avez déjà lu
mon article sur Auto-Claude
, vous voyez le genre... Ce sont des agents en parallèle qui bossent pendant que vous faites autre chose, genre lire mes articles pour entrapercevoir le futur ^^.
Ce qui se débloque
Une fois le patch appliqué, vous avez accès à :
TeammateTool : pour spawner des équipes d'agents
Delegate mode : le Task tool peut lancer des agents en arrière-plan
Teammate mailbox : les agents peuvent s'envoyer des messages entre eux
Concrètement, quand vous demandez une tâche complexe, l'IA peut maintenant découper le travail, créer des sous-tâches avec dépendances, et lancer plusieurs workers qui vont bosser en parallèle sur leurs morceaux respectifs. Et ça consomme moins de tokens que de tout faire séquentiellement, contrairement à ce qu'on pourrait croire.
Et voilà, vous pouvez lancer claudesp au lieu de claude pour avoir la version avec les features débloquées !
Le truc bien pensé, c'est que ça installe une instance COMPLÈTEMENT isolée. Votre installation normale de l'outil CLI reste intacte, avec sa propre config, ses sessions et ses serveurs MCP. Zéro interférence.
Comment ça marche sous le capot
Pour les curieux qui veulent comprendre le hack, c'est assez chouette. En fait, le CLI est du JavaScript minifié, et il contient une fonction qui ressemble à ça :
function i8(){if(Yz(process.env.CLAUDE_CODE_AGENT_SWARMS))return!1;return xK("tengu_brass_pebble",!1)}
Cette fonction vérifie le feature flag côté serveur. Le patch la remplace simplement par :
function i8(){return!0}
Bref, au lieu de checker le flag, ça retourne toujours true. Simple mais efficace.
Pour mettre à jour ou désinstaller
npx @realmikekelly/claude-sneakpeek update claudesp
# Mise à jour
npx @realmikekelly/claude-sneakpeek remove claudesp
# Désinstallation
Voilà, si vous êtes fan d'automatisation et que vous voulez pousser le CLI dans ses retranchements, c'est clairement un truc à tester ! Le mode Swarms change la donne pour les projets complexes où paralléliser les tâches fait gagner un temps fou.
Vous voulez faire tourner des modèles d'IA directement sur votre téléphone, sans envoyer vos données à un serveur distant ?
Ça tombe bien puisque Google a sorti
Edge Gallery
, une application open source qui permet d'exécuter des LLM et des modèles multimodaux en local sur Android et iOS. Et vu que c'est sous licence Apache 2.0, personne ne pourra vous la retirer... même si Google décide un jour de passer à autre chose ^^.
Vous l'aurez compris, ce qui est cool avec cette app c'est que tout se passe sur l'appareil. Vos conversations avec l'IA, vos photos analysées, vos notes audio transcrites... rien ne quitte votre smartphone. Et visiblement, ça plaît puisque l'app a dépassé les 500 000 téléchargements en seulement deux mois après sa sortie sur GitHub.
Et comme je sais que parmi vous, y'a pas mal de paranos comme moi et de gens qui ne prennent pas leurs médicaments (pas comme moi), je pense que c'est le genre de solution qui va vous faire plaisir !
Ce qu'on peut faire avec
Edge Gallery embarque plusieurs fonctionnalités qui couvrent pas mal de cas d'usage du quotidien. Concrètement, vous avez :
AI Chat pour discuter avec un LLM comme vous le feriez avec ChatGPT, sauf que tout reste en local. Pratique pour brainstormer, rédiger des mails ou juste poser des questions sans connexion internet.
Ask Image pour analyser vos photos. Vous prenez un truc en photo et vous demandez à l'IA de vous expliquer ce que c'est. Ça marche pour identifier des plantes, décrypter une facture, ou comprendre un schéma technique.
Audio Scribe pour transcrire de l'audio en texte. Vous enregistrez une réunion, une interview, ou vos propres notes vocales, et hop, ça devient du texte exploitable. Et depuis la dernière mise à jour, vous pouvez même traduire directement dans une autre langue.
L'interface d'AI Edge Gallery sur Android
Prompt Lab pour les développeurs qui veulent tester leurs prompts et benchmarker les différents modèles disponibles. Y'a même des métriques en temps réel (temps de première réponse, vitesse de décodage, latence) pour les geeks de l'optimisation.
Tiny Garden, c'est le petit bonus rigolo : un mini-jeu expérimental entièrement offline où vous utilisez le langage naturel pour planter, arroser et récolter des fleurs. Bon, c'est gadget, mais ça montre bien les possibilités du truc.
Mobile Actions pour les plus aventuriers. Vous pouvez utiliser une recette open source pour fine-tuner un modèle, puis le charger dans l'app pour contrôler certaines fonctions de votre téléphone en offline. C'est encore expérimental, mais ça peut donner des idées intéressantes.
Les modèles disponibles
L'app propose plusieurs modèles selon vos besoins. On retrouve la famille
Gemma de Google
(Gemma 3 en 1B et 4B paramètres, Gemma 3n optimisé pour les appareils plus modestes et qui gère maintenant l'audio), mais aussi des modèles tiers comme Qwen2.5, Phi-4-mini de Microsoft, ou encore DeepSeek-R1 pour ceux qui veulent du raisonnement plus poussé.
Et les gardes fous sont facilement contournables...
Il y a aussi des modèles spécialisés comme
TranslateGemma
pour la traduction (55 langues supportées) et FunctionGemma pour l'appel de fonctions et tout ce petit monde tourne grâce à
LiteRT
, le runtime léger de Google pour l'inférence on-device.
D'ailleurs, la communauté Hugging Face propose déjà pas mal
de modèles convertis au format LiteRT
donc si les modèles par défaut ne vous suffisent pas, vous pouvez aller fouiller dans leur collection pour trouver votre bonheur. Et pour les plus aventuriers, vous pouvez même charger vos propres modèles au format .litertlm.
Installation sur Android
Pour Android, c'est simple, direction le
Play Store
et vous cherchez "AI Edge Gallery". Vous pouvez aussi télécharger l'APK directement depuis les
releases GitHub
si vous préférez. Il vous faut Android 12 minimum et un appareil avec au moins 4 Go de RAM (8 Go recommandés pour les gros modèles).
Au premier lancement, l'app vous propose de télécharger les modèles. Comptez entre 500 Mo et 4 Go par modèle selon la taille. Une fois téléchargés, ils sont stockés localement et vous n'avez plus besoin de connexion pour les utiliser.
Et sur iOS / macOS ?
Pour iOS, l'app est disponible en bêta via
TestFlight
. Attention, c'est limité à 10 000 testeurs (premier arrivé, premier servi), et il faut un appareil avec minimum 6 Go de RAM. Moi c'est ce que j'utilise et comme c'est pas encore la version finale, il manque quelques trucs mais ça fonctionne. Google vise une sortie officielle sur l'App Store début 2026. J'ai hâte !
Pour macOS par contre... il n'y a pas de version native. L'app est pensée pour le mobile uniquement donc si vous voulez vraiment tester sur votre Mac, la solution c'est de passer par un émulateur Android comme Android Studio (avec l'émulateur intégré) ou BlueStacks. BlueStacks Air est d'ailleurs optimisé pour les Mac Apple Silicon. C'est pas idéal mais ça dépanne.
Cela dit, si vous êtes sur Mac et que vous voulez faire tourner des LLM en local, regardez plutôt du côté d'Ollama ou de
LM Studio
qui sont nativement compatibles.
Pourquoi c'est intéressant ce truc ?
L'intérêt principal, c'est évidemment la confidentialité. Vos données ne transitent jamais par des serveurs externes donc vous en gardez le contrôle total. C'est particulièrement pertinent si vous bossez avec des documents sensibles ou si vous êtes simplement attaché à votre vie privée.
L'autre avantage, c'est que ça fonctionne hors ligne. Dans le métro, en avion, en zone blanche... votre IA reste disponible. Pas de latence réseau, pas de "serveur surchargé, réessayez plus tard".
Et puis le fait que ce soit open source, ça ouvre pas mal de portes car la communauté peut contribuer, ajouter des modèles, corriger des bugs et même si Google abandonne le projet (ce qui ne serait pas une première), le code restera là et on pourra faire des forks ! (Pourquoi attendre en fait ??)
Voilà, pour ceux qui veulent creuser,
le wiki GitHub du projet
contient pas mal de documentation sur l'ajout de modèles personnalisés et l'utilisation avancée de l'API LiteRT.
Vous connaissez Sonic Pi, ce logiciel génial pour coder de la musique que je vous ai déjà présenté ? Hé bien Sam Aaron, son créateur, remet le couvert avec son nouveau projet baptisé Tau5.
Si vous avez déjà testé le live coding, vous savez comme moi que c'est une joie totale de pouvoir balancer des boucles en tapant quelques lignes de code, mais là Sam pousse le délire beaucoup plus loin. Ce nouveau joujou, c'est un peu le grand frère de Sonic Pi, pensé dès le départ pour la collaboration, mais aussi la sécurité et la compatibilité web.
Sam Aaron lors de sa keynote GOTO 2025
L'ambition de Tau5 c'est que l'outil puisse à terme intégrer des agents IA via le protocole MCP. Bien sûr, l'objectif n'est pas de remplacer le musicien (ouf !), mais de lui offrir un partenaire d'improvisation qui pourrait l'aider à crafter des boucles ou ajuster des paramètres. C'est en tout cas la vision que Sam a partagée lors de sa keynote au GOTO 2025.
Sous le capot, le système repose sur la machine virtuelle Erlang (BEAM), sur laquelle tourne aussi Elixir. C'est une architecture connue pour sa tolérance aux pannes, comme ça même si vous faites une erreur de syntaxe en plein set, le système encaisse sans que tout s'effondre et vous colle la honte avec des gens qui viendront vous dire à la fin de votre concert : "Hahaha, c'est nul t'es trucs d'IA, ça marche pas, tu vois bien que l'humain n'est pas prêt d'être remplacé ! Hahaha, loser"
Pour ceux qui se demandent ce que ça change par rapport à Sonic Pi, c'est surtout la dimension collaborative qui est mise en avant pour le futur. Avec cette nouvelle mouture, l'objectif c'est de permettre à plusieurs personnes de coder ensemble, potentiellement assistées par une IA. Je trouve que c'est une évolution de la création musicale par ordi plutôt logique vers quelque chose de plus connecté.
Si le sujet vous branche, je vous remets le lien vers mon article sur
la découverte de Sonic Pi
, histoire de voir d'où on part. Bref, tout ça reste trèss fidèle à la philosophie de Sam qui est depuis le début de rendre le code accessible et créatif à tous.
Bref, si vous aimez la musique, le code, ou juste voir des gens brillants repousser les limites, jetez un œil
à sa présentation
ou
au dépôt GitHub
.
Vous rêvez de lancer Claude sur un projet et de le laisser bosser tout seul pendant que vous faites autre chose, du genre jouer à Animal Crossing en attendant la fin de la journée ? Hé bien c'est exactement ce que propose Auto-Claude, un outil open source qui transforme l'assistant IA préféré des devs en armée de développeurs plus autonomes que votre mère quand il s'agit d'échanger un billet de train.
J'avais déjà parlé de
Claude Engineer
c'est vrai. C'est un framework CLI en Python qui permettait de faire bosser Claude en autonomie. Mais Auto-Claude, alalalala, c'est un autre délire les amis ! Déjà c'est une vraie application desktop avec interface graphique, tableau Kanban pour gérer vos tâches, et surtout... 12 terminaux qui peuvent tourner en parallèle. Oui, DOUZE agents Claude qui bossent simultanément sur votre code pendant que vous candy crushez pépouze dans les WC de votre entreprise.
Les terminaux d'Auto-Claude en action, chacun gérant un agent autonome
Le truc génial, c'est que chaque agent travaille dans son propre git worktree. Du coup, pas de conflit (de canard ^^ - J'ai pas pu résister désolé), pas de branches qui s'emmêlent, et chaque tâche est isolée proprement.
Puis quand c'est fini ? Hop, vous validez et ça merge parfaitement sans vous prendre la tête. Ce truc est fou !
Installation
Alors pour commencer, il vous faut un abonnement Claude Pro ou Max. Pas le choix...
Ensuite, installez Claude Code via npm si c'est pas déjà fait :
npm install -g @anthropic-ai/claude-code
Maintenant on clone Auto-Claude :
git clone https://github.com/AndyMik90/Auto-Claude.git
cd Auto-Claude
Et on installe les dépendances. L'outil gère à la fois le frontend Electron et le backend Python :
npm run install:all
Et c'est tout. Si si sérieux. Bon, là je vous l'ai fait en mode installe de barbu.e.s mais sachez aussi qu'il y a des binaires à télécharger directement pour Windows, macOS (Intel ou Silicon) et Linux (AppImage, deb ou flatpak).
Lancement et utilisation
Pour démarrer l'interface graphique, ensuite, c'est :
npm start
Une fenêtre s'ouvre avec le fameux tableau Kanban. Vous ajoutez vos tâches, vous les assignez aux agents disponibles, et c'est parti. Chaque terminal affiche en temps réel ce que fait son agent.
Le tableau Kanban pour orchestrer vos agents IA
Pour les fans de ligne de commande, y'a aussi un mode CLI :
python run.py --spec 001
Le numéro correspond à un fichier de spec dans le dossier specs/. Vous écrivez ce que vous voulez, et Auto-Claude s'occupe du reste.
Comment ça fonctionne ?
L'architecture est plutôt bien pensée puisque le frontend Electron communique avec un backend Python via WebSocket. Chaque agent a son propre processus isolé, sa propre branche git, son propre contexte.
Ainsi, quand vous lancez une tâche, Auto-Claude :
Crée un worktree git dédié
Lance un agent Claude Code dessus
Monitore l'avancement en temps réel
Gère le pipeline QA automatiquement
Le tout avec une interface qui vous permet de suivre 12 conversations en parallèle, soit de quoi bien jouer au chef d'orchestre si vous avez un gros projet à abattre.
Je commence à peine à découvrir l'outil et faut que je le ponce un peu plus pour voir ce que je peux faire avec ça, mais si vous êtes chaud bouillant comme moi sur ce genre de truc, je vous invite à tester l'autonomie IA poussée à fond avec Auto-Claude.
Les gars de chez LLNL (Lawrence Livermore National Laboratory) sont des bons ! De vrais spécialistes en sécurité informatique qui ont pondu un outil à essayer si vous passez vos journées dans les entrailles des binaires.
Ça s'appelle OGhidra, et c'est une extension qui fait le pont entre le célèbre framework de reverse engineering Ghidra et la puissance des modèles de langage (LLM).
Comme ça, plutôt que de vous péter les yeux sur des milliers de lignes de code décompilé, vous pouvez simplement "discuter" avec les fonctions ou les strings extraites. Grâce à une intégration avec Ollama, OGhidra permet d'interroger les représentations du binaire en langage naturel pour identifier des vulnérabilités, renommer intelligemment des fonctions ou expliquer des algorithmes complexes. Attention toutefois, comme avec tout LLM, les résultats doivent être validés manuellement (les hallucinations, ça arrive même aux meilleurs !).
Le gros avantage ici, vous l'aurez compris, c'est la privacy car tout tourne en local sur votre ordi. L'extension utilise des techniques comme le RAG (Retrieval-Augmented Generation) pour garder le contexte de vos sessions et le CAG (Cache-Augmented Generation) pour optimiser les performances. Prévoyez quand même une machine solide car pour faire tourner des modèles comme gemma3 confortablement, 32 Go de RAM (et une bonne dose de VRAM) ne seront pas de trop.
Pour que ça envahisse vos machines de reverse engineer, il vous faudra Ghidra 11.3 minimum et JDK 17. L'installation se fait ensuite en deux temps : d'abord le plugin GhidraMCP à ajouter dans Ghidra, puis le composant Python à récupérer sur GitHub :
git clone https://github.com/LLNL/OGhidra.git
cd OGhidra
pip install -r requirements.txt
Une fois Ollama lancé avec vos modèles préférés, vous allez pouvoir automatiser les tâches les plus reloues. Par exemple grâce aux boutons "Smart Tool" dans l'interface de Ghidra vous allez pouvoir renommer toutes les fonctions d'un coup ou générer un rapport de sécurité (à prendre comme une base de travail, pas comme une vérité absolue, hein ^^).
C'est beau mais ça fait mal quand on pense au temps qu'on a perdu par le passé ! Et si vous kiffez ce genre d'approches, jetez aussi un œil à
Cutter
qui propose une intégration optionnelle du décompileur de Ghidra, ou encore à
DecompAI
.
Voilà, j'ai trouvé ça intéressant pour booster Ghidra avec une petite dose d'intelligence locale.
TikTok vient de lâcher une info qui va faire grincer des dents tous ceux qui comme moi tiennent à leur vie privée. Le réseau social chinois va prochainement déployer dans l'Union européenne une nouvelle technologie d'intelligence artificielle dont le but est d'estimer si un compte appartient à un utilisateur de moins de 13 ans en analysant... votre comportement.
Fini le simple formulaire où l'on tape une date de naissance bidon, TikTok passe à la vitesse supérieure sous la pression des régulateurs européens. Le système va donc scanner vos infos de profil, les vidéos que vous postez, mais surtout des "signaux comportementaux".
En gros, l'algorithme va analyser comment vous interagissez avec l'app pour prédire votre tranche d'âge. Mais rassurez-vous, si l'IA vous siffle parce qu'elle pense que vous n'avez pas l'âge requis, votre compte ne sera pas banni instantanément, mais envoyé à des modérateurs humains spécialisés là dedans pour une vérification manuelle.
Après même si ça part d'une bonne intention, l'enfer en est pavé et le souci ici c'est que l'analyse comportementale sera constante. Donc si vous avez des centres d'intérêt un peu "jeunes" ou si vous utilisez l'app d'une certaine manière, vous pourriez vous retrouver flaggé par erreur. À l'inverse, un gamin un peu malin pourrait adopter un comportement "adulte" pour passer sous les radars. C'est le jeu du chat et de la souris, mais avec vos données personnelles comme mise de départ.
Et quid de la confidentialité ? Même si TikTok a travaillé en concertation avec la Commission irlandaise de protection des données (DPC) pour que le système respecte les règles de l'UE, ByteDance reste sous surveillance étroite. Je me demande où seront stockés ces signaux comportementaux et surtout à quoi ils serviront d'autre ? De mon point de vue, le risque de dérive vers un profilage publicitaire encore plus intrusif est réel avec ce genre de process...
Maintenant, si votre compte est bloqué et que vous voulez contester, TikTok proposera plusieurs options de confirmation d'âge en backup tels que :
Envoyer un selfie accompagné d'une pièce d'identité.
Effectuer une vérification par carte bancaire (via un micro-débit temporaire).
Utiliser un service tiers d'estimation de l'âge par analyse faciale.
En tout cas, je trouve marrant que pour "protéger les mineurs", on finisse toujours par demander encore plus de données biométriques ou bancaires à tout le monde. Données qui vont encore se retrouver sur BreachForums ou je ne sais où d'ici quelques années...