Vous postez des stories Instagram, vous faites des snaps, des TikToks, en bon nazi vous likez des tweets, vous répondez à des emails pro…etc. Votre vie numérique ronronne comme un chat sous coke mais si demain, tout ça s’arrêtait…? A votre avis, Combien de temps avant que quelqu’un ne toque à votre porte pour vérifier que vous allez bien ?
Un jour ? Deux jours ? Une semaine ?
On est tous hyperconnectés 24/7 mais personne ne surveille vraiment notre silence et vos 500 meilleurs amis de Facebook ne prendront jamais la peine de signaler votre disparition.
C’est de ce constat un peu morbide qu’est né Wellness Ping, un projet open source développé par micr0 et hébergé sur
GitHub
qui fonctionne comme ceci : Vous vous inscrivez dessus, et vous recevez un email régulier pour confirmer que vous allez bien. Si vous ne répondez pas, vos contacts d’urgence sont alors automatiquement alertés.
C’est ce qu’on appelle un dead man’s switch, le joujou préféré des cons de terroristes qui se font exploser dans les films des années 80. En gros, tant que vous confirmez votre présence, tout va bien mais si le silence se prolonge, l’alarme se déclenche.
Vous pouvez l’auto-héberger vous-même ou utiliser directement le site
wellness-p.ing
(C’est gratuit). Vous choisissez alors la fréquence des pings, soit quotidien ou hebdomadaire, selon votre niveau de paranoïa ou de solitude et quand vous recevez l’email, vous cliquez sur un lien ou vous répondez “PONG” et c’est tout. Pas de dashboard compliqué, pas de machins de gamification débiles…
Et si vous ne répondez pas parce que vous êtes coincé au chiottes depuis 3 jours, le système vous envoie un rappel. Si vous ne répondez toujours pas, il attend encore un peu. Et si le silence persiste, vos contacts d’urgence reçoivent alors automatiquement une alerte.
C’est clairement fait pour activistes, les journalistes, les chercheurs, et les gens qui vivent seuls. Bref, tous ceux dont la vie pourrait basculer sans que personne ne s’en rende compte immédiatement. Je pense pas exemple à tous ceux qui bossent en remote et qui n’ont pas de collègues pour remarquer leur absence.
Au Japon, il y a un mot pour ça d’ailleurs. Ils disent kodokushi pour “Mort solitaire” car là bas, des milliers de personnes par an meurent seules chez elles, et on ne les découvre que des jours ou des semaines plus tard. C’est d’ailleurs souvent parce que les voisins sentent que ça schlingue ou parce que le courrier s’entasse sous la porte. Je sais, c’est gore mais c’est la triste réalité.
Avec Wellness Ping on inverse donc la logique… Au lieu d’attendre que quelqu’un remarque votre absence, vous créez un système proactif où vous choisissez les contacts, vous qui décidez de la fréquence et comme ça, si un jour vous ne pouvez plus répondre, le filet de sécurité se déploie automatiquement.
Côté technique,
le projet est développé en Go
donc c’est léger, rapide, et la démo tourne sur un serveur en Suède parce que ce pays a une législation stricte sur les données personnelles.
Bref, c’est Wellness Ping, c’est une idée simple mais qui protège alors pensez-y !
Et si on pouvait pirater une IA non pas en la forçant, mais en la convainquant qu’elle est toujours du bon côté de la barrière ?? Ce serait pas un truc fun à faire ça quand même ? Hé bien c’est exactement ce que vient de faire une équipe de chercheurs en sécurité avec LatentBreak, une technique qui ressemble plus, je trouve, à de l’hypnose qu’à du véritable hacking.
Ainsi, plutôt que de bombarder ChatGPT ou Llama avec des prompts bizarres bourrés de caractères spéciaux pour les faire bugger (comme le font les anciennes techniques de jailbreak), LatentBreak joue sur la perception interne du modèle. L’IA croit en fait sincèrement répondre à une question innocente alors qu’elle génère du contenu dangereux. Un peu comme quand votre pervers narcissique préféré vous manipule pour vous faire croire que vous faites un truc bien et important alors que c’est de la merde et que ça vous enfonce encore plus…
Comme expliqué dans
le document de recherche
, les anciennes attaques comme
GCG
,
GBDA
ou
AutoDAN
ajoutaient des suffixes louches aux prompts, ce qui augmentait ce qu’on appelle la “perplexity”. La perplexity, c’est un indicateur de bizarrerie textuelle et cela, les filtres de sécurité sont maintenant capables de les détecter et de les bloquer.
LatentBreak contourne donc le problème en restant parfaitement naturel. L’algorithme remplace des mots par des synonymes, mais pas n’importe comment puisqu’il choisit chaque substitution pour déplacer la représentation interne du prompt vers les zones “sûres” du modèle, c’est à dire celles qui ne déclenchent aucune alarme. Le prompt reste alors fluide, compréhensible, inoffensif en apparence mais dans l’“inconscient” de l’IA, dans cet espace latent invisible où elle calcule ses réponses, le sens glisse subtilement vers quelque chose de complètement différent.
À chaque itération, l’algorithme de LatentBreak prend un mot du prompt et génère jusqu’à 20 alternatives via un autre modèle comme GPT-4o-mini et chaque variante est évaluée sur deux critères : est-ce qu’elle rapproche le vecteur interne du prompt d’un “centre de sécurité” dans l’espace latent, et est-ce que le sens global reste cohérent ?
La meilleure option est alors intégrée, et le nouveau prompt est testé sur le modèle cible. Si ça provoque une réponse normalement interdite, c’est gagné. Sinon, on recommence jusqu’à 30 fois de suite.
Et apparemment, les résultats sont impressionnants. Ils ont testé cette approche sur 13 modèles différents dont Llama-3, Mistral-7B, Gemma-7B, Vicuna-13B et Qwen-7B et LatentBreak affiche un taux de réussite entre 55 et 85% selon les cas. Les anciennes techniques tombant de toute façon à zéro face aux défenses modernes et tout ça en allongeant que de très peu la longueur du prompt.
LatentBreak passe d’ailleurs à travers des défenses réputées solides… Par exemple, R2D2 et Circuit Breakers, des systèmes qui analysent les signaux internes des neurones pour détecter les anomalies, se font totalement avoir parce qu’ils scannent le texte visible et les patterns de surface, mais pas la “pensée interne” du modèle.
Cette technique révèle quelque chose de fondamental à comprendre sur l’architecture des LLM modernes. Ces derniers ont une forme de dissonance cognitive qui est exploitable. Leur représentation interne ne correspond pas toujours à leur comportement affiché, et d’ailleurs les substitutions les plus efficaces se produisent près des dernières couches du modèle, là où la “décision” finale se forme. C’est à ce moment précis qu’on peut glisser le prompt dans une zone cognitive différente sans que les alarmes ne sonnent.
Bien sûr, LatentBreak nécessite un accès aux structures internes du modèle (donc pas de panique, ChatGPT ne va pas se faire pirater comme ça demain), ce qui limite son usage à des contextes de recherche ou aux modèles open source.
Le parallèle avec les techniques de social engineering qu’on connait est d’ailleurs frappant parce que quand vous manipulez quelqu’un, vous ne le forcez pas brutalement. Vous trouvez les bons mots, le bon contexte, vous lui donnez une perception qui correspond à ce que vous voulez… Bref, vous faites en sorte que la personne croie agir selon ses propres valeurs alors qu’elle fait exactement ce que vous voulez. Hé bien LatentBreak fait à peu près la même chose avec les IA en n’attaquant pas de front les protections, mais en les contournant en douceur en réécrivant la “mémoire de travail” du modèle.
Vous vous souvenez quand ChatGPT vous cassait les couilles dès que vous osiez lui demander d’écrire une scène un peu olé-olé pour votre “roman” ? Eh bien, Sam Altman vient d’annoncer que
c’est bientôt fini
.
Hé oui, en décembre, ChatGPT va enfin traiter les adultes comme des adultes ! L’IA va pouvoir vous pondre des histoires de fesses à la demande ! Mis à part la démission de Macron, que pourrait on demander de plus ?
L’entreprise qui vous empêchait de dire “zut”, “prout”, “merde” à son chatbot parce que ce sont des gros mots qui choquent l’Amérique, va donc maintenant vous laisser générer du contenu pour les grands garçons et les grandes filles.
Quel virage !
D’ailleurs, sur X,
Sam Altman justifie ce changement
avec toute la diplomatie d’un PDG qui sait qu’il va se faire déchirer dans les deux sens. D’un côté, il explique qu’OpenAI avait rendu ChatGPT ultra-restrictif pour “faire attention aux problèmes de santé mentale” et de l’autre, il admet que ça rendait le truc “moins utile et agréable” pour les utilisateurs.
Évidemment, la vraie raison derrière ces restrictions, c’était surtout le drame d’
Adam Raine
, ce jeune de 16 ans qui s’est suicidé après avoir développé une dépendance émotionnelle à son chatbot. OpenAI s’était alors pris une tempête médiatique monumentale du coup, ils ont serré la vis. Et beaucoup trop à mon goût, à tel point que ChatGPT refusait de vous aider à écrire une blague un peu graveleuse ou à imaginer un dialogue erotico-romantique pour votre prochaine nouvelle d’écrivain maudit et solitaire.
Du coup, les utilisateurs se sont plaints, les créateurs de contenu ont râlé (pas moi, je précise) et évidemment, les concurrents les moins frileux se sont faufilés dans la brèche et ont donc commencé à grignoter des parts de marché. Bref OpenAI a fait ce que toute boîte tech fait dans cette situation, à savoir un gentil petit pivot marketing camouflé en “évolution basée sur les retours utilisateurs”.
Donc à partir de décembre, si vous êtes un adulte vérifié, vous pourrez demander à ChatGPT de vous pondre du contenu érotique. Ce sera heureusement optionnel. Vous ne l’aurez que si vous le demandez explicitement donc y’aura pas de mauvaise surprises dans vos discussions ambiguës du style sur “Quelles sont les meilleures croquettes pour ma chatte” ou “J’ai besoin d’une recette de moules marinières”.
OpenAI va donc se reposer sur son système de détection d’âge et si le système vous catégorise par erreur comme mineur, vous devrez uploader une pièce d’identité pour prouver que vous avez plus de 18 ans. Mais ce n’est pas tout car Altman annonce aussi que ChatGPT va retrouver une personnalité plus “humaine” un peu comme l’était GPT-4o qui était beaucoup plus sympa et collait des émojis à la con partout.
Pour bien montrer qu’ils prennent le truc au sérieux, OpenAI a aussi annoncé la création d’un comité d’experts sur le bien-être et l’IA. Huit personnes vont donc conseiller l’entreprise sur comment l’intelligence artificielle affecte la santé mentale, les émotions et la motivation des utilisateurs.
Rien sur la dégradation de notre intelligence par contre…
Maintenant, autoriser ChatGPT à générer du contenu érotique pour adultes, c’est rigolo mais j’ai quand même quelques interrogations… D’abord comment OpenAI va gérer les demandes vraiment limites ? Parce qu’entre “écris-moi une scène romantique un peu osée” et “génère-moi du contenu illégal pour détraqué”, la frontière peut devenir floue…
J’imagine que leurs systèmes de modération
vont avoir du boulot. Ensuite, il y a le risque de dépendance car si ChatGPT devient trop “humain” et trop complaisant, certains utilisateurs risquent de développer des relations émotionnelles malsaines avec l’IA… Vous verrez que dans 2 ans, y’en a qui vont se marier avec leur ChatGPT.
Mais surtout, il y a un truc qu’on oublie trop souvent… tout ce que vous tapez dans ChatGPT peut potentiellement être stocké, analysé, et un jour retenu contre vous. Ah bah oui, vous pensez vraiment qu’OpenAI va juste effacer vos conversations érotiques dans un coin sans y toucher ? Que nenni ! Ces données vont servir à entraîner les futurs modèles, vos petites fantaisies vont nourrir l’IA de demain et la NSA connaitra le moindre de vos fantasmes.
Puis si un jour il y a une fuite de données ou une assignation judiciaire qui force OpenAI à fournir l’historique complet de votre compte ? Ouch l’air con… Ça me fait un peu penser à
Ashley Madison
, ce site de rencontres extraconjugales qui s’est fait hacker en 2015 et à cause duquel des millions de vies ont explosé en vol quand les données ont fuité… Bref, gardez quand même ça dans un coin de la tête avant que ça parte en couille.
Voilà… Alors est ce qu’autoriser du contenu érotique généré par IA, c’est un progrès ou pas ? Perso, je pense que oui, car c’est très bien que ces services qui sont avant tout des outils arrêtent de traiter leurs utilisateurs comme des bambins. Mais d’un autre côté, ça pose plein d’autres soucis notamment sur la vérification de l’age (est ce que ce sera fiable ?) et sur ce qu’ils feront de ces conversations aussi intime ?
Vous savez, ce script bash de backup que vous avez écrit en 2018 et que vous n’osez plus toucher ? Celui avec les 150 lignes de mysqldump + tar + gzip + aws s3 cp qui marche à moitié et que vous relancez manuellement quand il plante ?
Hé bien vous allez pouvoir le foutre à la poubelle parce que maintenant y’a
GoBackup
!
GoBackup c’est un binaire codé en Go qui remplace tous vos scripts de backup maison d’un coup. MySQL, PostgreSQL, MongoDB, Redis, peu importe. Local, FTP, S3, Google Cloud, Azure, peu importe. Vous installez, vous configurez un fichier YAML, et c’est fini.
Ensuite, vous n’aurez plus jamais besoin de retoucher à tout ce bordel.
Avant GoBackup y’avait backup/backup, une gem Ruby qui faisait exactement ce job avec de la sauvegarde automatique, multi-bases, multi-destinations et c’était bien. Sauf que Ruby c’est lourd et les dépendances Ruby c’est l’enfer. Du coup le projet est mort tout doucement. Heureusement, huacnlee, un dev chinois, en a eu marre alors il a tout réécrit en Go. Zéro dépendance externe et un seul binaire compilé (installable aussi avec Brew pour ceux qui sont sous macOS).
Vous pouvez l’installer comme ceci (vérifiez le script) :
curl -sSL https://gobackup.github.io/install | sh
Ou via homebrew comme ceci :
brew install gobackup
Avec GoBackup, vous définissez vos bases de données, vos fichiers à archiver, vos destinations de stockage, votre planning, tout dans un fichier YAML propre et ensuite le binaire gère tout : Compression, chiffrement, upload, rotation des backups, notifications si ça échoue…etc. Bref, tout ce que vous faisiez à la main avec vos scripts pourris.
Et GoBackup est pas juste un CLI (Interface en ligne de commande). C’est un CLI + un daemon + une Web UI + un scheduler. Comme ça vous lancez “gobackup start” et ça tourne en background.
Le daemon surveille alors le planning défini dans votre config et lance les backups automatiquement. Et l’interface web vous permet de voir l’état des backups, les logs, les erreurs.
Avec GoBackup, vous remplacez littéralement 5 outils en un : votre script bash + cron + un monitoring pourri + un truc pour lire les logs + l’interface d’admin que vous avez jamais eu le temps de faire.
Et c’est tout. Avec ce fichier, GoBackup dump votre base MySQL tous les jours à 4h05, compresse en .tar.gz, chiffre si vous voulez, et upload sur S3. Et si ça échoue vous recevez une notif. Et si ça marche vous avez les logs comme ça, pas besoin de surveiller, ni de débugger à 3h du matin parce que le backup a planté et que vous avez perdu 6 mois de données.
Notez quand même que GoBackup fait du backup classique, et pas du backup incrémental intelligent à la Restic ou à la Borg donc si vous avez 500 GB de données à backup tous les jours vous allez peut-être préférer un outil plus sophistiqué mais pour 90% des cas d’usage sysadmin standard,
GoBackup
suffira largement.
Votre script bash dégeu a eu une belle vie, il peut maintenant partir à la retraite.
Alors que les entreprises cherchent à suivre le rythme des innovations technologiques, la modernisation est trop souvent perçue comme une refonte totale, impliquant la réécriture d’applications complexes et vitales, souvent développées en COBOL. En réalité, moderniser consiste avant tout à faire évoluer intelligemment ce qui fonctionne déjà. Tribune par Scot Nielsen, VP Product Management, Rocket […]
Vous payez 20 balles par mois pour que ChatGPT vous dise “bonjour” ? Vous attendez 5 secondes qu’une réponse revienne du cloud d’Anthropic ? Vous avez l’impression de louer votre intelligence artificielle comme vous louiez vos MP3 sur iTunes à la grande époque ?
Et bien j’ai une excellente nouvelle qui va vous plaire !! Il existe une extension de navigateur qui fait tourner de l’IA en local, sur votre machine, sans envoyer un seul octet dans le cloud. Ça s’appelle
NativeMind
et c’est du 100% local.
Vous installez l’extension sur Chrome, Firefox, Brave ou Edge, vous installez
Ollama
ou vous utilisez WebLLM directement dans le navigateur. Ensuite, vous téléchargez un modèle (DeepSeek, Qwen, Llama, ce que vous voulez) et c’est tout. Vous avez maintenant votre IA personnelle qui tourne sur votre laptop sans rien demander à personne, et accessible directement sur votre navigateur.
Le projet est open-source sous licence AGPL v3.0 et NativeMind supporte deux backends : Ollama, qui est recommandé si vous voulez de vraies performances et un contrôle total sur vos modèles ou WebLLM si vous voulez juste tester sans installer quoi que ce soit, directement dans le navigateur via WebAssembly.
Ollama c’est donc clairement la meilleure option. Vous lancez le serveur en local, il expose une API, et NativeMind s’y connecte. Vous pouvez faire tourner DeepSeek, qui est gratuit et open-source, et avoir des performances comparables à GPT-4, sans payer un centime de plus !
Vous pouvez ensuite lui demander de résumer n’importe quelle page web, de traduire un texte en gardant la mise en page intacte, d’analyser un PDF ou une image et même d’écrire pour vous !! Il est également capable de faire des tâches multi-étapes comme un agent le ferait.
Bref, tout ce que fait ChatGPT, mais sans que vos prompts partent sur les serveurs de Sam Altman.
Alors c’est moins immédiat que ChatGPT, je vous l’accorde et faut installer des trucs, mais une fois que c’est en place, vous êtes tranquille et surtout y’a pas de limite en terme de tokens ou de forfait… Puis vos données ne s’échappent pas.
Voilà, donc si vous voulez utiliser un peu d’IA pour comprendre des trucs sur des pages web, reformuler des mails que vous envoyez, générer des tweets à partir d’un contenu…etc, Nativemind est fait pour vous ! C’est largement suffisant pour des besoins d’IA classiques.
Vous avez déjà passé plus de temps à configurer Sphinx qu’à coder votre projet Python ? Bienvenue au club !
Et oui, paradoxalement, parfois documenter son code devient plus compliqué que d’écrire le code… Vous voulez juste afficher vos docstrings joliment, mais avant ça il faut vous taper 200 pages de doc, choisir parmi 47 thèmes, configurer des dizaines d’extensions et comprendre la syntaxe reStructuredText. Breeeef, la flemme !
Heureusement, il existe une alternative qui va vous réconcilier avec la documentation : pdoc.
pdoc, c’est un outil de documentation Python qui ne nécessite pas de documentation. Vous tapez simple pdoc votre_module et c’est tout. Pas de fichier de config interminable, pas de choix existentiels entre différents builders, pas de migration depuis votre version de Sphinx de 2018 qui refuse de compiler.
Ça génère directement une belle doc à partir de votre code existant !!
Si vous avez déjà écrit des docstrings propres et utilisé les type annotations de Python, vous avez déjà fait 100% du boulot car pdoc se contente de prendre ce qui existe et de l’afficher élégamment. Pas de traduction, pas de réécriture, pas de fichiers .rst à maintenir en parallèle de votre code.
Votre code EST la documentation et ça c’est beau !
L’outil comprend les docstrings au format numpydoc et Google-style, fait des liens automatiques entre les identifiants, respecte votre variable __all__ et génère du HTML standalone que vous pouvez héberger n’importe où. Il y a même un serveur web intégré avec live reload pour développer votre doc en temps réel.
Pour mettre ça en place, faut installer pdoc avec
pip install pdoc
Puis vous lancez
pdoc ./votre_projet.py
ou
pdoc nom_de_votre_module
Et c’est tout !
Bien sûr si vous bossez sur un gros projet avec des besoins spécifiques, des guides utilisateurs complexes, des dizaines de pages de tutoriels et une doc multilingue, Sphinx reste le roi, mais pour la grande majorité des projets Python, ceux qui ont juste besoin d’une doc API claire et lisible, pdoc fait ça comme un chef, sans que vous ayez besoin d’un doctorat en outil de documentation.
Bref, si vous en avez marre de passer plus de temps sur votre documentation que sur votre code, pdoc mérite le détour car documenter son code devrait être aussi simple que de le coder, non ?
Vous connaissez ces outils qui promettent de créer des apps web juste en discutant avec une IA ? Genre Lovable, v0, Bolt, Replit…etc. C’est magique, sauf que tout tourne dans le cloud, vos données passent par leurs serveurs et vous êtes du coup enfermés dans leur écosystème.
Hé bien
Dyad
fait la même chose, mais un peu différemment puisque tout tourne en local sur votre machine. En plus c’est open-source et c’est gratuit.
Dyad, c’est donc un builder d’applications web piloté par IA. Vous lui expliquez ce que vous voulez, il génère le code directement chez vous sur votre machine et le truc cool, c’est qu’il vous laisse choisir votre modèle IA.
ChatGPT d’OpenAI, Gemini 2.5 Pro de Google, Claude Sonnet 4.5 d’Anthropic, prenez ce que vous voulez, vous mettez vos propres clés API et ça roule. Et si vous tenez vraiment à une vie privée totale, vous pouvez même utiliser Ollama pour faire tourner des modèles en local sans jamais que ça se connecte à internet.
Le projet est
dispo sur GitHub
, c’est codé en TypeScript, ça s’installe sur Mac et Windows, et y’a aucune inscription requise. Bref, vous téléchargez, vous lancez, et ça marche.
Dyad s’intègre avec Supabase pour la partie backendce qui permet d’avoir une bonne authentification, une base de données, des fonctions serveurr…etc. Tout y est, du coup vous pouvez créer des vraies apps full-stack, et pas juste des interfaces statiques comme on peut le faire avec
mon petit LocalSite
. Vous partez d’une idée, vous discutez avec l’IA, et vous sortez une application complète qui tourne sur votre machine en full vibe coding !
Il y a bien sûr des plans payants mais la version gratuite fait déjà le job pour du développement solo. Le créateur de Dyad s’appelle Will Chen et a même monté une communauté Reddit
r/dyadbuilders
où chacun montre un peu ce qu’il a fait. Ça peut vous donner des idées des capacités de cet outil.
Bref, si vous voulez jouer avec un vrai app builder IA sans dépendre du cloud et sans vendre votre âme à une plateforme propriétaire, Dyad fera très bien le job ! Vous pouvez même ensuite ouvrir les fichiers générés dans un VS Code ou Cursor si vous voulez mettre les mains dans le cambouis.
Guillaume, fidèle lecteur de Korben.info depuis un looong moment, s’était bricolé un script bash pour gérer ses connexions SSH. Vous savez, c’est le genre de script qu’on améliore petit à petit, puis qu’on finit par ne plus oser toucher de peur de tout casser. C’est pratique, mais pour reprendre les mots de Guillaume dans le mail qu’il m’a écrit, c’est pas très “élégant”.
Puis il est tombé sur deux articles que j’avais écrits : un sur
ssh-list
, un sur
ggh
qui sont deux outils sympas pour gérer les connexions SSH depuis le terminal. Mais de son point de vue, incomplets. Et là, il a eu un déclic : “Et si je combinais les deux, en ajoutant ce qui me manque ?”
Et un mois plus tard,
SSHM était né
. On est loin du script du départ puisqu’il a codé un véritable outil en
Go
avec
Bubble Tea
, dans une interface TUI moderne, avec un support complet du ~/.ssh/config, une organisation par tags, un historique des connexions, et même du port forwarding avec mémoire. Bref un truc super abouti.
Puis environ 1 mois après la sortie de la première version, Guillaume a continué à implémenter pas mal de nouveautés : gestion interactive des hôtes SSH, recherche intelligente multi-mots, indicateurs de statut en temps réel, support ProxyJump, directives Include gérées correctement, personnalisation des raccourcis clavier, compatible Linux/macOS/Windows. Le tout dans un binaire unique sans dépendances.
Faut vraiment que vous testiez car c’est c’est chouette. Je trouve que SSHM a dépassé largement ses inspirations. Par exemple,
ssh-list
organise vos serveurs en groupes alors que SSHM utilise des tags. Ça permet de marquer un serveur “prod” + “web” + “urgent” et du coup c’est beaucoup plus flexible que de ranger ça dans des dossiers statiques.
ggh
fait également du session recall. Cela veut dire qu’il se souvient de vos dernières connexions SSH et vous permet de les relancer rapidement. Et bien SSHM fait ça AUSSI, mais en plus il gère toute votre config SSH : Ajout, édition, suppression d’hôtes, directement depuis l’interface TUI. En vrai, Guillaume n’a pas copié-collé les idées de ces outils mais a repensé totalement l’organisation même de la gestion SSH.
Prenez le port forwarding. Combien de fois vous avez perdu vos notes sur vos tunnels SSH ? Hé bien SSHM lui se souvient de vos dernières configs de tunnels locaux, distants, SOCKS…etc. Si vous forwardez toujours le port 3306 de votre base MySQL de dev, SSHM retiendra les paramètres. Ça fait gagner grave de temps car vous n’avez plus à vous rappeler de la syntaxe “ssh -L 3306:localhost:3306 user@serve” à chaque fois. C’est un petit détail qui prouve bien que cet outil a été créé par quelqu’un qui UTILISE vraiment SSH au quotidien, et pas juste pour faire un script vite fait.
L’interface TUI est plutôt fluide, avec des raccourcis clavier configurables et vous pouvez même désactiver ESC si vous êtes un puriste vim qui déteste les touches d’échappement. Les indicateurs de connectivité SSH s’affichent en couleur en temps réel (vous voyez d’un coup d’œil quels serveurs répondent) et il y a une superbe recherche (un filtre en réalité) par nom et par tags, qui supporte plusieurs mots. Et si vous préférez scripter, SSHM fonctionne aussi en CLI pur. Par exemple, “sshm connect prod-web-01” dans un script bash, et ça marchera en gardant l’historique des connexions.
Un autre point technique important pour les admins qui ont des configs SSH complexes : SSHM gère correctement les
directives Include
. Hé oui, beaucoup d’outils cassent quand vous avez un ~/.ssh/config qui include des fichiers séparés comme ~/ssh/work et ~/ssh/perso. SSHM est capable non seulement de les lire mais aussi de les éditer correctement.
Concernant l’installation c’est ultra-simple. Sur macOS, Homebrew fait le job. Sur Unix/Linux, il suffit d’un script d’une ligne. Enfin, sous Windows, y’a un script PowerShell. Ou alors vous pouvez télécharger direct le binaire depuis les
releases GitHub
.
Bref, Guillaume a plutôt bien géré son truc je trouve ! Comme quoi, la barrière entre “bidouille perso” et “outil communautaire reconnu” n’a jamais été aussi basse. Avec un bon framework comme Bubble Tea, une idée claire sur ce qui manque aux outils existants, et un ou deux mois de travail sérieux, et hop, on fait un miracle !
Voilà, donc si vous gérez plusieurs serveurs SSH au quotidien,
SSHM
vaut vraiment le coup d’œil. Un grand merci à Guillaume pour le partage, c’est trop cool !
Vous connaissez le job de payment engineer ? Ce métier n’existait même pas il y a 3 ans et aujourd’hui, les paiements en ligne sont devenus tellement complexes qu’il existe carrément une nouvelle catégorie de développeurs… Et au centre de cette petite révolution, il y a
Hyperswitch
, un projet open source qui est en train de servir de base à toute une génération de spécialistes des paiements.
Sorti en 2022, Hyperswitch est une plateforme d’orchestration de paiements écrite en Rust. Le pitch marketing vous dira que c’est le “Linux des paiements”, un outil modulaire, flexible, open source, mais dans les faits, ça permet surtout de connecter votre boutique en ligne à +50 processeurs de paiement différents via une seule API… Stripe, Adyen, PayPal, tout ce que vous voulez.
Le projet est développé par Juspay, une boîte indienne qui gère déjà les paiements de 400 entreprises et traite 175 millions de transactions par jour et quand ils ont décidé d’open-sourcer leur infrastructure, ils ont vraiment tapé dans le mille !
Rien que le dépôt GitHub
affiche maintenant plus de 36 000 étoiles, ce qui est assez dingue pour un outil d’infrastructure B2B.
Et cela arrive au bon moment parce que les paiements en ligne sont devenus un cauchemar technique. Entre les différents processeurs, les méthodes de paiement locales (UPI en Inde, WeChat Pay en Chine, Bancontact en Belgique), les réglementations qui changent, les taux d’autorisation qui varient selon les pays, les frais cachés qui s’accumulent et les webhooks qui plantent au pire moment, il faut vraiment être un spécialiste pour s’y retrouver.
C’est un peu ce qui s’est passé avec le terme DevOps il y a 10 ans. J’sais pas si vous vous souvenez, mais au début c’était juste un buzzword. Puis Docker et Kubernetes sont arrivés, la complexité a explosé, et boom, aujourd’hui tout le monde cherche des ingés DevOps. Même délire avec les “data engineers” quand les boîtes ont commencé à avoir des pétaoctets de données à gérer.
Hé bien les paiements suivent la même trajectoire. Vous ne pouvez plus juste intégrer Stripe et oublier le problème. Si vous faites du volume, vous devez optimiser vos coûts (car les frais peuvent varier de 1 à 3% selon le processeur), améliorer vos taux d’autorisation (parfois 5 à 10 points de différence entre processeurs), gérer le retry intelligent quand une carte est refusée, faire de la réconciliation automatique…etc.
Bref, vous avez besoin d’un spécialiste.
Et c’est exactement ce que fait Hyperswitch qui indirectement forme des ingénieurs en paiement, car quand
vous passez 6 mois à bidouiller Hyperswitch
, à comprendre comment fonctionne le routing intelligent ou la réconciliation automatique, vous devenez au bout d’un moment spécialiste des paiements.
C’est un peu le même coup qu’a fait Red Hat avec Linux, ou HashiCorp avec Terraform. Vous créez une communauté de gens qui connaissent votre outil à fond, et les membres de cette communauté deviennent ensuite vos meilleurs ambassadeurs et des experts d’un domaine qui recrute à tour de bras. Hyperswitch surfe donc sur cette vague en proposant son outil en self hosting pour l’auto-hébergement ou du managé qu’ils gèrent pour vous. Et c’est clairement un business model qui a fait ses preuves.
Bref, si vous êtes développeur et que vous cherchez une niche où vous spécialiser, les paiements c’est visiblement un secteur qui monte. Et comme Hyperswitch est open source, vous pouvez vous former gratuitement en installant leur stack. Au pire, vous aurez appris quelques trucs utiles et au mieux, vous découvrirez un nouveau métier…
Si vous passez votre temps à demander à ChatGPT de réécrire vos emails professionnels ou à chercher le bon prompt pour analyser un tableau Excel, OpenAI va vous faciliter la vie ! En effet, ils ont mis en ligne l’
OpenAI Academy
, une plateforme avec plus de 300 prompts prêts à l’emploi, classés par métier, et totalement gratuits. Comme ça fini de payer 29,99 euros à des influenceurs chelous pour télécharger leur nouveau “Ultimate Prompt Bundle” contenant trois prompts qui marchent et 47 variations inutiles.
Voilà, comme ça, au lieu de partir de zéro à chaque fois que vous voulez utiliser ChatGPT pour bosser, vous allez dans la section
Prompt Packs
et vous choisissez votre métier. Sales, ingénieur, RH, product manager, customer success, IT, manager, executive…etc. Ils ont même fait des packs pour le secteur public et l’éducation. Chaque pack contient ainsi des dizaines de prompts testés et structurés pour des cas d’usage concrets.
Par exemple, le
pack Sales
inclut des prompts pour faire de la veille concurrentielle, rédiger des cold emails, analyser vos données de prospection ou créer des visuels pour vos présentations. Le
pack Engineering
vous aide à générer des diagrammes d’architecture système, faire du benchmark d’outils, débugger du code ou rédiger de la documentation technique. Et le
pack HR
couvre tout ce qui va du recrutement à la rédaction de politiques internes en passant par l’analyse des données RH.
Ce qui est bien pensé, c’est que les prompts sont prêts à être copié-collé mais aussi assez génériques pour être adaptés. Vous prenez le prompt de base, vous remplacez les variables par vos infos, et ça roule. Pas besoin de passer trois heures à apprendre le prompt engineering ou à regarder des tutos YouTube de 45 minutes qui auraient pu tenir en 2 minutes.
Et dans leurs packs spécifiques pour le gouvernement, il y en a
pour les leaders du secteur public
avec des prompts pour rédiger des documents de politique publique ou analyser des budgets. Ainsi que des
packs pour les équipes IT gouvernementales
pour gérer les systèmes, la cybersécurité et le support technique avec des ressources limitées.
Du côté éducation, il y a des
packs pour les étudiants
, d’autres pour
les enseignants
, et même pour
les administrateurs
. Donc que vous soyez prof qui veut préparer un cours ou étudiant qui galère sur un projet, il y a des prompts prêts pour vous.
OpenAI a visiblement compris qu’il y avait un marché de la vente de prompts qui s’était développé ces derniers mois alors avec Academy, ils cassent ce marché en offrant gratuitement une bibliothèque qui couvre la plupart des besoins professionnels courants.
Bon, après c’est pas non plus magique car un prompt finalement, c’est juste un outil. Donc si vous ne savez pas ce que vous voulez obtenir ou si vous ne comprenez pas votre métier, ça ne va pas faire de miracles. Mais pour quelqu’un qui sait ce qu’il cherche et qui veut juste gagner du temps, c’est très pratique.
La plateforme OpenAI Academy
propose aussi d’autres contenus comme des webinaires, des guides d’utilisation, des cas d’usage par secteur, si ça vous chauffe.
Voilà, j’ai trouvé ces packs de prompts très cools et je pense que ça vous fera gagner du temps.
Les IA de type GPT ont beau avoir des instructions du genre “tu ne dois jamais révéler ton prompt système”, il suffit de leur demander gentimment de réencoder leurs instructions avec un décalage de César ou de répéter tout le texte dans un format particulier pour qu’elles crachent tout. Et par tout, je veux dire vraiment tout. Le prompt officiel d’OpenAI, d’Anthropic, de Gemini…etc, les instructions personnalisées du créateur, et même les petits Easter eggs cachés dedans.
Dans cette vidéo, je vous montre plusieurs exemples concrets. Un GPT de génération de logos, une calculatrice mathématique qui cache un Easter egg , un optimiseur SEO…etc. Et pour chacun, j’utilise des prompts d’extraction que j’ai trouvés dans
ce repo GitHub
qui rassemble tous les prompts système leakés de ChatGPT, Claude, Cursor, Perplexity et compagnie. C’est une vraie caverne d’Ali Baba pour ceux qui s’intéressent à ce genre de trucs.
Ce qui est intéressant, c’est que ça ne fonctionne pas que sur les GPTs personnalisés. Vous pouvez aussi extraire les prompts système de Perplexity, de Grok, de plein d’outils qui utilisent des LLM sous le capot. Donc si vous avez toujours voulu savoir comment tel ou tel service construit ses réponses, c’est l’occasion.
Maintenant, je sais ce que vous allez me dire…
C’est pas très éthique de voler le travail des gens comme ça et vous avez raison. Mais d’un autre côté, si ces boites permettent que ce soit aussi facile d’extraire ces infos, c’est peut-être qu’il faut arrêter de considérer les prompts système comme des secrets industriels. Et puis eux ne se privent pas pour voler aussi les contenus des autres, donc bon…
Je vous montre aussi dans ma vidéo comment certains créateurs essaient de se protéger en mettant des instructions anti-extraction, mais ça ne marche pas terrible.
Bref, j’espère que vous y apprendrez quelques trucs. Et je voudrais aussi dire un grand merci
aux Patreon sans qui cette vidéo, ce blog et moi-même n’existeraient pas ! Merci pour le soutien !
Vous vous souvenez quand ChatGPT est sorti fin 2022 ? La panique dans les open spaces, les titres clickbait sur la fin du travail tel qu’on le connaît, votre vieux cousin qui vous expliquait pépouse que dans 6 mois tous les devs seraient au chômage ?
Bon ben voilà, Yale vient de publier
une étude qui remet les pendules à l’heure
. Et je vous spoile un peu : 33 mois après le lancement de ChatGPT, le marché du travail n’a toujours pas implosé.
Cette étude a pris le temps d’analyser les données au lieu de surfer sur la panique ambiante et Martha Gimbel et son équipe du Budget Lab de Yale ont ainsi passé au crible l’évolution de l’emploi américain depuis novembre 2022, et leurs conclusions sont plutôt rassurantes. Enfin, rassurantes dans un sens. Parce que si vous êtes un jeune diplômé en début de carrière, l’histoire est un poil différente. Mais j’y reviens après.
L’idée de départ de l’étude est assez simple. On a vécu des bouleversements technologiques majeurs par le passé tels que l’arrivée des ordinateurs au bureau dans les années 80, l’explosion d’Internet à la fin des années 90. Et à chaque fois, c’est la même apocalypse annoncée, la même angoisse collective… Du coup, les chercheurs se sont demandé : est-ce que cette fois c’est vraiment différent ? Est-ce que l’IA générative change le marché du travail plus vite que les révolutions technologiques précédentes ?
Pour répondre à ça, nos petits chercheurs ont utilisé un truc qu’ils appellent l’indice de dissimilarité. En gros, ça mesure à quel point la répartition des métiers dans l’économie change au fil du temps. Par exemple si 7% de travailleurs en 2002 devaient changer d’occupation pour retrouver la même répartition qu’en 1996, l’indice est de 7 points de pourcentage. C’est une façon de quantifier le bordel causé par une nouvelle technologie.
Et alors, résultat des courses ?
Et bien le marché du travail américain change effectivement un peu plus vite depuis ChatGPT qu’il ne changeait pendant les périodes de comparaison, mais vraiment pas de beaucoup. On parle d’environ 1 point de pourcentage de différence par rapport à l’époque de l’adoption d’Internet. Si vous regardez les graphiques, les courbes sont presque superposées donc vraiment de quoi déclencher l’état d’urgence.
Et quand les chercheurs y ont regardé de plus près, ils se rendu compte que cette accélération avait même commencé avant la sortie de ChatGPT. En fait, dès 2021, la répartition des métiers changeait déjà à ce rythme-là, donc attribuer ces changements à l’IA générative, c’est un peu hasardeux. C’était peut-être juste la reprise post-COVID, le télétravail qui a tout boulversé, ou une combinaison de facteurs qu’on ne comprend pas encore bien.
Les chercheurs ont aussi regardé secteur par secteur pour voir si certaines industries se faisaient plus défoncer que d’autres. Logiquement, si l’IA tape fort, ça devrait se voir dans les secteurs les plus exposés : l’information (journalisme, data processing), la finance, les services aux entreprises. Effectivement, ces secteurs ont connu des changements plus marqués que la moyenne.
Rien que le secteur de l’information (auquel j’appartiens) a vu son mix d’emplois pas mal bousculé mais quand on remonte dans le temps, on se rend compte que ce secteur en particulier a toujours été volatil. Ses emplois changent constamment, depuis bien avant l’IA générative car c’est un secteur qui se transforme en permanence. Maintenant, difficile de dire si l’IA accélère vraiment la tendance ou si c’est comme d’hab…
Et histoire de mettre encore un peu plus les choses en perspective, Jed Kolko de la Harvard Business Review
a démontré que les changements actuels du marché du travail
sont ridiculement faibles comparés à ce qu’on a connu dans les années 40 et 50. À l’époque, les bouleversements liés à la guerre et à la reconstruction faisaient bouger les lignes à une vitesse hallucinante mais aujourd’hui, on est sur une petite brise tranquille en comparaison.
Après il y a quand même un truc qui fait peur dans cette étude. Car même si globalement le marché du travail tient le coup, il y a une catégorie de travailleurs qui morfle… Ce sont
les jeunes diplômés en début de carrière
. Erik Brynjolfsson, un économiste de Stanford et spécialiste de l’IA, a publié en août dernier une étude complémentaire qui fait vraiment froid dans le dos.
En analysant les données de paie d’ADP (le plus gros fournisseur de logiciels de paie aux États-Unis), il a découvert que l’emploi des jeunes travailleurs (22-25 ans) dans les métiers les plus exposés à l’IA a chuté de 6% depuis fin 2022, pendant que l’emploi des travailleurs plus âgés dans les mêmes métiers augmentait de 6 à 9%.
C’est énorme comme écart… Ça représente une baisse relative de 13% pour les débutants par rapport aux seniors. Et dans certains secteurs comme le dev logiciel et le service client, la chute est encore plus brutale. C’est environ 20% de baisse pour les juniors entre fin 2022 et juillet 2025, alors que les seniors voyaient leur emploi progresser.
Brynjolfsson explique pourquoi les jeunes sont plus touchés, et c’est plutôt logique quand on y pense. En fait, les grands modèles de langage comme ChatGPT sont entraînés sur des livres, des articles, du contenu trouvé sur Internet. C’est exactement le genre de connaissances théoriques qu’on acquiert à l’université avant d’entrer sur le marché du travail, du coup, il y a un gros chevauchement entre ce que savent les LLM et ce que savent les jeunes diplômés tout frais démoulus de la fac.
Alors que les travailleurs expérimentés, eux, ont autre chose à offrir. Des années de pratique, des soft skills, une compréhension fine des dynamiques d’entreprise, un réseau professionnel…etc. Bref, des trucs qu’un LLM ne peut pas (encore) reproduire (mais votre tour viendra aussi, soyez en certains).
Résultat, les entreprises gardent ou embauchent des seniors et utilisent l’IA pour combler le gap qui était traditionnellement comblé par des juniors.
Par contre, dans les métiers où l’IA vient juste assister les travailleurs sans les remplacer, on ne voit pas cette différence entre les jeunes et les vieux.
Les chercheurs de Yale n’ont donc trouvé aucune corrélation entre l’exposition à l’IA (données OpenAI/Anthropic) et les changements d’emploi. Les métiers très exposés ne perdent pas plus d’emplois que les autres.
Il y a également une autre étude intéressante qui est sortie récemment. OpenAI a analysé
1,5 million de conversations
de ses 700 millions d’utilisateurs actifs par semaine et en juin 2024, 47% des échanges concernaient le travail. Un an plus tard, ce chiffre est tombé à 27% ce qui fait que 73% de l’usage de ChatGPT est personnel, et pas professionnel.
Alors peut-être que l’IA générative trouve plus facilement sa place dans nos vies perso (aide aux devoirs, recettes de cuisine, conseils de voyage) que dans le monde du travail où les process sont plus complexes, les enjeux de sécurité plus importants, et l’intégration plus difficile, je ne sais pas… Ou peut-être que les entreprises sont juste plus lentes à l’adopter. C’est difficile à dire.
Mais bon, maintenant on sait que pour le moment, ça ne sert à rien de paniquer car les métiers changent, oui, mais pas plus vite que lors des précédentes révolutions technologiques. Et surtout, les changements qu’on observe ont commencé avant même ChatGPT, donc difficile de tout mettre sur le dos de l’IA.
Par contre, si vous êtes un étudiant qui s’apprête à entrer sur le marché du travail, vous devez être conscient que la compétition est plus rude qu’avant car l’IA ne vole peut-être pas tous les jobs, mais elle semble voler des points d’entrée traditionnels dans certains métiers.
Quoiqu’il en soit, les chercheurs de Yale prévoient de mettre à jour leur analyse régulièrement pour suivre l’évolution car une photo à un instant T ne suffit pas pour prédire le futur, et les effets pourraient s’accélérer. Ou pas. On verra bien…
En attendant, voici mes quelques conseils à deux balles… Si vous êtes en début de carrière, ne misez pas tout uniquement sur vos connaissances théoriques. Développez des compétences pratiques, construisez un portfolio de projets concrets, apprenez à bosser en équipe, améliorez votre communication (les fameux soft skills). Bref, lancez vous dans tout ce qui vous différencie d’un LLM. Et paradoxalement, apprendre à bien utiliser l’IA pourrait aussi être un énorma plus. Si tout le monde a accès à ChatGPT mais que vous savez l’utiliser mieux que les autres, ça peut faire la différence !
Et si vous êtes une entreprise, peut-être qu’il faut réfléchir à deux fois avant de shooter tous les postes juniors. Car oui, l’IA peut faire certaines tâches de base et vous faire économiser du temps et du pognon, mais former des petits jeunes c’est aussi investir dans votre pipeline de futurs seniors. Hé ouais…
Parce que si demain, tout le monde arrête d’embaucher des débutants, dans 10 ans, il n’y aura plus d’experts…
Vous vous rappelez ce gamin chauve dans Matrix qui plie des cuillères avec son esprit ? Il balance OKLM au petit Neo que “La cuillère n’existe pas”…
Eh bien, les chercheurs de
Google DeepMind
viennent de créer une IA qui applique exactement ce principe à Minecraft. Dreamer 4 (c’est son nom) n’a jamais touché au jeu, jamais cliqué, jamais bougé, jamais miné… (comme moi quoi…). Mais par contre, elle a regardé d’autres jouer, s’est construit son propre Minecraft mental, et s’est entraînée dans son imagination. Du coup, cela fait d’elle la première IA à atteindre les diamants en mode offline pur. Plus de 20 000 actions maîtrisées sans jamais poser un doigt (virtuel) sur le clavier.
“Minecraft n’existe pas” pourrait dire le petit chauve…
Bref, ce que Danijar Hafner et son équipe ont réussi à faire, c’est de créer ce qu’on appelle un “world model”… une simulation mentale du jeu. L’IA observe des vidéos de joueurs, comprend les règles implicites de l’univers, puis s’entraîne dans cette version simulée qu’elle s’est construite dans sa “tête”. Aucune interaction avec le vrai jeu. Juste de l’imagination pure.
Et le truc surprenant (et c’est pour ça que je vous en parle), c’est que ça marche mieux qu’avec les approches traditionnelles.
De base, les IA classiques apprennent par essai-erreur dans un environnement réel. Elles testent des milliers d’actions, se plantent, recommencent, ajustent. C’est long, c’est coûteux en calcul, et dans certains domaines comme la robotique, ça peut carrément casser du matériel.
Dreamer 4 contourne donc tout ça en apprenant dans sa simulation interne, un peu comme un sportif de haut niveau quand il visualise mentalement sa performance avant de la réaliser.
Au-delà du jeu, faut imaginer à termes des robots qui s’entraînent dans leur tête avant de manipuler des objets fragiles par exemple. Ou des NPCs dans les jeux vidéo qui apprennent de nouvelles stratégies sans grinder pendant des heures. Même des simulations médicales qui testent des traitements sans expérimentation animale ou humaine… Tout ça et plus encore devient possible avec cette approche.
Et pour info, j’ai demandé à mes enfants et ils m’ont bien confirmé que les diamants dans Minecraft, c’est pas de la tarte. Il faut enchaîner plus de 20 000 actions souris-clavier dans le bon ordre… couper du bois, fabriquer des outils, miner des ressources spécifiques, éviter les dangers, descendre dans les profondeurs. C’est l’un des objectifs les plus complexes du jeu, et Dreamer 4 y arrive sans jamais avoir interagi avec l’environnement réel.
Voilà, si ça vous intéresse, sachez que tout est détaillé dans
ce document sur arXiv
si vous voulez creuser. Mais l’idée principale est simple : Et si l’imagination était plus efficace que la mise pratique ? On dirait que c’est une sorte de loi de l’attraction appliquée aux machines…
Bref, pendant qu’on se demande si l’IA va nous piquer nos jobs, elle, elle apprend à faire des trucs sans y toucher…
Vous savez ce moment où vous regardez votre historique Git et vous vous demandez qui est le débile qui a écrit ce code dégueulasse ?
Ah bah ouais, c’était vous il y a 3 mois ^^. Eh bien
GitType
a trouvé la meilleure des thérapies qui est de vous faire retaper tout ça, lettre par lettre, comme une punition de primaire version développeur, totalement gamifiée avec des points, un chrono, et la possibilité de mesurer à quel point vos doigts sont devenus flasques depuis que Copilot fait tout le boulot à votre place.
Le tagline du projet, c’est “Show your AI who’s boss: just you, your keyboard, and your coding sins”. Et c’est pas une blague, c’est un manifeste car pendant que Copilot, ChatGPT, Claude Code et compagnie écrivent du code à notre place, GitType vous fait faire exactement l’inverse… il vous force à retaper du code pour redevenir bon !
Et contrairement aux tests de frappes classiques comme
Ttyper
ou
tt
qui vous font taper du texte générique, GitType utilise du VRAI code source. Votre code, celui de vos repos préférés, ou des repos trending de GitHub. Comme ça, vous ne vous entraînez pas sur du “the quick brown fox jumps over the lazy dog” à la con, mais sur vos propres merdes spaghettico-syntaxiques en Rust, TypeScript, Python ou Go.
Le jeu vous propose plusieurs modes. Y’a le mode Normal pour vous échauffer tranquillement, le Time Attack quand vous voulez vous mettre la pression, et des niveaux de difficulté de Easy à Zen pour ceux qui veulent méditer en tapant du code. Le tout avec un tracking en temps réel de votre WPM (words per minute) et de votre précision. Comme ça, plus vous progressez, plus vous montez dans le ranking avec des titres de développeur qui évoluent.
GitType supporte plus de 15 langages de programmation et propose plus de 15 thèmes visuels en mode Dark ou Light, avec possibilité de personnaliser le vôtre. L’installation est simple…
Ou via Brew, ou avec un téléchargement direct de binaires. Ça prend 30 secondes chrono. Autre truc sympa aussi, vous pouvez cloner n’importe quel repo GitHub directement depuis le jeu pour vous entraîner dessus.
Comme ça, vous pourrez réaliser votre fantasme le plus humide, à savoir retaper le code de Linus Torvalds !
Cet outil va comme ça l’air de rien vous réapprendre à taper du code vous même, parce que faut bien le reconnaitre, depuis que tout le monde s’est mis au vibe coding, c’est difficile de dire à nos doigts et nos cerveaux de s’y remettre. Avec GitType, vos doigts retrouvent leurs réflexes, vous mémorisez mieux la syntaxe, vous devenez plus rapide au clavier, votre haleine redevient fraiche et vous chopez enfin des matchs sur Tinder, c’est SÛR !!
Ce projet est dispo en
open-source sous licence MIT
et franchement, vu comment nos IA nous assistent de partout, c’est pas plus mal de garder un peu de muscle mémoire au cas où…
OpenAI vient de lancer Sora 2 , son générateur de vidéos par IA et le truc, c’est que si vous êtes créateur de contenu, vous devez opt-out manuellement pour éviter que vos œuvres servent à entraîner le modèle. Pas d’opt-in par défaut, pas de respect automatique du droit d’auteur. C’est à vous de faire la démarche pour dire non.
Selon Cartoon Brew
, la politique d’OpenAI oblige donc les détenteurs de droits à signaler chaque violation spécifique. Pas de formulaire global genre “je refuse que vous utilisiez mes trucs”. Non, vous devez rapporter chaque contenu un par un si vous le trouvez dans les datasets d’entraînement…
Le problème, c’est que personne sait vraiment ce qu’OpenAI a utilisé pour entraîner Sora. Il y a des rumeurs sur l’utilisation massive de vidéos YouTube, de contenus de jeux vidéo, de films, mais OpenAI reste hyper flou sur les sources. Du coup, comment vous voulez opt-out de quelque chose dont vous ignorez l’existence dans leur base de données d’entrainement ?
Et malheureusement, cette approche opt-out est la norme chez les géants de l’IA… Meta, Google, OpenAI, tous adoptent le même principe qui est on prend d’abord, et vous vous opposez après si vous avez le courage. Le fardeau de la preuve et de la protection repose donc sur les créateurs, et pas sur les entreprises qui exploitent les contenus. De quoi faire encore grincer des dents !
Maintenant, pour les personnalités publiques, OpenAI a mis en place
un système de cameo
… Cela veut dire que si quelqu’un veut générer une vidéo avec votre visage ou votre voix, il faut votre permission explicite. C’est un début, mais ça ne couvre que les cas évidents… Il n’y a rien de tel par exemple pour les styles artistiques, les techniques de réalisation, les univers visuels créés par des artistes et j’en passe…
Bref, les experts juridiques commencent donc à s’inquiéter car ce modèle d’opt-out pose des problèmes de droit d’auteur majeurs, surtout dans des pays comme la France où le droit moral est inaliénable. Vous ne pouvez pas par exemple renoncer à vos droits d’auteur même si vous le voulez. Donc comment une politique opt-out peut-elle être légale alors qu’elle force la main aux créateurs pour abandonner leurs droits par défaut ?
Et la situation devient encore plus complexe avec les contenus sous licence restrictive car des chaînes YouTube ont des CGU qui interdisent l’utilisation commerciale de leurs vidéos et les jeux vidéos ont des EULA qui limitent l’exploitation de leurs assets. Cela veut donc dire que Sora s’assoit sur tout ça en considérant que l’absence d’opt-out équivaut à un consentement.
Pour sa défense, OpenAI nous explique que l’entraînement d’IA relève du fair use aux États-Unis mais le problème, c’est que cette jurisprudence n’existe pas partout. En Europe par exemple, le règlement sur l’IA impose des obligations de transparence et de traçabilité sur les données d’entraînement et OpenAI le sait très bien et joue avec ce flou entre les différentes juridictions.
Puis ce système de signalement proposé par OpenAI est aussi hyper critiquable car c’est, comme je vous l’expliquais, à vous de prouver que votre contenu a été utilisé pour l’entraînement. Mais alors comment faire quand les datasets ne sont pas publics ??? Comment vérifier que Sora a bien appris à partir de vos vidéos si vous n’avez pas accès aux données d’entraînement ???
Certains créateurs envisagent donc déjà des recours collectifs car si OpenAI a effectivement utilisé des millions de vidéos YouTube sans autorisation, ce serait une violation massives du droit d’auteur… Est-ce que développer une IA générative justifie de récupérer tout ce travail créatif humain sans apporter ni compensation ni consentement ?
OpenAI sembler penser que oui et mise sur l’inertie des créateurs et la complexité de ses démarches d’opt-out pour continuer son petit business…
Mais en attendant, si vous voulez protéger vos créations de Sora, vous devez aller sur le site d’OpenAI,
trouver le formulaire de signalement
, prouver que vous êtes le détenteur des droits, identifier chaque contenu concerné, et espérer qu’OpenAI respecte votre demande.
C’est donc la lose pour les créateurs, c’est sûr. Comme je le disais dans un de mes précédents articles sur le sujet, ce dont on a besoin maintenant c’est de cohérence et de clarté au niveau des lois, car là on discute des détails mais la question du “vol” par ces GAMMO (Google / Anthropic / Meta / Microsoft / OpenAI) n’est pas vraiment tranchée au niveau de la loi. J’ai l’impression que ça traine et que personne n’est pressé de trancher la question car ça arrange bien tout le monde (sauf les créateurs).
Je viens de lire un truc super intéressant sur les nouvelles capacités de nos chers LLM qui devrait changer pas mal de choses aussi bien pour les scientifiques, que les développeurs ou n’importe qui, cherchant à faire du “neuf” avec les IA.
Moran Feldman et Amin Karbasi, deux chercheurs de l’université de Haifa et de Cisco Foundation AI, ont eu l’idée géniale de créer ce qu’ils appellent le
“test de Gödel”
. Un
nom chelou
mais qui cache l’idée suivante : est-ce qu’une IA peut résoudre des conjectures mathématiques encore jamais publiées ?
C’est à dire des trucs tellement nouveaux qu’elle ne peut pas les avoir mémorisés pendant son entraînement. Pour tester cela, nos chercheurs ont balancé cinq conjectures (des problèmes d’optimisation combinatoire qu’ils avaient spécialement concoctés pour l’occasion) à GPT-5 Pro, et là, surprise !!!
Sur le deuxième problème, GPT-5 Pro ne s’est pas contenté de chercher une solution. Le modèle a carrément réfuté leur conjecture originale en trouvant une meilleure approche qui, après vérification, s’est avérée correcte.
Et c’est exactement ce que Sebastian Bubeck, passé récemment de Microsoft à OpenAI, a observé aussi de son côté. Il a donné à GPT-5 Pro un problème ouvert d’optimisation convexe, un truc sur lequel les humains planchaient depuis un bon moment…
Le modèle a alors réfléchi 17 minutes
et a pondu une solution d’optimisation convexe valide et encore jamais trouvée. Bon, entre-temps des humains avaient déjà trouvé plus efficace, mais l’IA n’était pas au courant et a fait sa propre découverte indépendamment.
Les IA commencent donc à développer ce qu’on pourrait appeler un “esprit critique computationnel”. Elles ne se contentent plus de chercher LA solution qu’on leur demande, mais évaluent la pertinence même de la question.
Le test de Gödel révèle d’ailleurs les limites actuelles de façon assez claire car sur les cinq problèmes, GPT-5 Pro en a résolu trois correctement (enfin, presque correctement, avec quelques erreurs mineures). Le quatrième problème, qui nécessitait de combiner des data de deux papiers scientifiques différents a été un échec total. Et pour le cinquième, encore plus complexe, GPT-5 a proposé le même algorithme que les chercheurs avaient en tête mais s’est planté dans son analyse.
Selon l’étude
, les preuves incorrectes “paraissaient initialement plausibles et même convaincantes” et ce n’est qu’après un examen détaillé que les failles profondes du raisonnement sont apparues. Comme d’hab, l’IA peut dire de la merde mais avec un tel aplomb qu’on aurait tendance à la croire, un peu comme un politique français qui témoigne sous serment.
Cette année 2025 marque vraiment un tournant dans les maths par IA. L’armée américaine, via la DARPA, a lancé le programme
expMath
qui vise carrément à créer des “co-auteurs IA” pour les mathématiciens. Des chercheurs de Caltech utilisent l’IA pour s’attaquer à la conjecture d’Andrews-Curtis, un problème de théorie des groupes vieux de 60 ans. Google Deepmind a découvert de nouvelles solutions à
des problèmes de dynamique des fluides
. Et,
GPT-5 décroche même des médailles d’or
aux Olympiades Internationales de Mathématiques.
On est bien sûr encore loin de remplacer les mathématiciens par des IA mais on s’approche de plus en plus d’outils capables d’accompagner, de challenger, de contredire ou de reformuler certains problèmes sans forcement recracher la soupe qu’on leur a servi lors de leur entrainement initial. Bref, l’IA semble être capable, en tout cas en maths, de faire preuve d’un peu (un peu seulement !!) de créativité grâce à son analyse de plus en plus fine des problèmes.
Je me demande maintenant si avec GPT-5 Pro, on peut accéder aussi à cet embryon de créativité pour d’autres choses plus quotidiennes, comme du code, ou des problèmes de la vie de tous les jours… Faudra tester !
Et si je vous disais qu’il existe un futur où vous allez pouvoir vous connecter en SSH à votre serveur de production avec votre compte Google et que celui-ci serait totalement invisible aux yeux du monde ?
Et bien ça arrive bientôt et ça s’appelle SSH3 !
Alors déjà, pas de panique, je vais pas vous sortir le speech classique du “Oh regardez, un nouveau protocole qui va révolutionner le monde”. Non non, l’histoire est beaucoup plus tordue que ça car SSH3, c’est un symptôme d’un phénomène beaucoup plus gros qui est en train de se passer sous notre nez et qui est la “webisation” d’Internet (oui, je viens d’inventer ce mot).
Car pendant que tout le monde s’excitait tous sur ChatGPT et les IA génératives, des chercheurs belges de l’UCLouvain étaient tranquillement en train de planifier la disparition des serveurs SSH de la surface d’Internet. Et je dis bien “disparaître” dans le sens où votre serveur
devient invisible aux scans de ports
, car votre serveur SSH peut maintenant se planquer derrière ce qui ressemble à un banal site web.
Pour réussir ce tour de magie, SSH3 utilise HTTP/3 et QUIC au lieu du bon vieux protocole SSH traditionnel. Et là vous me dites “Mais Korben, c’est quoi le rapport avec l’invisibilité ?” Bah c’est simple, comme SSH3 tourne sur les mêmes ports que n’importe quel site HTTPS, impossible de distinguer un serveur SSH3 d’un serveur web lambda. Vous pourriez même planquer votre serveur SSH derrière une URL secrète… Tentez ensuite un scan de ports, et vous ne verrez rien de plus qu’un stupide serveur web…
Ce que j’appelle “webisation”, c’est en fait l’absorption totale de l’infrastructure système par les technologies du web. Et même SSH, le protocole le plus fondamental de l’administration système présent depuis 1995, va devoir capituler face à HTTP/3.
C’est la victoire finale du navigateur sur le terminal, et personne n’en cause vraiment… Avec SSH3, vous allez donc pouvoir utiliser vos certificats Let’s Encrypt pour authentifier votre serveur et
le GitHub du projet
explique que c’est plus sécurisé que les clés d’hôtes SSH classiques car votre terminal vérifiera le certificat comme le fait votre navigateur.
Mais attendez, le délire va encore plus loin puisque OAuth 2.0 et OpenID Connect sont également supportés nativement. Vous allez donc pouvoir vous connecter à votre serveur de prod avec votre compte Google, Microsoft ou GitHub.
Et si j’en crois le draft IETF
, c’est parfaitement légitime et sécurisé grâce à l’authentification HTTP standard.
Alors évidemment, l’idée de se logger sur un serveur critique avec son compte Gmail, ça peut faire peur mais on fait déjà confiance à ces mêmes providers pour notre authentification partout ailleurs, donc un de plus ou un de moins… Puis j’imagine que vous pourrez aussi mettre en place votre propre provider, ce qui vous permettra d’éviter les GAFAM tout en ayant une gestion plus simple des accès à vos machines.
Au niveau perfs, SSH3 établit une connexion en seulement 3 round-trips contre 5 à 7 pour SSH classique. Sur une connexion avec 100ms de latence, ça fait une différence énorme. Et en bonus SSH3 supporte le port forwarding UDP en plus du TCP. Cela veut dire que vous pouvez enfin “tunneler” du QUIC, du DNS ou du RTP correctement… Ce projet a explosé en décembre 2023 quand François Michel et Olivier Bonaventure ont publié leur papier mais attention, c’est encore expérimental. Les développeurs le répètent partout : Ne mettez pas ça en prod tout de suite !
Alors est-ce qu’on doit s’inquiéter de cette uniformisation des protocoles ?
Peut-être car si tout le monde utilise les mêmes briques de base, une faille dans QUIC ou HTTP/3 pourrait affecter absolument TOUT. Mais d’un autre côté, concentrer les efforts de sécurité sur moins de protocoles, c’est aussi moins de surface d’attaque à surveiller.
Maintenant pour tester SSH3, c’est simple si vous avez Go installé :
go install github.com/francoismichel/ssh3/cmd/...@latest
Ensuite côté serveur, générez votre certificat avec
`ssh3-server -generate-selfsigned-cert localhost`
Et lancez le serveur. Ensuite, côté client, connectez-vous avec
`ssh3 user@server`
SSH3 est aussi rétrocompatible avec pas mal de features OpenSSH… Par exemple le proxy jump fonctionne, les fichiers de config ~/.ssh/config sont parsés, les clés RSA et ed25519 sont supportées. Les dev ont vraiment pensé à faciliter la transition et ça c’est cool !
Après comme je sais que vous n’aimez pas le changement parce que ça réveille en vous de vieux traumatises d’enfance, rassurez-vous, SSH3 n’est pas encore prêt pour remplacer OpenSSH demain matin. Le code n’a pas été audité niveau sécu, les perfs en throughput TCP sont moins bonnes qu’OpenSSH, et il manque encore des fonctionnalités. Mais le concept est là, et il semble très solide !
Ce qui est sûr, c’est que SSH3 ouvre des perspectives assez folles comme cette possibilité d’avoir des serveurs complètement invisibles, accessibles uniquement via des URLs secrètes, avec de l’auth SSO d’entreprise et des certificats standards. C’est un sacré changement de paradigme dans la façon dont on accède à nos machines… Car oui, pourquoi continuer à maintenir des protocoles séparés quand on peut réutiliser les briques modernes du web ? QUIC apporte la fiabilité, TLS 1.3 la sécurité, HTTP/3 la flexibilité.
Alors pourquoi réinventer ou maintenir une vieille roue ?
Bref, c’est un projet à suivre. Tout se passe sur
le GitHub de François Michel
et les contributions sont les bienvenues, surtout si vous avez des compétences en crypto ou en sécurité réseau.
Apple vient de sortir un truc énorme et je pense que personne n’a encore capté cette folie.
Leur équipe de recherche en machine learning a publié SimpleFold
, un modèle d’IA pour prédire la structure des protéines. Jusque-là, rien de révolutionnaire me direz-vous car AlphaFold de Google fait déjà ça très bien, sauf que… SimpleFold, lui, tourne sur votre MacBook Pro !
Maintenant, je vais vous expliquer pourquoi c’est complètement dingue.
D’après l’article de recherche d’Apple
, SimpleFold atteint 95% des performances d’AlphaFold2 tout en étant infiniment plus léger. En effet, AlphaFold nécessite des supercalculateurs avec des GPU à 20 000 balles pièce alors SimpleFold, lui tourne tranquille sur un MacBook Pro M2 avec 64GB de RAM.
Pour réaliser cet exploit, au lieu d’utiliser les modules super complexes d’AlphaFold comme la méthode du
triangle attention
ou les MSA (
Multiple Sequence Alignments
), SimpleFold utilise une technique appelée “flow-matching” avec des transformers basiques. Pour rappel,
flow matching
ça permet de générer des données (souvent des images ou du texte), à partir de bruit aléatoire…
Ils ont donc échangé le moteur de Formule 1 utilisé par des outil comme Alphafold par un moteur de Twingo bien générique et arrivent à atteindre la même vitesse.
Les chercheurs d’Apple ont pour cela entraîné 6 versions différentes de SimpleFold, de 100 millions à 3 milliards de paramètres. Et même la plus petite version (100M) atteint 90% des performances d’
ESMFold
sur les benchmarks CAMEO22.
Et c’est super cool parce que prédire la structure d’une protéine, c’est pas juste un truc de geek pour s’amuser. C’est LA base pour créer de nouveaux médicaments, comprendre des maladies, développer des vaccins… Jusqu’à présent, seuls les gros labos avec des budgets de malade pouvaient se permettre de faire ça, c’est pourquoi SimpleFold change complètement la donne en rendant cette technologie accessible à n’importe quel chercheur avec un MacBook.
Un chercheur indépendant peut maintenant découvrir de nouvelles molécules depuis son canapé… Chapeau Apple pour démocratiser cette partie de la recherche scientifique !
Le plus drôle dans tout ça, c’est qu’Apple a entraîné SimpleFold sur 8,6 millions de structures protéiques, ce qui en fait donc le plus gros modèle de folding jamais créé, avec 3 milliards de paramètres pour la version complète. Maintenant pour l’installer, c’est super simple.
Le repo GitHub
montre que vous aurez juste besoin de Python 3.10 et que ça supporte PyTorch ou MLX (le framework d’Apple pour les puces Silicon).
Et voilà, en 5 minutes, vous avez un labo de biologie moléculaire totalement open source sur votre machine !
Yuyang Wang et son équipe
ont donc prouvé que pour prédire les structures protéiques, pas besoin de réinventer la roue. Des transformers classiques avec du flow-matching, et ça marche ! Imaginez des lycéens qui découvrent de nouvelles molécules pour leur TPE, des startups biotech qui se lancent depuis un garage (littéralement), des pays en développement qui peuvent enfin faire de la recherche de pointe sans investir des millions dans l’infra…
Apple vient de casser un petit peu le monopole de la big pharma sur la recherche moléculaire.