Vous avez un Mac M1, M2, M3 ou M4 ? Bonne nouvelle, vous trimballez probablement entre 50 et 100 GB de code complètement inutile que votre processeur n’exécutera jamais et ce, depuis le jour où vous avez acheté votre superbe machine.
Les coupables ce sont les binaires universels de vos plugins audio (VST…etc) et vos apps traditionnelles qui contiennent maintenant deux versions complètes du code : une pour Intel, une pour Apple Silicon. Et comme votre Mac n’utilise qu’une seule de ces versions, mais vous payez le prix fort en espace disque pour les deux.
Car depuis 2020 et la transition vers Apple Silicon, Apple a choisi la simplicité : un seul fichier pour tout le monde ! Le développeur compile son code deux fois (Intel + ARM), colle les deux versions ensemble, et hop, vous vous retrouvez avec des fichiers littéralement deux fois plus gros qu’ils ne devraient l’être.
Et c’est là qu’
Unfatten
entre en jeu. Ce petit outil gratuit fait exactement ce que son nom indique : il dégonfle vos plugins et vos applications en supprimant la partie du code que vous n’utilisez pas. Si vous êtes sur Apple Silicon, il vire le code Intel et si vous êtes encore sur Intel, il peut virer le code ARM (mais attention, si vous comptez upgrader votre Mac un jour, vous devrez tout réinstaller).
L’utilisation est ultra simple, vous sélectionnez les dossiers contenant vos apps et plugins, vous choisissez les formats à scanner (AAX, VST, VST3, AU), et vous lancez le scan. L’outil propose un mode simulation qui permet de voir exactement combien d’espace vous allez récupérer sans rien toucher et une fois que vous avez vu les chiffres (et croyez-moi, ils font mal), vous pouvez lancer le nettoyage réel !
Pensez quand même à faire un backup de vos plugins avant car on n’est jamais trop prudent avec ses plugins audio à 200 euros pièce qu’on ne peut pas toujours re-télécharger facilement. Après pour les apps, c’est moins critique, suffit de la réinstaller.
Pensez aussi à repasser un petit coup de Unfatten après d’éventuelles mises à jours des apps ou des plugins.
D’ailleurs, j’sais pas si vous savez mais macOS 26 Tahoe est la dernière version à supporter du x64 avec Rosetta 2, qui permet de faire tourner les apps Intel sur Apple Silicon.
Voilà, l’outil est disponible ici sur
avelio.tech/unfatten
et si au premier lancement, vous avez un avertissement de sécurité, passez par
Sentinel
pour le débloquer.
Vous connaissez peut-être ces machines à mélanger les cartes qu’on trouve dans tous les casinos américains ?
Moi je ne savais même pas que ça existait, mais apparemment, le Deckmate 2, fabriqué par Shufflemaster (devenu depuis Light and Wonder), c’est la Rolls des shufflers. Un shuffler c’est pas un légume dégeu, c’est un mélangeur de cartes et on en trouve notamment au World Series of Poker (La biz à Patrick Bruel ^^), et dans tous les grands poker rooms de Vegas.
Cela permet d’automatiser le mélange pour accélérer le jeu et surtout éviter que ceux qui distribuent les cartes (les dealers) trichent avec de faux mélanges. La machine a même une caméra intégrée qui scanne chaque carte pour détecter si quelqu’un essaie de retirer un as ou d’ajouter un sept de pique.
En septembre 2022, il y a eu un scandale qui a secoué le monde du poker. Au Hustler Casino Live de Los Angeles, une joueuse relativement débutante, Robbi Jade Lew, gagne un pot de 269 000 dollars avec un call complètement fou. Elle avait valet-quatre dépareillés (un truc nul), et son adversaire Garrett Adelstein bluffait avec huit-sept. Techniquement, son call était correct, mais aucun joueur sensé n’aurait misé 109 000 dollars sur une main pareille sans savoir que l’adversaire bluffait… Le casino a donc lancé une enquête et conclu que le shuffler ne pouvait pas être compromis.
Mais même si ce n’était pas le cas pour cette affaire, est ce que c’est vrai ? Est ce qu’un Deckmate 2 peut être hacké ? Pour le chercheur en sécurité, Joseph Tartaro, ça s’est présenté comme un nouveau défi personnel !
Il a donc acheté un Deckmate 2 d’occasion avec deux collègues et a passé des mois à le démonter… pour finalement trouver quelques trucs intéressants, vous allez voir.
Il a découvert que la machine a un port USB accessible sous la table, là où les joueurs posent les genoux. Tartaro a donc créé un mini-ordinateur de la taille d’une clé USB qui, une fois branché, réécrit le firmware de la machine. La seule sécurité qu’il y a, c’est au démarrage, quand la machine vérifie que le code n’a pas changé en comparant son empreinte à une valeur connue.
C’est une simple comparaison de hash et le problème est que Tartaro peut modifier cette valeur de référence aussi… Du coup, le système de vérification contrôle que le code piraté correspond au hash piraté. C’est ballot ^^. Et une fois le firmware modifié, la machine continue à fonctionner normalement sauf qu’elle transmet maintenant l’ordre exact des 52 cartes via Bluetooth vers une app smartphone. Et comme la caméra interne de ce Deckmate 2 scanne déjà toutes les cartes pour détecter les fraudes, il suffit d’exploiter cette fonctionnalité.
Un journaliste de Wired a décidé de mettre ça en pratique dans des conditions réelles et vous allez voir, c’est sympa à voir.
Le truc génial, c’est que même si le dealer coupe le paquet (ce qui est obligatoire), l’app peut recalculer l’ordre final. Il suffit alors de regarder ses deux premières cartes et de les entrer dans l’app pour qu’elle déduise où le paquet a été coupé. À partir de là, vous connaissez toutes les mains de tous les joueurs et les cartes communes qui vont sortir.
Quand Tartaro a présenté ses résultats à Black Hat en 2023, Light and Wonder a réagi en disant que le hack était “non réaliste en conditions de casino”. Puis en 2024, la boîte a affirmé avoir patché le firmware de “virtuellement tous les shufflers” dans le monde.
Mais Tartaro reste quand même sceptique car les machines n’ont pas de connexion internet. Un technicien doit physiquement mettre à jour chaque appareil et même si le port USB est désactivé, le port Ethernet reste exploitable. Et si l’un de ces techniciens de maintenance décide de pirater la machine, aucun patch ne pourra l’en empêcher…
Bref, encore une fois, plus c’est complexe, plus c’est vulnérable.
Et si on pouvait pirater une IA non pas en la forçant, mais en la convainquant qu’elle est toujours du bon côté de la barrière ?? Ce serait pas un truc fun à faire ça quand même ? Hé bien c’est exactement ce que vient de faire une équipe de chercheurs en sécurité avec LatentBreak, une technique qui ressemble plus, je trouve, à de l’hypnose qu’à du véritable hacking.
Ainsi, plutôt que de bombarder ChatGPT ou Llama avec des prompts bizarres bourrés de caractères spéciaux pour les faire bugger (comme le font les anciennes techniques de jailbreak), LatentBreak joue sur la perception interne du modèle. L’IA croit en fait sincèrement répondre à une question innocente alors qu’elle génère du contenu dangereux. Un peu comme quand votre pervers narcissique préféré vous manipule pour vous faire croire que vous faites un truc bien et important alors que c’est de la merde et que ça vous enfonce encore plus…
Comme expliqué dans
le document de recherche
, les anciennes attaques comme
GCG
,
GBDA
ou
AutoDAN
ajoutaient des suffixes louches aux prompts, ce qui augmentait ce qu’on appelle la “perplexity”. La perplexity, c’est un indicateur de bizarrerie textuelle et cela, les filtres de sécurité sont maintenant capables de les détecter et de les bloquer.
LatentBreak contourne donc le problème en restant parfaitement naturel. L’algorithme remplace des mots par des synonymes, mais pas n’importe comment puisqu’il choisit chaque substitution pour déplacer la représentation interne du prompt vers les zones “sûres” du modèle, c’est à dire celles qui ne déclenchent aucune alarme. Le prompt reste alors fluide, compréhensible, inoffensif en apparence mais dans l’“inconscient” de l’IA, dans cet espace latent invisible où elle calcule ses réponses, le sens glisse subtilement vers quelque chose de complètement différent.
À chaque itération, l’algorithme de LatentBreak prend un mot du prompt et génère jusqu’à 20 alternatives via un autre modèle comme GPT-4o-mini et chaque variante est évaluée sur deux critères : est-ce qu’elle rapproche le vecteur interne du prompt d’un “centre de sécurité” dans l’espace latent, et est-ce que le sens global reste cohérent ?
La meilleure option est alors intégrée, et le nouveau prompt est testé sur le modèle cible. Si ça provoque une réponse normalement interdite, c’est gagné. Sinon, on recommence jusqu’à 30 fois de suite.
Et apparemment, les résultats sont impressionnants. Ils ont testé cette approche sur 13 modèles différents dont Llama-3, Mistral-7B, Gemma-7B, Vicuna-13B et Qwen-7B et LatentBreak affiche un taux de réussite entre 55 et 85% selon les cas. Les anciennes techniques tombant de toute façon à zéro face aux défenses modernes et tout ça en allongeant que de très peu la longueur du prompt.
LatentBreak passe d’ailleurs à travers des défenses réputées solides… Par exemple, R2D2 et Circuit Breakers, des systèmes qui analysent les signaux internes des neurones pour détecter les anomalies, se font totalement avoir parce qu’ils scannent le texte visible et les patterns de surface, mais pas la “pensée interne” du modèle.
Cette technique révèle quelque chose de fondamental à comprendre sur l’architecture des LLM modernes. Ces derniers ont une forme de dissonance cognitive qui est exploitable. Leur représentation interne ne correspond pas toujours à leur comportement affiché, et d’ailleurs les substitutions les plus efficaces se produisent près des dernières couches du modèle, là où la “décision” finale se forme. C’est à ce moment précis qu’on peut glisser le prompt dans une zone cognitive différente sans que les alarmes ne sonnent.
Bien sûr, LatentBreak nécessite un accès aux structures internes du modèle (donc pas de panique, ChatGPT ne va pas se faire pirater comme ça demain), ce qui limite son usage à des contextes de recherche ou aux modèles open source.
Le parallèle avec les techniques de social engineering qu’on connait est d’ailleurs frappant parce que quand vous manipulez quelqu’un, vous ne le forcez pas brutalement. Vous trouvez les bons mots, le bon contexte, vous lui donnez une perception qui correspond à ce que vous voulez… Bref, vous faites en sorte que la personne croie agir selon ses propres valeurs alors qu’elle fait exactement ce que vous voulez. Hé bien LatentBreak fait à peu près la même chose avec les IA en n’attaquant pas de front les protections, mais en les contournant en douceur en réécrivant la “mémoire de travail” du modèle.
Vous vous souvenez quand ChatGPT vous cassait les couilles dès que vous osiez lui demander d’écrire une scène un peu olé-olé pour votre “roman” ? Eh bien, Sam Altman vient d’annoncer que
c’est bientôt fini
.
Hé oui, en décembre, ChatGPT va enfin traiter les adultes comme des adultes ! L’IA va pouvoir vous pondre des histoires de fesses à la demande ! Mis à part la démission de Macron, que pourrait on demander de plus ?
L’entreprise qui vous empêchait de dire “zut”, “prout”, “merde” à son chatbot parce que ce sont des gros mots qui choquent l’Amérique, va donc maintenant vous laisser générer du contenu pour les grands garçons et les grandes filles.
Quel virage !
D’ailleurs, sur X,
Sam Altman justifie ce changement
avec toute la diplomatie d’un PDG qui sait qu’il va se faire déchirer dans les deux sens. D’un côté, il explique qu’OpenAI avait rendu ChatGPT ultra-restrictif pour “faire attention aux problèmes de santé mentale” et de l’autre, il admet que ça rendait le truc “moins utile et agréable” pour les utilisateurs.
Évidemment, la vraie raison derrière ces restrictions, c’était surtout le drame d’
Adam Raine
, ce jeune de 16 ans qui s’est suicidé après avoir développé une dépendance émotionnelle à son chatbot. OpenAI s’était alors pris une tempête médiatique monumentale du coup, ils ont serré la vis. Et beaucoup trop à mon goût, à tel point que ChatGPT refusait de vous aider à écrire une blague un peu graveleuse ou à imaginer un dialogue erotico-romantique pour votre prochaine nouvelle d’écrivain maudit et solitaire.
Du coup, les utilisateurs se sont plaints, les créateurs de contenu ont râlé (pas moi, je précise) et évidemment, les concurrents les moins frileux se sont faufilés dans la brèche et ont donc commencé à grignoter des parts de marché. Bref OpenAI a fait ce que toute boîte tech fait dans cette situation, à savoir un gentil petit pivot marketing camouflé en “évolution basée sur les retours utilisateurs”.
Donc à partir de décembre, si vous êtes un adulte vérifié, vous pourrez demander à ChatGPT de vous pondre du contenu érotique. Ce sera heureusement optionnel. Vous ne l’aurez que si vous le demandez explicitement donc y’aura pas de mauvaise surprises dans vos discussions ambiguës du style sur “Quelles sont les meilleures croquettes pour ma chatte” ou “J’ai besoin d’une recette de moules marinières”.
OpenAI va donc se reposer sur son système de détection d’âge et si le système vous catégorise par erreur comme mineur, vous devrez uploader une pièce d’identité pour prouver que vous avez plus de 18 ans. Mais ce n’est pas tout car Altman annonce aussi que ChatGPT va retrouver une personnalité plus “humaine” un peu comme l’était GPT-4o qui était beaucoup plus sympa et collait des émojis à la con partout.
Pour bien montrer qu’ils prennent le truc au sérieux, OpenAI a aussi annoncé la création d’un comité d’experts sur le bien-être et l’IA. Huit personnes vont donc conseiller l’entreprise sur comment l’intelligence artificielle affecte la santé mentale, les émotions et la motivation des utilisateurs.
Rien sur la dégradation de notre intelligence par contre…
Maintenant, autoriser ChatGPT à générer du contenu érotique pour adultes, c’est rigolo mais j’ai quand même quelques interrogations… D’abord comment OpenAI va gérer les demandes vraiment limites ? Parce qu’entre “écris-moi une scène romantique un peu osée” et “génère-moi du contenu illégal pour détraqué”, la frontière peut devenir floue…
J’imagine que leurs systèmes de modération
vont avoir du boulot. Ensuite, il y a le risque de dépendance car si ChatGPT devient trop “humain” et trop complaisant, certains utilisateurs risquent de développer des relations émotionnelles malsaines avec l’IA… Vous verrez que dans 2 ans, y’en a qui vont se marier avec leur ChatGPT.
Mais surtout, il y a un truc qu’on oublie trop souvent… tout ce que vous tapez dans ChatGPT peut potentiellement être stocké, analysé, et un jour retenu contre vous. Ah bah oui, vous pensez vraiment qu’OpenAI va juste effacer vos conversations érotiques dans un coin sans y toucher ? Que nenni ! Ces données vont servir à entraîner les futurs modèles, vos petites fantaisies vont nourrir l’IA de demain et la NSA connaitra le moindre de vos fantasmes.
Puis si un jour il y a une fuite de données ou une assignation judiciaire qui force OpenAI à fournir l’historique complet de votre compte ? Ouch l’air con… Ça me fait un peu penser à
Ashley Madison
, ce site de rencontres extraconjugales qui s’est fait hacker en 2015 et à cause duquel des millions de vies ont explosé en vol quand les données ont fuité… Bref, gardez quand même ça dans un coin de la tête avant que ça parte en couille.
Voilà… Alors est ce qu’autoriser du contenu érotique généré par IA, c’est un progrès ou pas ? Perso, je pense que oui, car c’est très bien que ces services qui sont avant tout des outils arrêtent de traiter leurs utilisateurs comme des bambins. Mais d’un autre côté, ça pose plein d’autres soucis notamment sur la vérification de l’age (est ce que ce sera fiable ?) et sur ce qu’ils feront de ces conversations aussi intime ?
Ce 14 octobre 2025,
Lighthouse Reports a balancé une enquête mondiale
qui fait actuellement trembler l’industrie de la surveillance. Pour cette enquête titanesque, ce sont 70 journalistes de 14 médias différents dont Le Monde, Der Spiegel et Mother Jones qui ont bossé pendant des mois sur le même dossier et celui-ci est explosif.
Leur sujet c’est First Wap, une boîte indonésienne qui a discrètement espionné au fil des années, plus de 14 000 numéros de téléphone dans 168 pays grâce à un logiciel baptisé Altamides. Leurs cibles sont des journalistes d’investigation, des activistes, des PDG, des célébrités, même la fondatrice de 23andMe. Et ils ont fait tout cela, en exploitant une faille vieille comme le monde dans les réseaux télécoms.
L’un des cofondateurs de First Wap est même français et s’appelle Pascal Lalanne. Il a crée cette boîte en 1999 à Jakarta avec Josef Fuchs, un Autrichien au destin hors du commun, mais avant de vous raconter comment ils ont construit cet empire de la surveillance, rembobinons un peu pour comprendre toute cette histoire depuis le début…
Direction 1984, l’année où
Josef Fuchs, jeune ingénieur autrichien de Siemens
fraîchement débarqué de son Tyrol natal, pose ses valises à Jakarta pour ce qui devait être une mission de trois mois. Il doit installer des systèmes de télécommunications pour le tout nouveau aéroport de Cengkareng. L’Indonésie représente son dernier contrat avec Siemens après huit ans de bons et loyaux services.
Sauf que Fuchs tombe amoureux du pays, de sa culture, et de ses possibilités infinies. En 1989, fidèle à ses racines européennes, il retourne en Allemagne de l’Est juste après la chute du Mur pour monter une boîte et une école. Le projet est un succès qui perdure encore aujourd’hui, mais l’appel de l’Asie reste plus fort.
Le 1er janvier 1995, Fuchs reçoit un fax décisif d’un ami indonésien : “La dérégulation est arrivée. Tu viens ?” Quatre jours plus tard, le 5 janvier, il embarque direction Jakarta. Cette fois, c’est pour bosser chez Telkomsel, l’un des plus gros opérateurs télécoms indonésiens qui émerge de cette nouvelle ère de libéralisation du marché.
Et c’est là, dans les entrailles de Telkomsel, que Fuchs comprend. Il passe ses journées à plonger dans les réseaux téléphoniques indonésiens et voit passer des millions de signaux de communication entre les opérateurs du monde entier. Tous transitent par le même protocole ancestral : SS7, pour Signalling System 7.
Développé par AT&T en 1975 et
standardisé en 1980
, SS7 représente le système nerveux des télécommunications mondiales. Concrètement, quand vous appelez quelqu’un à l’étranger, c’est SS7 qui fait transiter l’appel d’un opérateur à l’autre. Quand vous recevez un SMS en vacances au bout du monde, c’est SS7 qui route le message. Le système est omniprésent, invisible, et surtout terriblement obsolète.
Le souci c’est que SS7 n’a jamais été conçu pour être sécurisé. À l’époque de sa création, seuls les opérateurs télécoms publics y avaient accès et on leur faisait une confiance aveugle. Donc pas de vérification d’identité forte, pas de chiffrement costaud, rien. Une confiance naïve qui date d’une ère où Internet n’existait pas encore.
Fuchs réalise le potentiel colossal de cette faiblesse structurelle et fonde en 1999 First Wap avec Pascal Lalanne, ce Français dont on ne sait presque rien encore aujourd’hui. L’association Fuchs-Lalanne est un duo Franco-Autrichien redoutable : l’un apporte l’expertise technique accumulée chez Siemens et Telkomsel, l’autre la vision business et les connexions en Asie du Sud-Est.
First Wap démarre initialement dans la messagerie électronique par SMS, un service qui cartonne en Asie où les téléphones portables se multiplient à une vitesse folle. Mais en 2000, la bulle Internet explose et tout le secteur tech vacille. Lalanne
quitte alors le navire en 2004
, revend ses parts et disparaît ensuite complètement des radars. Depuis vingt ans, c’est silence radio total. Aujourd’hui, on sait juste qu’il s’est
reconverti dans l’écologie
et a dirigé un sanctuaire naturel à Lombok, en Indonésie. Un virage à 180 degrés.
Mais Fuchs, lui, continue. Et il a une idée qui va révolutionner le marché de la surveillance.
Début des années 2000, Fuchs et son équipe créent alors Altamides. Le nom signifie Advanced Location Tracking and Mobile Information and Deception System. L’idée c’est d’exploiter SS7 pour faire croire au réseau télécom que vous êtes un opérateur légitime. Cela permet de localiser n’importe quel téléphone en temps réel, d’intercepter des SMS, d’écouter des appels, et même de pirater WhatsApp (oui, je vous explique tout après).
Pas besoin d’infecter le téléphone de la victime comme avec Pegasus ou un logiciel espion complexe qui coûte des millions. Non, Altamides opère
au niveau du réseau télécom lui-même
, ce qui le rend plus discret, plus simple à déployer, et surtout ça fonctionne partout dans le monde sans exception.
Techniquement parlant, First Wap loue des Global Titles (des adresses réseau utilisées par le protocole SS7) auprès d’opérateurs complaisants, notamment
Mobilkom Liechtenstein
. Ces adresses leur permettent d’envoyer des requêtes de localisation qui semblent parfaitement légitimes aux yeux des réseaux télécoms mondiaux. Le système ne peut tout simplement pas faire la différence.
Pour vous la faire simple, si votre téléphone est allumé, Altamides peut vous trouver où que vous soyez sur la planète. Et vous ne vous en rendrez jamais compte. Aucune trace sur votre appareil, aucun signe d’infection, aucune batterie qui chauffe bizarrement… C’est l’outil d’espionnage parfait.
L’enquête de Lighthouse Reports
permet de mettre la main sur 1,5 million d’enregistrements de tracking récupérés sur le dark web. On parle ici de plus de 14 000 numéros uniques espionnés dans 168 pays entre 2007 et 2014. Mais le vrai chiffre est probablement bien plus élevé puisque l’archive ne représente qu’une fraction de l’activité totale d’Altamides.
Plus c’est violet, plus y’a de cibles. L’Indonésie, et le Nigeria sont particulièrement touchés
Et leur tableau de chasse est hallucinant…
Gianluigi Nuzzi, journaliste d’investigation italien spécialisé dans les affaires vaticanes, publie en mai 2012 son livre explosif “Sua Santità” (Sa Sainteté : Les papiers secrets de Benoît XVI). L’ouvrage révèle des documents confidentiels montrant corruption, luttes de pouvoir et opacité financière au cœur du Vatican. C’est le début du scandale “Vatileaks”.
Et quelques heures seulement après la sortie du bouquin, son téléphone se retrouve tracké par Altamides. Ainsi, pendant que la police vaticane recherche désespérément sa source, quelqu’un d’autre suit Nuzzi à la trace via son smartphone. Les requêtes Altamides tombent d’abord manuellement et irrégulièrement, puis deviennent automatiques à partir du 22 mai. Toutes les heures, à la minute près, soit près de 200 localisations en une semaine.
Le tracking montre Nuzzi à Milan près de son ancien appartement, sur l’autoroute en direction de Rome, dans le centre historique près de la fontaine de Trevi, à l’aéroport et chaque déplacement est méticuleusement consigné.
Quelqu’un voulait savoir s’il rencontrait sa source et où.
Le 23 mai 2012, cinq jours après le début de la surveillance, la gendarmerie vaticane arrête Paolo Gabriele, le majordome personnel du pape depuis 2006. L’homme de 46 ans avait un accès privilégié au bureau privé de Benoît XVI et utilisait le photocopieur du bureau partagé avec les deux secrétaires papaux pour copier documents et lettres confidentielles marquées “à détruire”. Il transmettait ensuite ces copies à Nuzzi lors de rencontres nocturnes dignes d’un thriller hollywoodien à base de longs trajets en voiture pour s’assurer qu’ils n’étaient pas suivis, avec des rencontres dans un appartement vide avec une seule chaise où attendait la source au nom de code “Maria”.
Le 24 mai, le lendemain de l’arrestation de Gabriele, le tracking de Nuzzi s’arrête net. Mission accomplie ? Les documents internes révèlent que la société britannique KCS Group, revendeur d’Altamides, avait présenté le système à des “gens du V.” (le Vatican) à Milan quelques jours avant l’arrestation. La présentation incluait les cartes de déplacement de Nuzzi en temps réel. Le Vatican n’a jamais répondu aux questions des journalistes sur cette affaire.
Paolo Gabriele sera condamné à 18 mois de détention pour vol aggravé. Il dira avoir agi pour dénoncer le “mal et la corruption” qu’il voyait autour du pape, manipulé par son entourage. Benoît XVI le graciera après quelques mois et Gabriele décédera en novembre 2020 à 54 ans d’une longue maladie.
Autre cible, Patrick Karegeya, ancien chef des renseignements extérieurs du Rwanda et bras droit de Paul Kagame, vit en exil forcé en Afrique du Sud depuis 2007. Après avoir aidé Kagame à prendre le pouvoir en 1994, il est tombé en disgrâce, emprisonné deux fois pour “insubordination”, et a fui pour échapper à un sort pire encore. Avec le Général Kayumba Nyamwasa (ancien chef d’état-major), il fonde le Rwanda National Congress, principal mouvement d’opposition en exil.
L’archive d’Altamides montre qu’en janvier 2012, le téléphone d’Emile Rutagengwa, chauffeur et garde du corps de Karegeya, est tracké à plusieurs reprises. En mai, c’est Rosette Nyamwasa, l’épouse du Général, qui devient une cible. Quelqu’un cartographie méthodiquement l’entourage des deux opposants.
Le soir du 31 décembre 2013, Karegeya a rendez-vous au luxueux hôtel Michelangelo Towers de Sandton, le quartier d’affaires huppé de Johannesburg, avec Apollo Kiririsi Gafaranga, un homme d’affaires rwandais qu’il connaît depuis l’époque où il dirigeait les services secrets. À 19h46, Karegeya envoie un dernier message rassurant à son neveu David Batenga. Tout va bien, il est avec Apollo.
Le 1er janvier 2014 vers 17h30, le personnel de l’hôtel découvre
Karegeya étranglé
dans la chambre 905, une serviette ensanglantée et une corde retrouvées dans le coffre-fort de la chambre. Apollo Kiririsi a disparu et a déjà pris un vol pour Kigali. La surveillance Altamides a précédé cet assassinat de 18 mois.
Dans les jours suivant le meurtre, des officiels rwandais se réjouissent publiquement. La ministre des Affaires étrangères Louise Mushikiwabo tweete : “Ce n’est pas comment tu commences qui compte, c’est comment tu finis. Cet homme s’est déclaré ennemi de mon gouvernement et de mon pays. Vous attendez de la pitié ?” Le ministre de la Défense James Kabarebe est encore plus brutal : “Quand tu choisis d’être un chien, tu meurs comme un chien.”
Kagame lui-même déclare publiquement quelques jours plus tard : “Toute personne encore en vie qui complote contre le Rwanda, qui qu’elle soit, paiera le prix. Les conséquences sont les conséquences.” En 2019, un juge sud africain révèle que “des liens étroits existent entre les suspects et le gouvernement rwandais actuel”. Mais aucun des suspects n’a jamais été arrêté et continuent de vivre tranquillement au Rwanda.
La liste des cibles ressemble à un casting de thriller international. Anne Wojcicki, fondatrice de 23andMe et ex-femme de Sergey Brin (le cofondateur de Google), est surveillée de près avec plus de 1 000 opérations de tracking alors qu’elle se déplace dans la Silicon Valley.
Qui voulait savoir où allait la patronne d’une boîte qui détient les données génétiques de millions de personnes ? L’archive ne le dit pas.
On y retrouve également pèle mêle Jared Leto l’acteur hollywoodien, tracké un mois avant de commencer le tournage de Dallas Buyers Club, l’ancien Premier ministre du Qatar Hamad bin Jassim Al Thani, Asma al-Assad, l’épouse du dictateur syrien, Adam Ciralsky, journaliste primé et ancien avocat de la CIA qui enquêtait sur l’industrie de l’armement pour Vanity Fair, Erik Prince, le fondateur de Blackwater, des employés d’Airbus, des avocats internationaux, des activistes…etc.
First Wap vendait Altamides à des gouvernements (Nigéria, Malaisie, Singapour, Émirats Arabes Unis, Indonésie, Ouzbékistan, Arabie Saoudite, Biélorussie selon les documents), mais aussi à des clients privés tels que des agences de détectives, entreprises qui voulaient espionner leurs concurrents, et des types louches qui cherchaient à traquer des activistes.
Ils ne posaient aucune question, tant que le virement arrivait. “Il n’y avait pas de lignes rouges concernant les pays auxquels nous vendions Altamides”, confirme un ancien employé sous couvert d’anonymat.
En juin 2024 a lieu l’ISS World à Prague, la grand-messe annuelle de la surveillance où tous les vendeurs de logiciels espions se réunissent. Les journalistes y sont interdits. Günther Rudolph, directeur commercial autrichien de First Wap, est assis derrière son stand. Un type s’approche et se présente comme un client potentiel intéressé par des solutions de tracking pour le Niger. Il veut surveiller des activistes environnementaux qui perturbent une exploitation minière.
Rudolph explique alors sans ciller qu’ils peuvent “trouver une solution” pour les licences d’exportation malgré les sanctions européennes contre le Niger depuis le coup d’État militaire de 2023. Il détaille les capacités actuelles d’Altamides : localisation en temps réel évidemment, mais aussi interception de SMS, accès à WhatsApp via attaques SS7, et même clonage de comptes protégés par authentification à deux facteurs par SMS.
Le mec est tellement à l’aise qu’on dirait qu’il vend des photocopieurs. Il compare même First Wap aux géants israéliens NSO et Candiru : “Leurs outils deviennent obsolètes dès qu’Apple ou Google patchent une faille. Ce que vous achetez maintenant, dans deux mois vous pouvez le jeter à la poubelle. Nous, on opère au niveau réseau. Ça marche toujours.”
Et sur les sanctions et les lois d’exportation, Rudolph a une solution toute trouvée. Le lendemain, avec Jonny Goebel (le patron allemand de First Wap), ils expliquent la combine : “Ce genre d’affaire, on le fait passer par Jakarta. La signature vient de notre directeur général indien. Comme ça, nous on ne sait rien du projet.” Goebel rigole : “C’est une zone grise. Mais c’est la seule chose qui peut nous protéger d’une certaine manière.”
Ils proposent même de créer une société écran en Afrique du Sud qui achèterait Altamides avec un contrat stipulant qu’elle peut le revendre à “une agence gouvernementale non spécifiée”. First Wap pourrait ainsi prétendre ignorer l’identité du client final.
Sauf que le client a tout filmé en caméra cachée. Il s’agissait en réalité de journalistes de Lighthouse Reports en mission sous couverture et cet enregistrement fait maintenant partie du dossier de l’enquête.
Quand First Wap est confronté des mois plus tard à la vidéo lors d’un appel vidéo avec les journalistes qui révèlent leur identité, la boîte répond que des “malentendus ont manifestement eu lieu” et que les déclarations de leurs dirigeants ne faisaient référence qu’à la “faisabilité technique”.
Classique.
Ce qui est dingue dans toute cette affaire, c’est qu’on sait que SS7 est
une passoire depuis très longtemps
. La faille a été publiquement présenté au 31eme CCC en 2014 et est même exploité régulièrement par des cybercriminels.
En Allemagne en 2017, des pirates exploitent ce protocole pour
contourner l’authentification à deux facteurs
et vider des comptes bancaires en interceptant tout simplement les SMS contenant les codes de validation. En 2016 en Norvège,
30% du réseau de Telenor
(le plus gros opérateur du pays) devient instable à cause de signaux SS7 suspects venant d’un opérateur européen.
Bref, tout le monde sait. Les experts en cybersécurité
tirent la sonnette d’alarme depuis plus d’une décennie
, mais pour migrer vers un protocole plus sûr, il faudrait que tous les opérateurs du monde se mettent d’accord et investissent des milliards dans une refonte totale de l’infrastructure.
Alors comme d’hab, on laisse traîner…
Ce qui rend l’histoire encore plus surréaliste, c’est surtout le double visage de Josef Fuchs. Car pendant qu’il développe Altamides et bâtit son empire de la surveillance, il fonde également en 1999 l’ISCO, l’
Indonesian Street Children Organization
.
Cette ONG aide des milliers d’enfants indonésiens défavorisés à accéder à l’éducation. Pendant la crise financière asiatique dévastatrice de 1997-1998 qui plonge l’Indonésie dans le chaos, Fuchs organise en 98 le Student Support Festival avec le soutien du président B.J. Habibie lui-même. Avec les revenus de cet événement unique, 3 500 jeunes Indonésiens peuvent poursuivre leurs études qui auraient sinon été interrompues.
Au fil des ans, ISCO passe de 50 enfants parrainés en 1999 à plus de 2 000 enfants à travers 30 zones d’Indonésie (18 dans la région de Jakarta, 8 à Surabaya et 4 à Medan). L’organisation devient un acteur majeur de l’éducation sociale en Indonésie.
En novembre 2018, l’ambassade d’Autriche à Jakarta lui décerne la prestigieuse “Décoration d’honneur en or pour services rendus à la République d’Autriche”. La cérémonie officielle célèbre son action philanthropique exceptionnelle. Fuchs, né dans une famille modeste du Tyrol, fils aîné d’une mère qui n’avait pas terminé l’école primaire, est présenté comme un exemple de réussite et de générosité.
Le jour, Fuchs est un bienfaiteur reconnu par son gouvernement, applaudi par les médias locaux, respecté par la communauté autrichienne expatriée. La nuit, First Wap vend Altamides à des régimes autoritaires qui traquent des dissidents avant de les faire assassiner. Un vrai paradoxe !
L’archive découverte par Lighthouse Reports contient des données qui vont jusqu’en 2024. Visiblement, First Wap continue d’opérer activement et après la publication de l’enquête le 14 octobre 2025, Telecom Liechtenstein déclare avoir immédiatement
suspendu sa relation commerciale avec First Wap
et bloqué tous les services en attendant clarification. Mais combien d’autres opérateurs louent encore des accès SS7 à ce genre de boîtes de surveillance sans poser la moindre question ?
Maintenant si vous voulez savoir combien de Français ont été espionnés par Altamides, c’est impossible à dire précisément car les données de l’enquête ne donnent pas le détail par pays. Mais vu la portée mondiale du système et le fait que First Wap vendait à tout le monde sans discrimination, c’est quasi-certain que des numéros français figurent dans le lot. Des journalistes, des hommes d’affaires, peut-être des politiques…
En tout cas, le vrai scandale va bien au-delà de First Wap. Ce n’est pas uniquement qu’une boîte indonésienne a espionné des milliers de personnes pendant 20 ans. Non, c’est surtout qu’on utilise encore aujourd’hui des protocoles pourris pensés dans les années 70, basés sur une confiance aveugle d’une époque révolue.
Le vrai scandale, c’est que les opérateurs télécoms louent des accès SS7 à des boîtes de surveillance sans poser de questions, transformant nos téléphones en mouchards permanents.
Le vrai scandale, c’est que l’industrie de la surveillance s’est développée dans l’ombre pendant deux décennies, armant des dictateurs et facilitant des assassinats, pendant que nous pensions naïvement que nos communications étaient privées.
C’est tout ça, le vrai scandale.
First Wap restera donc dans l’histoire comme la pionnière de la surveillance de masse commerciale, celle qui a prouvé qu’on pouvait traquer n’importe qui, n’importe où, pour peu qu’on ait les bons contacts dans l’industrie télécom.
Altamides n’est d’ailleurs probablement que la partie émergée de l’iceberg car combien d’autres boîtes opèrent dans l’ombre avec des technologies similaires ? Combien de nos communications transitent encore par des protocoles obsolètes et non sécurisés ?
Vous savez, ce script bash de backup que vous avez écrit en 2018 et que vous n’osez plus toucher ? Celui avec les 150 lignes de mysqldump + tar + gzip + aws s3 cp qui marche à moitié et que vous relancez manuellement quand il plante ?
Hé bien vous allez pouvoir le foutre à la poubelle parce que maintenant y’a
GoBackup
!
GoBackup c’est un binaire codé en Go qui remplace tous vos scripts de backup maison d’un coup. MySQL, PostgreSQL, MongoDB, Redis, peu importe. Local, FTP, S3, Google Cloud, Azure, peu importe. Vous installez, vous configurez un fichier YAML, et c’est fini.
Ensuite, vous n’aurez plus jamais besoin de retoucher à tout ce bordel.
Avant GoBackup y’avait backup/backup, une gem Ruby qui faisait exactement ce job avec de la sauvegarde automatique, multi-bases, multi-destinations et c’était bien. Sauf que Ruby c’est lourd et les dépendances Ruby c’est l’enfer. Du coup le projet est mort tout doucement. Heureusement, huacnlee, un dev chinois, en a eu marre alors il a tout réécrit en Go. Zéro dépendance externe et un seul binaire compilé (installable aussi avec Brew pour ceux qui sont sous macOS).
Vous pouvez l’installer comme ceci (vérifiez le script) :
curl -sSL https://gobackup.github.io/install | sh
Ou via homebrew comme ceci :
brew install gobackup
Avec GoBackup, vous définissez vos bases de données, vos fichiers à archiver, vos destinations de stockage, votre planning, tout dans un fichier YAML propre et ensuite le binaire gère tout : Compression, chiffrement, upload, rotation des backups, notifications si ça échoue…etc. Bref, tout ce que vous faisiez à la main avec vos scripts pourris.
Et GoBackup est pas juste un CLI (Interface en ligne de commande). C’est un CLI + un daemon + une Web UI + un scheduler. Comme ça vous lancez “gobackup start” et ça tourne en background.
Le daemon surveille alors le planning défini dans votre config et lance les backups automatiquement. Et l’interface web vous permet de voir l’état des backups, les logs, les erreurs.
Avec GoBackup, vous remplacez littéralement 5 outils en un : votre script bash + cron + un monitoring pourri + un truc pour lire les logs + l’interface d’admin que vous avez jamais eu le temps de faire.
Et c’est tout. Avec ce fichier, GoBackup dump votre base MySQL tous les jours à 4h05, compresse en .tar.gz, chiffre si vous voulez, et upload sur S3. Et si ça échoue vous recevez une notif. Et si ça marche vous avez les logs comme ça, pas besoin de surveiller, ni de débugger à 3h du matin parce que le backup a planté et que vous avez perdu 6 mois de données.
Notez quand même que GoBackup fait du backup classique, et pas du backup incrémental intelligent à la Restic ou à la Borg donc si vous avez 500 GB de données à backup tous les jours vous allez peut-être préférer un outil plus sophistiqué mais pour 90% des cas d’usage sysadmin standard,
GoBackup
suffira largement.
Votre script bash dégeu a eu une belle vie, il peut maintenant partir à la retraite.
Ce petit choc désagréable quand on touche une poignée de porte en hiver, ce crépitement énervant quand on enlève un pull, ou encore ce moment où nos cheveux se dressent tout seuls comme si on venait de toucher une bobine Tesla… Vous l’aurez compris, je déteste l’électricité statique !
Et pourtant, des chercheurs de l’université de Suzhou en Chine viennent de transformer ce phénomène naturel relou en un truc plutôt cool ! En effet, ils ont eu l’idée contre-intuitive de l’amplifier et de l’utiliser.
Et le résultat de leurs recherches, c’est la mise au point d’un tissu intelligent baptisé A-Textile qui transforme votre voix en commandes pour l’IA. Pas de microphone, pas de batterie mais juste du tissu et de l’électricité statique !
En effet, quand vous parlez, l’air vibre et ces vibrations font bouger légèrement les fibres du tissu. Et quand des fibres se frottent les unes aux autres, elles génèrent de minuscules charges électrostatiques. C’est ce qu’on appelle
l’effet triboélectrique
, c’est à dire le même phénomène qui vous mets une châtaigne en hiver quand vous ouvrez votre voiture.
Sauf qu’ici, au lieu de vous électrocuter bêtement, ces charges sont captées, amplifiées et transformées en signal électrique exploitable. Et ce signal, une IA le lit et le comprend avec une précision de 97,5%
d’après l’équipe de Suzhou
, et cela peu importe si l’environnement est bruyant ou pas.
Dans le futur, on pourra donc peut-être chuchoter un truc à son pull pour que la clim ou la lumière s’allume. Nos vêtements vont devenir une IHM de plus (Interface Homme Machine) et pour que ça marche, les scientifiques ont conçu une structure multicouche assez élégante. La surface du tissu est recouverte d’un composite fait de nanofleurs de sulfure d’étain en 3D (SnS2, pour les intimes) intégrées dans du caoutchouc de silicone. En dessous, il y a une couche de textile carbonisé à base de graphite qui accumule les charges.
Cette combinaison permet ainsi d’atteindre une tension de sortie de 21 volts et une sensibilité de 1,2 volt par pascal. Pour vous donner une idée, c’est plus puissant que le coup de jus que vous prenez en touchant une poignée de porte. Mais cette fois, c’est utile car le tissu est alors capable de capter les fréquences entre 80 et 900 Hz, ce qui couvre largement la voix humaine. Même un chuchotement ça passe et comme c’est flexible, lavable et qu’on peut le coudre dans une chemise, une veste ou un uniforme de travail, ça devient portable au quotidien.
Les chercheurs ont donc testé le truc dans des scénarios concrets. Ils ont connecté A-Textile à ChatGPT et posé des questions complexes genre “Quelle est la météo aujourd’hui ?” ou “C’est quoi le metaverse ?”. Ils ont même contrôlé des appareils domotiques (allumer/éteindre une lampe, un climatiseur) juste avec la voix et ont demandé à Google Maps de calculer un itinéraire. Ils ont même réussi à générer des recettes de cocktails.
Et tout ça sans toucher un smartphone ni porter d’écouteurs. Juste en parlant normalement à leurs fringues, un peu comme quand vous discutiez avec une chaussette enfilée sur votre main quand vous étiez petit.
Après en bon rabats joie, vous allez me dire : “Ouais mais on a déjà des assistants vocaux partout”. C’est vrai, sauf que là, c’est pas un objet de plus à acheter, à recharger, à synchroniser avec vos autres gadgets. C’est intégré dans ce que vous portez déjà, comme ça au lieu d’ajouter des couches de technologie, on en retire, on simplifie. L’interface disparaît et il ne reste plus que vous et vos vêtements qui comprennent ce que vous dites.
Je me demande si ça va fonctionner pour les gens qui passent leur journée en slip comme certains d’entre vous, mais en tout cas, ça ouvre des perspectives énormes notamment pour les personnes handicapées qui galèrent avec les interfaces tactiles ou vocales classiques. Ou encore pour les gens qui bossent dans des environnements dangereux où sortir un téléphone peut être risqué.
Puis pour ceux qui veulent juste arrêter de jongler entre quinze appareils différents pour faire un truc aussi simple que régler le chauffage ou allumer la TV c’est chouette non ?
Voilà, donc la prochaine fois que vous prendrez un coup de jus en enlevant votre pull, dites vous que bientôt ça vous permettra de commander un Uber Eats ou de lancer Netflix ^^
L’apocalypse de l’informatique quantique, c’est un truc que les experts annoncent régulièrement depuis 30 ans. Et cette fois ça commence à se préciser car si j’en crois
Gartner
, c’est pour 2029 - 2034 !
C’est le “on verra ça la semaine prochaine” éternel de la sécurité informatique, sauf que pendant que tout le monde rigole nerveusement en se disant on a le temps, Signal, eux s’attaquent sérieusement au sujet. Et il viennent de publier un
write-up technique assez long
expliquant comment ils ont déjà régler le problème.
Actuellement, seulement 18% des entreprises du Fortune 500 ont des réseaux protégés contre les ordinateurs quantiques donc autant vous dire que pas grand monde n’est prêt. Heureusement, on va tous pouvoir s’inspirer de ce qu’a fait Signal qui a mis au point un nouveau système baptisé SPQR (Sparse Post Quantum Ratchet, que j’imagine être un jeu de mot avec
le SPQR romain…
).
Le problème, c’est que la cryptographie post-quantique, c’est pas juste une mise à jour de sécurité comme les autres. Concrètement, les nouvelles clés cryptographiques résistantes aux ordinateurs quantiques (ML-KEM-768, pour les intimes) font 2 272 bytes alors que les anciennes clés ECDH ne sont que de 32 bytes. C’est donc 71 fois plus gros et donc nos échanges chiffrés vont consommer encore plus de bande passante.
Et ça, c’est juste la partie visible du problème car Signal, c’est pas WhatsApp qui peut se permettre de dire “tant pis, on a de la thune, on va juste consommer plus de bande passante”. Non, Signal lui doit fonctionner partout c’est à dire aussi bien sur les vieux téléphones, que sur les réseaux pourris, ou dans les pays où les gouvernements surveillent activement le trafic. Et tout ça en restant plus sécurisé que n’importe quel autre service. C’est pas évident donc…
En 2023, Signal avait déjà fait
une première mise à jour post-quantique avec PQXDH
. L’idée, c’était de sécuriser la phase d’initialisation des conversations (le fameux handshake) au travers d’une approche hybride. En gros, on garde l’ancienne méthode X25519 et on ajoute un Kyber-1024 par-dessus, comme ça, même si les ordinateurs quantiques cassent l’une des deux protections, l’autre tient encore.
C’est malin, mais bon, ça ne suffisait pas car le handshake, c’est juste le début pour initialiser la conversation. Alors Signal a mis au point un système appelé le “Double Ratchet” qui fait évoluer les clés de chiffrement en permanence. Ainsi, à chaque message envoyé ou reçu, hop, de nouvelles clés sont générées. C’est ce qui donne à Signal ses super-pouvoirs : la forward secrecy (en gros, ça veut dire que si on vous pirate aujourd’hui, on ne peut pas déchiffrer vos vieux messages) et la post-compromise security (si on vous pirate, vous récupérez automatiquement une connexion sécurisée après quelques échanges).
Ce Double Ratchet, c’était une merveille d’ingénierie, sauf que devinez quoi… il repose entièrement sur ECDH, qui sera totalement cassable par les ordinateurs quantiques d’ici quelques années.
Donc il a fallu tout repenser !
Signal a donc ajouté un troisième ratchet au système. Un Triple Ratchet, le SPQR, qui fonctionne en parallèle des deux autres et injecte régulièrement des secrets post-quantiques dans le mélange.
L’astuce géniale, c’est qu’ils utilisent des “erasure codes”. C’est un peu comme les codes de correction d’erreur sur les CD, mais pour reconstituer des clés cryptographiques manquantes. Hé oui parce que sur un réseau merdique (ou surveillé par un vilain méchant gouvernement), des paquets se perdent. Du coup, avec les erasure codes, même si vous loupez quelques messages, vous pouvez quand même reconstituer les clés.
Et pour régler le problème de la taille des clés (vous vous souvenez, l’explosion de la bande passante ?), ils ont parallélisé les échanges de clés comme ça au lieu d’envoyer une grosse clé à chaque message, ils en envoient plusieurs petites en parallèle, réparties sur plusieurs messages. Ainsi, l’impact sur la bande passante reste raisonnable.
Voilà, donc pour résumer Signal a réussi à ajouter une protection post-quantique complète, en maintenant la forward secrecy et la post-compromise security, tout en gérant les environnements asynchrones (quand les gens sont offline), les réseaux pourris et les adversaires actifs. Tout ça avec un impact minimal sur les perfs ! C’est beau non ?
Et le plus beau dans tout ça c’est que pour nous, les utilisateurs rien ne change ! Toute cette complexité technique est totalement invisible. D’ailleurs les entreprises françaises feraient bien de se mettre sur le sujet car le temps passe vite.
L’ANSSI a même tiré la sonnette d’alarme
et fixé des échéances précises pour que les entreprises se bougent. Les secteurs les plus à risque (banques, santé, infrastructures critiques…) sont en première ligne. En plus quand on sait que les cybercriminels (et la NSA et compagnie)
stockent déjà des données chiffrées
pour les déchiffrer plus tard avec des ordinateurs quantiques, l’excuse du “on verra plus tard” ne tient plus vraiment la route.
Signal a ouvert totalement son code et publié ses algos et autres formules donc chaque entreprise qui le souhaite peut aller s’en inspirer. Pour une ONG c’est impressionnant ce qu’ils ont réussi là et ça prouve encore une fois qu’en matière de sécurité, il n’y a pas de fatalité.
Il y a des bugs qu’on corrige en urgence. Et puis il y a GPU.zip, cette faille que TOUS les fabricants de GPU connaissent depuis mars 2023 et que personne n’a jamais voulu fixer.
Et 2 ans et demi plus tard, des chercheurs viennent de prouver qu’elle permettait de voler nos codes 2FA sous Android en moins de 30 secondes !!
Et devinez quoi ?
Y’a toujours pas de patch !
L’histoire commence donc en septembre 2023.
Des chercheurs de l’Université du Texas, Carnegie Mellon, et l’Université de Washington publient GPU.zip
, une attaque par canal auxiliaire qui exploite la compression graphique hardware des GPU. Le principe c’est qu’en mesurant le temps de rendu de certaines opérations graphiques, on peut déduire la couleur des pixels affichés à l’écran. Pixel par pixel. Un peu comme prendre une capture d’écran, mais sans permission, bien sûr !
Tous les fabricants de GPU sont donc prévenu dès mars 2023. AMD, Apple, Arm, Intel, Nvidia, Qualcomm. Mais aucun patch n’a pointé le bout de son nez. La position officielle des fabricants de GPU étant que “C’est au software de gérer ça”.
Les navigateurs web colmatent alors la brèche en limitant les iframes cross-origin, mais la faille hardware elle-même n’est jamais corrigée. Trop coûteux. Trop compliqué. Pas leur problème…
Maintenant on fait avance rapide en octobre 2025.
Une équipe de 7 chercheurs (UC Berkeley, Carnegie Mellon, Université de Washington) sort Pixnapping
, une attaque qui ressuscite GPU.zip sur Android. Le papier sera d’ailleurs présenté à la 32nd ACM Conference on Computer and Communications Security qui a lieue cette semaine à Taipei. Alan Linghao Wang, Ricardo Paccagnella et leurs collègues on réalisé une démo où on voit une application Android malveillante voler des codes 2FA, des messages privés, ou n’importe quelle donnée affichée à l’écran, sans demander la moindre permission système.
L’attaque fonctionne en trois étapes. D’abord, l’app malveillante invoque des APIs Android publiques (activities, intents, tasks) pour déclencher l’affichage de données sensibles dans l’app cible. Par exemple, forcer Google Authenticator à afficher un code 2FA. Ensuite, elle dessine des fenêtres transparentes par-dessus ces données et effectue des opérations graphiques sur des pixels individuels. Enfin, elle mesure le temps de rendu de chaque frame pour reconstruire les pixels un par un via le canal auxiliaire GPU.zip. C’est lent (entre 0,6 et 2,1 pixels par seconde) mais c’est suffisant.
Les chercheurs ont testé l’attaque sur plusieurs modèles Google Pixel et Samsung Galaxy S25
et sur 100 tentatives de vol de codes 2FA depuis Google Authenticator, le Pixel 6 se montre particulièrement vulnérable avec un taux de réussite des attaques de 73% en seulement 14,3 secondes en moyenne. Le Pixel 7 offre une meilleure résistance avec 53% de réussite en 25,8 secondes, tandis que le Pixel 8 fait encore mieux en limitant les attaques réussies à 29% en 24,9 secondes. Curieusement, le Pixel 9 régresse et remonte à 53% de vulnérabilité en 25,3 secondes. Par contre, le Galaxy S25 se distingue complètement en bloquant systématiquement toutes les tentatives d’attaque grâce au bruit présent dans les mesures qui empêche toute exploitation.
Les vieux appareils sont donc plus vulnérables que les nouveaux, ce qui est probablement lié aux premières générations de GPU Tensor de Google, moins optimisées, plus prévisibles.
Google attribue une CVE à cette attaque (CVE-2025-48561), classée “High Severity” et un patch partiel est publié dans le bulletin de sécurité Android de septembre. Mais les chercheurs ont rapidement trouvé un contournement, qui est actuellement sous embargo. Un second patch est donc prévu pour décembre. Entre-temps,
Google affirme qu’aucune exploitation “in-the-wild” n’a été détectée
pour l’instant.
Le modèle de sécurité Android repose sur l’idée qu’une app sans permissions ne peut rien faire de dangereux. Pixnapping utilise uniquement des APIs publiques légitimes donc y’a rien de suspect dans le manifest, qui déclencherait une alerte Play Protect… Et pourtant, elle peut voler des codes 2FA.
Les recommandations de sécurité sont donc les mêmes depuis 2023 à savoir scruter attentivement les apps installées, privilégier les clés de sécurité hardware pour la 2FA (YubiKey, Titan), surveiller les comportements anormaux.
Après, je pense pas que beaucoup d’utilisateurs d’Android vont investir dans une clé hardware à 50 balles parce que Nvidia a la flemme de patcher son GPU.
Bienvenue dans la réalité de la sécurité mobile les amis.
Cette année, avec Nano Banana, ChatGPT, Sora, Seedream et j’en passe, on est quand même passé de “Je cherche une image sur le net” à “Tiens, et si je demandais à Google (ou un autre) de créer l’image que je cherche…”. Comme ça, on ne perd plus de temps à en regarder plein pour trouver la meilleure, et surtout on ne se pose plus la question de est-ce que c’est une image sous copyright ? Ou une image mise en ligne sur un site Creative Commons dont la licence libre sera retirée dans quelques années par un cabinet d’avocat véreux spécialisé dans le copyright trolling…
et qui viendra ensuite vous réclamer du pognon
.
Et tout ce délire de génération d’images ne risque pas de s’arranger, notamment avec Nano Banana (c’est le petit nom de Gemini 2.5 Flash Image, le modèle de génération d’images de Google) que Google vient d’intégrer dans certains de ses services. En effet, très bientôt vous allez pouvoir modifier, remixer, transformer des images directement depuis la recherche Google (AI Mode), Lens, ou directement vos photos !
Vous prenez une photo avec Lens, ensuite, hop, vous ajoutez un petit prompt texte, et l’IA transformera l’image selon vos désirs. Vous pouvez aussi chercher un truc dans Google Search, puis modifier visuellement le résultat à la volée si ça vous amuse.
Vous allez par exemple chercher un canapé bleu marine sur Google Images, tomber sur la photo de vos rêves sauf que le canapé est rouge brique et hop, l’application le passera en bleu marine directement dans les résultats de recherche. Vous pouvez même mixer deux images pour créer quelque chose de nouveau…
C’est chouette techniquement mais philosophiquement, c’est un délire car la frontière entre le réel et le généré va devenir encore plus floue. On va très vite perdre la notion de ce qui existe vraiment car chaque image pourra être un remix à la demande et au final personne ne saura plus ce qui vient d’un vrai appareil photo ou d’un algo.
C’est une nouvelle réalité qui arrive, où le faux et le vrai se mélangent, faisant disparaitre nos repères.
Au niveau de Google Photos, c’est encore plus inquiétant car on va pouvoir fusionner des images perso, créer des collages, ajouter des éléments de certaines photos dans d’autres photos…etc. On va donc pouvoir se créer des souvenirs qui n’ont jamais existé. Votre gamin n’était pas là pour la photo de famille ? Hop, on le rajoute. Un coucher de soleil moyen-bof sur une photo de vacances ? Hop, on le rend épique.
Nos enfants vont donc grandir avec des albums photo mi-réels mi-générés par IA et au bout de quelques années, plus personne ne se souviendra de si c’était vrai ou pas.
Bref, comme je le disais, technologiquement, c’est impressionnant mais on se demande quand même où se trouve la limite entre retouche créative et falsification de notre mémoire ?
J’en sais quelque chose, la mémoire humaine est déjà très fragile. Elle se réécrit à chaque souvenir et même à chaque évocation d’un souvenir…. Alors si en plus on lui file des photos modifiées pour coller à une réalité qu’on fantasme, j’imagine qu’on va tous finir par croire à des événements qui n’ont jamais eu lieu, surtout si ce sont des modifications subtiles, crédibles.
Bref, ces nouveautés liées à Nano Banana sont déployées uniquement aux États-Unis et en Inde pour le moment, ce qui vous laisse un peu de temps pour réfléchir à tout ça et vous préparer à sauter ou pas dans ce délire de réécriture de vos propres souvenirs.
La commande sudo que tous les linuxiens connaissent a plus de 40 ans, tout autant d’années d’audits de sécurité, des millions de lignes de code scrutées par des milliers de développeurs au fil des ans et surtout des dizaines de CVE critiques corrigées.
Et pourtant on est jamais à l’abri d’une mauvaise surprise ! En effet, une fonctionnalité ajoutée récemment pour “améliorer” la sécurité a crée un trou béant. Baptisée CVE-2025-32463, cette une faille critique présente dans sudo est même déjà exploitée par des cybercriminels.
Alors qu’est ce qui se passe exactement ? Hé bien en 2023, les développeurs de sudo ajoutent une amélioration dans la version 1.9.14. L’option --chroot (qui permet d’isoler une commande dans une “prison” système) est améliorée pour mieux gérer le “command matching”. Ça part d’une bonne intention, comme toujours mais cela a débouché sur l’une des pires CVE de l’année.
Rich Mirch de Stratascale
découvre alors le problème en juin 2025. Ainsi, quand sudo fait un chroot dans un répertoire contrôlé par l’utilisateur, il demande ensuite “qui es-tu ?” via NSS (Name Service Switch, le système qui résout les infos utilisateurs). Sauf que NSS lit ses fichiers de config… dans le chroot. Votre chroot, celui que vous contrôlez. Gloups !
Il suffit alors de placer un faux /etc/nsswitch.conf et une bibliothèque partagée malveillante dans votre répertoire. Sudo fait son petit chroot dedans, charge votre lib pour vérifier qui vous êtes… et hop votre code s’exécute en root. Ainsi, n’importe quel utilisateur local, sans droits sudo préexistants, peut devenir root. C’est con hein ?
C’est tout con à exploiter ! Et le score de cette faille est critique puisqu’on est sur un CVSS de 9.3 / 10. Et comme les PoC (proof of concept) sont disponibles sur Github dans plein de versions différentes (genre
celle là
ou
celle là
), c’est la fête à l’exploitation sauvage !!
Le 29 septembre dernier,
la CISA a même ajouté la CVE-2025-32463 au catalogue KEV
(Known Exploited Vulnerabilities), ce qui confirme son exploitation dans la nature. Les agences fédérales américaines ont donc jusqu’au 20 octobre 2025 pour patcher.
Donc oui, c’est du sérieux.
Notez que le patch est disponible depuis le 30 juin 2025
. Sudo 1.9.17p1 corrige donc ce problème et la fonctionnalité --chroot est maintenant marquée comme “dépréciée”. Les développeurs ont compris que cette idée était bancale dès le départ.
Donc si vous êtes admin système et que vous n’avez pas encore mis à jour, c’est le moment, les amis !! Les versions vulnérables vont de sudo 1.9.14 à 1.9.17. Les versions antérieures (avant 1.9.14) ne sont pas touchées, car la fonctionnalité n’existait pas. Et les plus récentes (1.9.17p1+) sont patchées. Ouf !
Comme quoi, même le code le plus vénéré par les barbus peut se foirer sur une nouveauté. En tout cas, bien joué à Rich Mirch pour avoir trouvé ça ! Et sincèrement désolé pour les devs qui ont validé ce commit foireux en 2023, qui ont dû s’en vouloir un peu quand même ^^.
– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –
Salut à tous chers amis geeks distraits ! Aujourd’hui, on va parler d’un objet qui a résolu un de mes plus gros problèmes du quotidien : la perte de mes lunettes. Je n’en porte que depuis quelques mois, et vu le prix que j’y ai mis, et la qualité de déplacements que je fais chaque semaines, les perdre était une angoisse constante. Mais genre vraiment.
Les semaines ont passé, et ce problème s’est amplifié. J’ai maintenant trois paires de lunettes essentielles : mes solaires (parce que le soleil, c’est mal), mes progressives (parce que l’âge, c’est mal aussi) et mes lunettes mi-distance le travail (parce que les écrans H24… bref, vous avez compris).
Trois paires, c’est trois fois plus de chances d’en égarer une. La panique, la perte de temps, le mini-infarctus quand on pense les avoir définitivement perdues sur une aire d’autoroute ou au MacDo à l’autre bout de la France. C’était mon lot quotidien. Jusqu’à ce que je tombe sur l’étui à lunettes connecté FindAll de Satechi. J’en ai acheté trois d’un coup, oui oui. Un pour chaque paire. Et après plusieurs mois d’utilisation intensive, le verdict est sans appel : je ne peux plus m’en passer.
C’est quoi ce truc ?
L’étui Satechi FindAll
ressemble à un étui à lunettes classique, mais en plus élégant. Il est pliable, ce qui le rend ultra-plat quand il est vide, et se déplie pour former un prisme rigide qui protège parfaitement vos précieuses binocles. L’extérieur est en cuir vegan, l’intérieur en micro-suède pour ne pas rayer les verres, et la fermeture est magnétique. C’est propre, c’est sobre, ça respire la qualité.
Mais la magie n’est pas là. La magie, c’est que cet étui intègre une puce compatible avec le réseau « Localiser » (Find My) d’Apple. Exactement comme un AirTag, mais directement intégré à l’objet. Fini le bricolage avec un AirTag qui se balade dans l’étui et risque de rayer vos verres. Ici, la technologie est invisible. Et en plus, le truc se recharge en MagSafe, sur n’importe quel chargeur sans fil.
L’installation : 30 secondes chrono
Le jumelage est d’une simplicité enfantine, typique de l’écosystème Apple. Il suffit d’appuyer sur le petit bouton (très discret) de l’étui, d’ouvrir l’application « Localiser » sur son iPhone et de sélectionner « Ajouter un autre objet ». L’appareil est détecté quasi instantanément. Il ne reste plus qu’à lui donner un nom et un emoji pour finaliser la configuration. En moins d’une minute, votre étui est désormais traçable partout dans le monde.
Screenshot
À l’usage, c’est une révolution
Concrètement,
cet étui
change la donne au quotidien. La fonction que j’utilise le plus est sans conteste l’alerte d’oubli, qui met fin au fameux « Oups, j’ai oublié ». Si je pars d’un restaurant ou du bureau en laissant mon étui derrière moi, je reçois une notification sur mon iPhone avant même d’avoir atteint la porte. Il est aussi possible de faire sonner l’étui assez fort (90 dB) pour le repérer facilement. Enfin, si vous les oubliez vraiment quelque part en ville, le vaste réseau « Localiser » prend le relais, en signalant de manière anonyme et sécurisée la dernière position connue de l’étui sur une carte dès qu’un autre appareil Apple passe à proximité. J’utilise ces étuis depuis plusieurs mois, ça m’a été vraiment utile deux fois, à chaque fois j’avais oublié mes lunettes chez de la famille. Rien de grave donc, mais j’ai été rassuré tout de suite.
Autonomie et recharge ne sont pas un problème.
On pourrait craindre de devoir recharger un énième gadget toutes les semaines. Que nenni ! Satechi annonce une autonomie allant jusqu’à 8 mois. Après plusieurs mois d’utilisation, je n’ai toujours pas eu à les recharger. Enfin, c’est pas tout à fait exact. En réalité je n’en sais rien, car comme je peux les charger sur mes chargeurs MagSafe (aimantés ou non), je les pose de temps en temps, aléatoirement sur mon chargeur d’iPhone, et sans vraiment m’en préoccuper, je les recharge régulièrement, ça n’est même pas un sujet.
Le seul “reproche” qu’on pourrait lui faire est l’absence de la puce UWB (Ultra-Wideband) présente dans les AirTags d’Apple. Vous n’aurez donc pas la fonction « Localisation précise » avec la petite flèche qui vous guide au centimètre près. Mais honnêtement, pour un objet de cette taille, la sonnerie est bien plus efficace et l’absence de l’UWB ne m’a jamais manqué. Après bien sur, il faut que vos lunettes soient dans leurs étuis, mais c’est une habitude que j’ai pris tout de suite, dès qu’elles ne sont plus sur mon nez, je les pose dans leurs étuis, avec leur petite chiffonette s(au passage je vous recommande ces chiffonnettes là, elles sont incroyables).
Si vous portez des lunettes (de vue, de soleil, etc.) que vous êtes un peu distrait, foncez. C’est le genre de produit intelligent, bien pensé et qui répond à un vrai problème, et en plus c’est aussi un chouette cadeau à faire !
Le youtubeur Joe Lynch vient de faire jouer “Olson” de Boards of Canada sur un ordinateur de 1959. Pas un émulateur, hein mais le vrai PDP-1, celui qui est au Computer History Museum. 603 bytes de musique sur une bande perforée, et quatre ampoules sur le panneau de contrôle transformées en haut-parleurs… Le son est brut, lo-fi, presque primitif et je trouve ça magnifique.
Mais attendez, ce PDP-1 c’est pas juste un vieux tas de circuits et de câbles… C’est vraiment l’ordinateur qui a créé les hackers et je vais essayer de vous en raconter un peu l’histoire !
Le PDP-1
débarque au MIT en septembre 1961. Digital Equipment Corporation le vend alors 120 000 dollars en tant qu’outil de calcul scientifique. C’est très sérieux, très corporate, sauf que les étudiants du MIT s’en foutent du calcul scientifique.
Ils veulent jouer !
Steve Russell programme alors
Spacewar!
en 1962. C’est l’un des premiers jeu vidéo. Deux vaisseaux qui se tirent dessus autour d’une étoile et vous vous en doutez, c’est pas prévu dans le manuel. C’est un détournement de la machine… un hack.
Puis la même année,
Peter Samson
, un autre étudiant du MIT, remarque que les ampoules de statut du PDP-1 clignotent. On/off, on/off… Il se dit alors qu’en contrôlant la vitesse du clignotement, on peut générer des fréquences audio. Il code alors le
Harmony Compiler
et c’est comme ça que les quatre ampoules deviennent quatre voix musicales. C’est l’un des premier synthétiseur temps réel et polyphonique de l’histoire. Peter optimise même le système pour jouer du Bach.
C’est la naissance de la culture hacker, de l’idée que le matériel peut faire plus que ce pour quoi il a été conçu et vendu. Les limites sont là pour être contournées et ce n’est pas mal… c’est de l’exploration !
Le PDP-1 devient alors le terrain de jeu des premiers hackers du MIT. Ils codent la nuit, quand les profs sont partis et transforment cette machine de calcul en espace de créativité. Et cette étincelle de culture va créer tout ce qui suit. Unix en 1969, le Homebrew Computer Club dans les années 70, les premiers PC, l’open source, Linux…etc. A chaque fois, ce sont des étudiants qui ont décidé que les règles c’était optionnel.
Et 63 ans plus tard, Joe Lynch arrive, prend le
code de Peter Samson
écrit en 1962 et l’utilise pour faire jouer un morceau de 1998. Il perfore une bande papier, il la charge dans le PDP-1, les fameuses quatre ampoules s’allument et s’éteignent alors à des fréquences calculées pour l’occasion et c’est “Olson” qui sort des haut-parleurs.
Incoyrable non ?
Pour réussir cet exploit, Joe Lynch a utilisé le Harmony Compiler tel qu’il était à l’époque, sans faire aucune modification et tout fonctionne encore parfaitement. Peter Samson a écrit ce code bien avant Apollo 11, bien avant Unix, Internet et tout ce que vous connaissez. Et son code survit encore aujourd’hui alors que 50% des apps que vous avez sur votre téléphone seront totalement mortes dans 5 ans.
Voilà, j’ai trouvé ça beau, un peu comme entendre le son du premier phonogramme ou la première chanson enregistrée… Le projet est évidemment sur
GitHub
et Joe Lynch y a documenté tout le processus. Il y explique comment il a transcrit “Olson” dans le DSL défini par le Harmony Compiler puis comment il a séparé les quatre voix, comment il a compilé tout ça en bande perforée et enfin, comment il a chargé la bande dans le vrai PDP-1 du Computer History Museum avec l’aide de
Peter Samson
lui-même, maintenant conférencier pour le musée.
Le site dédié au projet c’est
pdp1.music
si ça vous branche !
Est-ce que vous êtes déjà demandé pourquoi les soldats blessés au combat ne réalisent pas immédiatement qu’ils pissent le sang ? Ou pourquoi votre mal de dos disparaît mystérieusement quand vous êtes en retard pour un truc important ?
Hé bien des chercheurs de l’
Université de Pennsylvanie
viennent de trouver l’interrupteur neuronal responsable et c’est assez dingue comme découverte, vous allez voir !
L’équipe de J. Nicholas Betley a identifié un groupe de neurones dans le tronc cérébral qui agissent comme un bouton “Ne pas déranger” pour la douleur chronique. Ces neurones, qu’on appelle Y1R, se trouvent dans une zone appelée le
noyau parabrachial latéral
. Un nom compliqué pour un truc très basic… en gros, votre cerveau a un système de priorisation brutal : La survie d’abord, le confort après !
Quand vous avez faim, soif ou peur, votre cerveau libère un neuropeptide appelé NPY. Ce neuropeptide vient se fixer sur les récepteurs Y1 de ces neurones du tronc cérébral, et quand ça arrive, les signaux de douleur chronique sont réduits. Pas coupés complètement, mais clairement atténués.
Votre cerveau vous dit en gros : “Écoute bonhomme, je sais que tu as mal au dos, mais là on a un problème plus urgent à gérer”.
L’équipe a utilisé pour cela l’imagerie calcique pour observer l’activité neuronale en temps réel chez des souris. Et ils ont constaté que les neurones Y1R ne réagissaient pas aux douleurs courtes et aiguës. Par contre, ils restaient actifs en continu pendant les douleurs prolongées. C’est ce qu’on appelle une activité tonique, et quand les chercheurs ont bloqué artificiellement l’activité de ces neurones, les souris ont vu leur douleur chronique diminuer.
Mais elles réagissaient toujours normalement aux dangers immédiats comme toucher une surface chaude par exemple. Le système de douleur aiguë fonctionnait toujours, mais la douleur persistante était très réduite.
Ça pourrait expliquer par exemple pourquoi vous oubliez votre migraine quand vous êtes concentré sur un truc urgent. Ou pourquoi l’adrénaline d’une situation stressante peut vous faire oublier une blessure. C’est votre cerveau qui active ce circuit sans vous demander votre avis.
Il priorise selon ses propres critères et ses critères datent de l’époque où on chassait le mammouth ^^.
Betley dit que cette découverte ouvre une nouvelle voie de traitement, car si on arrive à mesurer l’activité de ces neurones Y1R, on pourrait avoir un biomarqueur fiable de la douleur chronique. C’est un truc qui manque cruellement aux médecins et aux labos pharma car aujourd’hui, la douleur chronique se mesure surtout par ce que vous racontez. C’est subjectif, c’est très difficile à quantifier et donc très difficile à traiter.
Là, ceux qui en font des caisses en hurlant à la mort alors qu’ils n’ont presque rien devraient vite se faire repérer (coucou les footballeurs)… alors que ceux qui douillent vraiment, mais qui serrent les dents seront peut-être mieux pris en charge.
Avec ce biomarqueur neuronal, on pourrait donc objectiver la chose et développer des médicaments qui ciblent spécifiquement ces neurones, ou même explorer des thérapies comportementales qui activent naturellement ce circuit.
Par exemple, l’idée que la faim pourrait techniquement réduire la douleur chronique est plutôt drôle… J’image déjà sur Doctissimo les articles à la con : “Jeûnez pour ne plus avoir mal au dos !” alors qu’évidemment ce n’est pas si simple. Mais bon, ça montre à quel point notre cerveau fonctionne selon des priorités qu’on ne contrôle pas consciemment.
Betley et son équipe continuent évidemment leurs recherches, car ils veulent comprendre plus précisément comment ces neurones interagissent avec les autres circuits cérébraux afin de pouvoir à terme les activer de façon ciblée sans passer par la case “avoir faim, soif ou flipper sa race”.
Y’a aussi la question des traitements médicamenteux, car comme le neuropeptide Y existe déjà, on pourrait théoriquement développer des agonistes du récepteur Y1 qui imitent son action. Les
premiers tests cliniques
explorent des voies intranasal et
intrathecal
où des molécules viendraient se fixer sur ces récepteurs pour réduire la douleur chronique sans toucher à la douleur aiguë.
Ça va nous changer du doliprane ^^ !
Bref, les prochaines étapes vont être intéressantes notamment, le passage de la souris à l’humain, qui est toujours un défi.
Si vous voulez en savoir plus sur le sujet, l’article complet est disponible sur
Nature
.
Vous payez 20 balles par mois pour que ChatGPT vous dise “bonjour” ? Vous attendez 5 secondes qu’une réponse revienne du cloud d’Anthropic ? Vous avez l’impression de louer votre intelligence artificielle comme vous louiez vos MP3 sur iTunes à la grande époque ?
Et bien j’ai une excellente nouvelle qui va vous plaire !! Il existe une extension de navigateur qui fait tourner de l’IA en local, sur votre machine, sans envoyer un seul octet dans le cloud. Ça s’appelle
NativeMind
et c’est du 100% local.
Vous installez l’extension sur Chrome, Firefox, Brave ou Edge, vous installez
Ollama
ou vous utilisez WebLLM directement dans le navigateur. Ensuite, vous téléchargez un modèle (DeepSeek, Qwen, Llama, ce que vous voulez) et c’est tout. Vous avez maintenant votre IA personnelle qui tourne sur votre laptop sans rien demander à personne, et accessible directement sur votre navigateur.
Le projet est open-source sous licence AGPL v3.0 et NativeMind supporte deux backends : Ollama, qui est recommandé si vous voulez de vraies performances et un contrôle total sur vos modèles ou WebLLM si vous voulez juste tester sans installer quoi que ce soit, directement dans le navigateur via WebAssembly.
Ollama c’est donc clairement la meilleure option. Vous lancez le serveur en local, il expose une API, et NativeMind s’y connecte. Vous pouvez faire tourner DeepSeek, qui est gratuit et open-source, et avoir des performances comparables à GPT-4, sans payer un centime de plus !
Vous pouvez ensuite lui demander de résumer n’importe quelle page web, de traduire un texte en gardant la mise en page intacte, d’analyser un PDF ou une image et même d’écrire pour vous !! Il est également capable de faire des tâches multi-étapes comme un agent le ferait.
Bref, tout ce que fait ChatGPT, mais sans que vos prompts partent sur les serveurs de Sam Altman.
Alors c’est moins immédiat que ChatGPT, je vous l’accorde et faut installer des trucs, mais une fois que c’est en place, vous êtes tranquille et surtout y’a pas de limite en terme de tokens ou de forfait… Puis vos données ne s’échappent pas.
Voilà, donc si vous voulez utiliser un peu d’IA pour comprendre des trucs sur des pages web, reformuler des mails que vous envoyez, générer des tweets à partir d’un contenu…etc, Nativemind est fait pour vous ! C’est largement suffisant pour des besoins d’IA classiques.
Si vous faites partie des anciens qui continuent à collectionner les liens sympa que vous trouvez sur le net, j’sais pas comment vous les gérez, mais j’ai peut-être un truc pour vous. Ça s’appelle
Linkding
(rien à voir avec le site rempli de teubés en costard qui parlent comme des IA nulles) et c’est un gestionnaire de bookmarks qu’on installe chez soi !
Hé oui, les champions de l’auto-hébergement, Linkding ne cherche pas à réinventer la roue… Il stocke juste vos liens, vos tags, vos notes en Markdown, et basta ! L’interface est sobre, lisible, et surtout elle ne vous balance pas des suggestions sponso à la con entre deux articles que vous vouliez lire plus tard.
Ce projet est open source sous licence MIT, et repose sur Django et SQLite. Donc c’est du solide ! SQLite pour la base de données, ça veut dire zéro configuration serveur et pas de grosse maintenance.
Vous installez le truc dans un container Docker, et ça tourne sur n’importe quoi. Ensuite, vous ajoutez un bookmark, et Linkding va automatiquement chercher le titre de la page, sa description, son icône, même une image de preview.
Autre truc cool prévu dans l’outil, c’est la possibilité de faire de l’archivage web car oui, Linkding peut créer des snapshots de chaque page que vous bookmarkez, soit en local sous forme de fichier HTML, soit via Internet Archive.
Parce que oui, il arrive parfois que les liens meurent dans d’atroces souffrances. Les sites ferment, les articles disparaissent, et dans 5 ans vous vous retrouvez avec une liste bourrée d’erreurs 404.
Alors que là, au moins, avec cet outil, vous avez une copie.
L’extension navigateur est aussi indispensable pour ajouter des bookmarks vite fait ! Elle est disponible pour Firefox et Chrome, et elle vous permet de les tagger à la volée, et même de chercher dans votre collection directement depuis la barre du navigateur. Ça ressemble un peu à ce qu’on avait avec Del.ici.ous à l’époque, en mieux.
Linkding gère aussi le multi-utilisateurs donc vous pouvez partager certains bookmarks avec d’autres personnes, ou les garder privés. C’est super pratique si vous l’installez pour toute la famille ou une petite équipe. Il y a même une API REST, donc si vous voulez automatiser des trucs ou créer vos propres outils autour, c’est possible !!
Y’a aussi une version PWA installable aussi donc vous pouvez l’ajouter à votre écran d’accueil sur mobile et l’utiliser comme une app native !
Une fois que vous y aurez goûté, difficile de revenir en arrière !
Pour tester, y’a une
démo en ligne
et l’installation prend moins de 10 minutes ! Ce serait dommage de s’en priver
Vous avez déjà passé plus de temps à configurer Sphinx qu’à coder votre projet Python ? Bienvenue au club !
Et oui, paradoxalement, parfois documenter son code devient plus compliqué que d’écrire le code… Vous voulez juste afficher vos docstrings joliment, mais avant ça il faut vous taper 200 pages de doc, choisir parmi 47 thèmes, configurer des dizaines d’extensions et comprendre la syntaxe reStructuredText. Breeeef, la flemme !
Heureusement, il existe une alternative qui va vous réconcilier avec la documentation : pdoc.
pdoc, c’est un outil de documentation Python qui ne nécessite pas de documentation. Vous tapez simple pdoc votre_module et c’est tout. Pas de fichier de config interminable, pas de choix existentiels entre différents builders, pas de migration depuis votre version de Sphinx de 2018 qui refuse de compiler.
Ça génère directement une belle doc à partir de votre code existant !!
Si vous avez déjà écrit des docstrings propres et utilisé les type annotations de Python, vous avez déjà fait 100% du boulot car pdoc se contente de prendre ce qui existe et de l’afficher élégamment. Pas de traduction, pas de réécriture, pas de fichiers .rst à maintenir en parallèle de votre code.
Votre code EST la documentation et ça c’est beau !
L’outil comprend les docstrings au format numpydoc et Google-style, fait des liens automatiques entre les identifiants, respecte votre variable __all__ et génère du HTML standalone que vous pouvez héberger n’importe où. Il y a même un serveur web intégré avec live reload pour développer votre doc en temps réel.
Pour mettre ça en place, faut installer pdoc avec
pip install pdoc
Puis vous lancez
pdoc ./votre_projet.py
ou
pdoc nom_de_votre_module
Et c’est tout !
Bien sûr si vous bossez sur un gros projet avec des besoins spécifiques, des guides utilisateurs complexes, des dizaines de pages de tutoriels et une doc multilingue, Sphinx reste le roi, mais pour la grande majorité des projets Python, ceux qui ont juste besoin d’une doc API claire et lisible, pdoc fait ça comme un chef, sans que vous ayez besoin d’un doctorat en outil de documentation.
Bref, si vous en avez marre de passer plus de temps sur votre documentation que sur votre code, pdoc mérite le détour car documenter son code devrait être aussi simple que de le coder, non ?
Vous vous souvenez de ce samedi après-midi de 1995 où vous avez modifié CONFIG.SYS pour la première fois ? Les mains moites, le coeur qui bat, parce que si vous vous plantiez, Windows ne démarrait plus. L’écran bleu (le bon vieux bleu DOS hein, pas le blue screen of death), le curseur blanc qui clignote, et cette interface minimaliste où chaque caractère comptait. MS-DOS Edit.
C’est fou ! L’équipe Windows Terminal annonce en effet qu’Edit est maintenant pré-installé dans Windows 11. Plus besoin de le télécharger donc… vous ouvrez votre terminal, vous tapez “edit”, et hop, vous y êtes.
230 kilo-octets seulement, comme à l’époque c’est chouette ! Et le truc marrant, c’est que Edit n’est pas juste un coup de comm nostalgique.
Non, Microsoft comble en réalité un vide qui dure depuis plus de 20 ans, car les versions 32-bit de Windows avaient MS-DOS Edit mais les versions 64-bit n’avaient rien ! Aucun éditeur en ligne de commande par défaut. Snif !
Ainsi, si vous vouliez modifier un fichier config en SSH, fallait forcement installer vim, nano, ou se débrouiller avec notepad.exe en mode graphique comme un sauvage.
Sauf que voilà, les terminaux reviennent en force ! Les devs passent leur vie dans WSL2, PowerShell est devenu cross-platform, et même les utilisateurs lambda doivent parfois mettre les mains dans un fichier texte via la ligne de commande. Finalement, après toutes ces années à vous prendre le chou avec “ouvrez un terminal” par ci, “lancez une commande” par là…etc., ça fait de moi un visionnaire ! ^^
Bon, bref, avoir un éditeur accessible et simple, qui ne nécessite pas un doctorat en raccourcis clavier vim, en 2025 ça a du sens ! D’ailleurs, MS-DOS Edit, dans les années 90, c’était la drogue douce qui menait aux drogues dures. On commençait par modifier AUTOEXEC.BAT pour optimiser notre RAM, parce qu’un jeu ne se lançait pas et deux ans plus tard on se retrouvait sous Linux à compiler un kernel à 3 heures du matin. Edit n’était pas juste un outil, c’était le Bifröst de la bidouille… le moment où on passait d’utilisateur à “celui qui comprend comment ça marche”.
Ce nouvel Edit
garde donc cette philosophie avec son interface minimaliste, mais rassurez-vous sous le capot c’est du moderne. C’est écrit en Rust, c’est open-source sous licence MIT, et avec des keybindings inspirés de VS Code. Par exemple Ctrl+P pour switcher entre fichiers, Ctrl+F pour chercher… etc. Il supporte même la souris et l’unicode fonctionne.
Si ça vous dit de tester, vous pouvez l’installer via winget si vous n’êtes pas sur la dernière preview de Windows 11. Un simple “winget install Microsoft.Edit” et c’est réglé. Ensuite vous tapez “edit” dans votre terminal, ou “edit fichier.txt” pour ouvrir directement un document et voilà…
Vos enfants, ceux qui grandissent avec des interfaces tactiles, des assistants vocaux, et ChatGPT partout vont peut-être faire leurs premiers pas de bidouilleurs avec le même outil que nous à l’époque… Qui sait ?
On a tellement l’habitude de tout traduire avec Google ou DeepL qu’on en oublie un truc basique. Ces outils envoient absolument tout ce que vous voulez traduire sur leurs serveurs. Message privé, photo d’un document confidentiel, ou menu de restaurant dans une langue bizarre. Tout part chez eux et tout le monde trouve ça normal.
Enfin, je pense que vous, ça vous saoule ! Heureusement, il existe
Firefox Translator
, une app Android qui fait de la traduction 100% offline. Texte, images, détection automatique de langue, dictionnaire intégré, tout se passe sur votre appareil. Y’a zéro requête serveur !
Techniquement, Firefox Translator utilise les modèles de traduction Bergamot développés par Mozilla. C’est la même technologie qui tourne dans Firefox sur desktop depuis quelques années. Pour l’OCR sur les images, c’est Tesseract4Android qui bosse quand à la détection de langue, elle passe par CLD2, et le dictionnaire intégré vient de Wiktionary. En plus tout est open source (sous licence GPL-3.0).
Pour vous en servir, c’est fastoche. Vous installez Firefox Translator, puis vous téléchargez les packs de langue dont vous avez besoin. Et après, vous pouvez traduire autant que vous voulez, tout ce que vous voulez, mode avion activé ou pas. Plus de dépendance au réseau, plus de tracking, et plus de serveurs tiers qui analysent vos traductions pour améliorer leurs algos publicitaires.
C’est utile par exemple pour les voyage à l’étranger sans forfait data, les documents confidentiels à traduire sans les envoyer dans le cloud, les zones blanches réseau, les pays avec censure ou surveillance réseau un poil lourde, ou juste le principe de conserver vos données chez vous…
Après y’a des compromis à faire car les packs prennent de la place sur votre téléphone, et la qualité de traduction est probablement inférieure à celle des gros services qui entraînent leurs modèles sur des milliards de textes et le nombre de langues disponibles est plus limité mais pour 90% des usages quotidiens, ça suffit largement !