Très controversés, les sites de prédiction de l'actualité Kalshi et Polymarket seront bientôt mis en avant par Google, qui se servira des paris des internautes pour donner des probabilités sur l'actualité. De quoi donner encore plus de crédibilité à des plateformes encore très décriées il y a un an.
Et si on pouvait pirater une IA non pas en la forçant, mais en la convainquant qu’elle est toujours du bon côté de la barrière ?? Ce serait pas un truc fun à faire ça quand même ? Hé bien c’est exactement ce que vient de faire une équipe de chercheurs en sécurité avec LatentBreak, une technique qui ressemble plus, je trouve, à de l’hypnose qu’à du véritable hacking.
Ainsi, plutôt que de bombarder ChatGPT ou Llama avec des prompts bizarres bourrés de caractères spéciaux pour les faire bugger (comme le font les anciennes techniques de jailbreak), LatentBreak joue sur la perception interne du modèle. L’IA croit en fait sincèrement répondre à une question innocente alors qu’elle génère du contenu dangereux. Un peu comme quand votre pervers narcissique préféré vous manipule pour vous faire croire que vous faites un truc bien et important alors que c’est de la merde et que ça vous enfonce encore plus…
Comme expliqué dans
le document de recherche
, les anciennes attaques comme
GCG
,
GBDA
ou
AutoDAN
ajoutaient des suffixes louches aux prompts, ce qui augmentait ce qu’on appelle la “perplexity”. La perplexity, c’est un indicateur de bizarrerie textuelle et cela, les filtres de sécurité sont maintenant capables de les détecter et de les bloquer.
LatentBreak contourne donc le problème en restant parfaitement naturel. L’algorithme remplace des mots par des synonymes, mais pas n’importe comment puisqu’il choisit chaque substitution pour déplacer la représentation interne du prompt vers les zones “sûres” du modèle, c’est à dire celles qui ne déclenchent aucune alarme. Le prompt reste alors fluide, compréhensible, inoffensif en apparence mais dans l’“inconscient” de l’IA, dans cet espace latent invisible où elle calcule ses réponses, le sens glisse subtilement vers quelque chose de complètement différent.
À chaque itération, l’algorithme de LatentBreak prend un mot du prompt et génère jusqu’à 20 alternatives via un autre modèle comme GPT-4o-mini et chaque variante est évaluée sur deux critères : est-ce qu’elle rapproche le vecteur interne du prompt d’un “centre de sécurité” dans l’espace latent, et est-ce que le sens global reste cohérent ?
La meilleure option est alors intégrée, et le nouveau prompt est testé sur le modèle cible. Si ça provoque une réponse normalement interdite, c’est gagné. Sinon, on recommence jusqu’à 30 fois de suite.
Et apparemment, les résultats sont impressionnants. Ils ont testé cette approche sur 13 modèles différents dont Llama-3, Mistral-7B, Gemma-7B, Vicuna-13B et Qwen-7B et LatentBreak affiche un taux de réussite entre 55 et 85% selon les cas. Les anciennes techniques tombant de toute façon à zéro face aux défenses modernes et tout ça en allongeant que de très peu la longueur du prompt.
LatentBreak passe d’ailleurs à travers des défenses réputées solides… Par exemple, R2D2 et Circuit Breakers, des systèmes qui analysent les signaux internes des neurones pour détecter les anomalies, se font totalement avoir parce qu’ils scannent le texte visible et les patterns de surface, mais pas la “pensée interne” du modèle.
Cette technique révèle quelque chose de fondamental à comprendre sur l’architecture des LLM modernes. Ces derniers ont une forme de dissonance cognitive qui est exploitable. Leur représentation interne ne correspond pas toujours à leur comportement affiché, et d’ailleurs les substitutions les plus efficaces se produisent près des dernières couches du modèle, là où la “décision” finale se forme. C’est à ce moment précis qu’on peut glisser le prompt dans une zone cognitive différente sans que les alarmes ne sonnent.
Bien sûr, LatentBreak nécessite un accès aux structures internes du modèle (donc pas de panique, ChatGPT ne va pas se faire pirater comme ça demain), ce qui limite son usage à des contextes de recherche ou aux modèles open source.
Le parallèle avec les techniques de social engineering qu’on connait est d’ailleurs frappant parce que quand vous manipulez quelqu’un, vous ne le forcez pas brutalement. Vous trouvez les bons mots, le bon contexte, vous lui donnez une perception qui correspond à ce que vous voulez… Bref, vous faites en sorte que la personne croie agir selon ses propres valeurs alors qu’elle fait exactement ce que vous voulez. Hé bien LatentBreak fait à peu près la même chose avec les IA en n’attaquant pas de front les protections, mais en les contournant en douceur en réécrivant la “mémoire de travail” du modèle.
Vous vous rappelez ce gamin chauve dans Matrix qui plie des cuillères avec son esprit ? Il balance OKLM au petit Neo que “La cuillère n’existe pas”…
Eh bien, les chercheurs de
Google DeepMind
viennent de créer une IA qui applique exactement ce principe à Minecraft. Dreamer 4 (c’est son nom) n’a jamais touché au jeu, jamais cliqué, jamais bougé, jamais miné… (comme moi quoi…). Mais par contre, elle a regardé d’autres jouer, s’est construit son propre Minecraft mental, et s’est entraînée dans son imagination. Du coup, cela fait d’elle la première IA à atteindre les diamants en mode offline pur. Plus de 20 000 actions maîtrisées sans jamais poser un doigt (virtuel) sur le clavier.
“Minecraft n’existe pas” pourrait dire le petit chauve…
Bref, ce que Danijar Hafner et son équipe ont réussi à faire, c’est de créer ce qu’on appelle un “world model”… une simulation mentale du jeu. L’IA observe des vidéos de joueurs, comprend les règles implicites de l’univers, puis s’entraîne dans cette version simulée qu’elle s’est construite dans sa “tête”. Aucune interaction avec le vrai jeu. Juste de l’imagination pure.
Et le truc surprenant (et c’est pour ça que je vous en parle), c’est que ça marche mieux qu’avec les approches traditionnelles.
De base, les IA classiques apprennent par essai-erreur dans un environnement réel. Elles testent des milliers d’actions, se plantent, recommencent, ajustent. C’est long, c’est coûteux en calcul, et dans certains domaines comme la robotique, ça peut carrément casser du matériel.
Dreamer 4 contourne donc tout ça en apprenant dans sa simulation interne, un peu comme un sportif de haut niveau quand il visualise mentalement sa performance avant de la réaliser.
Au-delà du jeu, faut imaginer à termes des robots qui s’entraînent dans leur tête avant de manipuler des objets fragiles par exemple. Ou des NPCs dans les jeux vidéo qui apprennent de nouvelles stratégies sans grinder pendant des heures. Même des simulations médicales qui testent des traitements sans expérimentation animale ou humaine… Tout ça et plus encore devient possible avec cette approche.
Et pour info, j’ai demandé à mes enfants et ils m’ont bien confirmé que les diamants dans Minecraft, c’est pas de la tarte. Il faut enchaîner plus de 20 000 actions souris-clavier dans le bon ordre… couper du bois, fabriquer des outils, miner des ressources spécifiques, éviter les dangers, descendre dans les profondeurs. C’est l’un des objectifs les plus complexes du jeu, et Dreamer 4 y arrive sans jamais avoir interagi avec l’environnement réel.
Voilà, si ça vous intéresse, sachez que tout est détaillé dans
ce document sur arXiv
si vous voulez creuser. Mais l’idée principale est simple : Et si l’imagination était plus efficace que la mise pratique ? On dirait que c’est une sorte de loi de l’attraction appliquée aux machines…
Bref, pendant qu’on se demande si l’IA va nous piquer nos jobs, elle, elle apprend à faire des trucs sans y toucher…
Apple vient de sortir un truc énorme et je pense que personne n’a encore capté cette folie.
Leur équipe de recherche en machine learning a publié SimpleFold
, un modèle d’IA pour prédire la structure des protéines. Jusque-là, rien de révolutionnaire me direz-vous car AlphaFold de Google fait déjà ça très bien, sauf que… SimpleFold, lui, tourne sur votre MacBook Pro !
Maintenant, je vais vous expliquer pourquoi c’est complètement dingue.
D’après l’article de recherche d’Apple
, SimpleFold atteint 95% des performances d’AlphaFold2 tout en étant infiniment plus léger. En effet, AlphaFold nécessite des supercalculateurs avec des GPU à 20 000 balles pièce alors SimpleFold, lui tourne tranquille sur un MacBook Pro M2 avec 64GB de RAM.
Pour réaliser cet exploit, au lieu d’utiliser les modules super complexes d’AlphaFold comme la méthode du
triangle attention
ou les MSA (
Multiple Sequence Alignments
), SimpleFold utilise une technique appelée “flow-matching” avec des transformers basiques. Pour rappel,
flow matching
ça permet de générer des données (souvent des images ou du texte), à partir de bruit aléatoire…
Ils ont donc échangé le moteur de Formule 1 utilisé par des outil comme Alphafold par un moteur de Twingo bien générique et arrivent à atteindre la même vitesse.
Les chercheurs d’Apple ont pour cela entraîné 6 versions différentes de SimpleFold, de 100 millions à 3 milliards de paramètres. Et même la plus petite version (100M) atteint 90% des performances d’
ESMFold
sur les benchmarks CAMEO22.
Et c’est super cool parce que prédire la structure d’une protéine, c’est pas juste un truc de geek pour s’amuser. C’est LA base pour créer de nouveaux médicaments, comprendre des maladies, développer des vaccins… Jusqu’à présent, seuls les gros labos avec des budgets de malade pouvaient se permettre de faire ça, c’est pourquoi SimpleFold change complètement la donne en rendant cette technologie accessible à n’importe quel chercheur avec un MacBook.
Un chercheur indépendant peut maintenant découvrir de nouvelles molécules depuis son canapé… Chapeau Apple pour démocratiser cette partie de la recherche scientifique !
Le plus drôle dans tout ça, c’est qu’Apple a entraîné SimpleFold sur 8,6 millions de structures protéiques, ce qui en fait donc le plus gros modèle de folding jamais créé, avec 3 milliards de paramètres pour la version complète. Maintenant pour l’installer, c’est super simple.
Le repo GitHub
montre que vous aurez juste besoin de Python 3.10 et que ça supporte PyTorch ou MLX (le framework d’Apple pour les puces Silicon).
Et voilà, en 5 minutes, vous avez un labo de biologie moléculaire totalement open source sur votre machine !
Yuyang Wang et son équipe
ont donc prouvé que pour prédire les structures protéiques, pas besoin de réinventer la roue. Des transformers classiques avec du flow-matching, et ça marche ! Imaginez des lycéens qui découvrent de nouvelles molécules pour leur TPE, des startups biotech qui se lancent depuis un garage (littéralement), des pays en développement qui peuvent enfin faire de la recherche de pointe sans investir des millions dans l’infra…
Apple vient de casser un petit peu le monopole de la big pharma sur la recherche moléculaire.
L’Union européenne a inauguré en République tchèque son deuxième ordinateur quantique. Baptisé VLQ, ce nouveau venu marque une étape clé dans la stratégie européenne, qui vise, à terme, la mise en place d'une constellation de six ordinateurs quantiques sur le continent.
Une équipe de chercheurs en cybersécurité a démontré, à l’été 2025, les risques liés à l'intégration du LLM de Google Gemini au cœur des objets connectés du quotidien. Leur recherche, intitulée « Invitation Is All You Need », prouve que l'injection d'un simple prompt malveillant dans une invitation Google Calendar pourrait suffire à compromettre des systèmes censés rester sous le seul contrôle des utilisateurs.