Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Faille Perplexity Computer : un accès gratuit à Claude Opus 4.6 est-il vraiment possible ?

13 mars 2026 à 16:12

Sur X, un chercheur en cybersécurité affirme avoir obtenu un accès illimité à Claude Opus 4.6 en exploitant l'infrastructure de Perplexity Computer. Si la démonstration technique est réelle, les conclusions sur la facturation sont à nuancer.

Faille Perplexity Computer : un accès gratuit à Claude Opus 4.6 est-il vraiment possible ?

13 mars 2026 à 16:12

Sur X, un chercheur en cybersécurité affirme avoir obtenu un accès illimité à Claude Opus 4.6 en exploitant l'infrastructure de Perplexity Computer. Si la démonstration technique est réelle, les conclusions sur la facturation sont à nuancer.

« Nous prévoyons des progrès bien plus spectaculaires », Anthropic veut préparer la société aux grands bouleversements de l’IA

11 mars 2026 à 17:23

En pleine guerre ouverte avec l'administration Trump et le Pentagone, Anthropic lance un nouvel organisme de recherche tourné vers le grand public. L'ambition affichée : préparer la société aux bouleversements que l'IA va provoquer.

« Nous prévoyons des progrès bien plus spectaculaires », Anthropic veut préparer la société aux grands bouleversements de l’IA

11 mars 2026 à 17:23

En pleine guerre ouverte avec l'administration Trump et le Pentagone, Anthropic lance un nouvel organisme de recherche tourné vers le grand public. L'ambition affichée : préparer la société aux bouleversements que l'IA va provoquer.

Avec Code Review, Anthropic répond à un problème dont il est en partie responsable

10 mars 2026 à 14:57

Le 9 mars 2026, Anthropic a annoncé le lancement de Code Review, un système multi-agents capable d'examiner en profondeur chaque proposition de code. Une fonctionnalité qui arrive au moment précis où la communauté open source crie à l'asphyxie face au déluge de contributions générées par IA. Mais l'outil leur est-il réellement destiné ?

Avec Code Review, Anthropic répond à un problème dont il est en partie responsable

10 mars 2026 à 14:57

Le 9 mars 2026, Anthropic a annoncé le lancement de Code Review, un système multi-agents capable d'examiner en profondeur chaque proposition de code. Une fonctionnalité qui arrive au moment précis où la communauté open source crie à l'asphyxie face au déluge de contributions générées par IA. Mais l'outil leur est-il réellement destiné ?

Claude trouve des failles dans du code Apple II vieux de 40 ans

Par : Korben
9 mars 2026 à 16:14

Mark Russinovich, CTO de Microsoft Azure, a donné à Claude Opus 4.6 un programme qu'il avait écrit en assembleur 6502 pour Apple II en mai 1986. L'IA d'Anthropic y a trouvé des vulnérabilités. Une découverte possible grâce à Claude Code Security, un outil qui a déjà débusqué plus de 500 failles dans des projets open source.

Du code Apple II passé au crible

Le programme en question s'appelle Enhancer. C'est un utilitaire écrit en langage machine 6502 qui ajoutait à l'Applesoft BASIC la possibilité d'utiliser des variables ou des expressions comme destination pour les commandes GOTO, GOSUB et RESTORE.

Claude Opus 4.6 a identifié un comportement silencieux incorrect : quand une ligne de destination n'était pas trouvée, le programme plaçait le pointeur sur la ligne suivante ou au-delà de la fin du programme, au lieu de signaler une erreur. L'IA a même suggéré le correctif : vérifier le carry flag (positionné quand une ligne n'est pas trouvée) et rediriger vers un gestionnaire d'erreurs.

L'anecdote a surtout valeur de démonstration. Russinovich l'a partagée pour montrer que les modèles d'IA sont désormais capables de décompiler du code embarqué d’un autre âge et d'y repérer des failles, ce qui pose un problème quand on sait que des milliards de microcontrôleurs tournent dans le monde avec du code qui n'a jamais été audité.

Plus de 500 failles dans des projets open source

Cette histoire autour de l'Apple II est amusante, mais le vrai sujet est ailleurs. Anthropic a utilisé Claude Opus 4.6 pour scanner des bases de code open source en production et a trouvé plus de 500 vulnérabilités qui avaient échappé à des années de revue par des experts humains.

Parmi les projets touchés : GhostScript (traitement PostScript et PDF), OpenSC (utilitaires pour cartes à puce), CGIF (traitement d'images GIF) et le noyau Linux. Certaines de ces failles étaient là depuis des décennies, malgré des millions d'heures de fuzzing accumulées sur ces projets.

Côté Firefox, on vous en a parlé : 22 CVE dont 14 haute gravité, trouvées en deux semaines seulement.

On vous en a déjà parlé, Anthropic a lancé le 20 février Claude Code Security, un outil intégré à Claude Code sur le web, pour l'instant en accès limité. Le principe : l'IA scanne un dépôt de code, identifie les vulnérabilités, et propose des correctifs ciblés pour validation humaine.

Contrairement aux outils d'analyse statique classiques qui fonctionnent par pattern matching, Claude lit et raisonne sur le code comme le ferait un chercheur en sécurité, en traçant les flux de données et en comprenant comment les composants interagissent. Rien n'est appliqué sans validation humaine. L'outil est accessible aux clients Enterprise et Team, et les mainteneurs de projets open source peuvent demander un accès gratuit.

Tout ça pour dire que l'image du CTO d'Azure qui ressort son vieux code Apple II et se retrouve avec un rapport de failles, c'est quand même franchement rigolo, mais aussi intéressant. Mais le fond du sujet est plus sérieux : des milliards d'appareils embarqués tournent avec du code ancien que personne n'a jamais audité, et l'IA est désormais capable de les passer au peigne fin. Anthropic a quand même prévenu que cet écart entre la capacité à trouver les failles et celle de les exploiter ne durera probablement pas éternellement. On l’espère.

Source : The Register

Claude d'Anthropic a trouvé 22 failles dans Firefox en deux semaines

Par : Korben
7 mars 2026 à 10:50

Anthropic et Mozilla viennent de publier les résultats d'une collaboration menée en février. En deux semaines, le modèle Claude Opus 4.6 a analysé près de 6 000 fichiers C++ du code source de Firefox et découvert 22 vulnérabilités de sécurité, dont 14 classées haute gravité. Toutes sont déjà corrigées dans Firefox 148.

Un chasseur de bugs d'un nouveau genre

C'est l'équipe de red team d'Anthropic qui a contacté Mozilla pour tester son système de détection de failles par IA sur le code source de Firefox. Le modèle Claude Opus 4.6 a d'abord été lâché sur le moteur JavaScript du navigateur, avant d'être étendu au reste de la base de code.

Vingt minutes après le début de l'analyse, il avait déjà identifié sa première faille : un Use After Free, un type de vulnérabilité mémoire qui peut permettre à un attaquant d'écraser des données avec du contenu malveillant. Les ingénieurs de Mozilla ont commencé à appliquer des correctifs dans les heures qui ont suivi.

Au total, Anthropic a soumis 112 rapports de bugs sur la période. Mozilla a souligné que la qualité des rapports a fait la différence : chaque soumission incluait un cas de test minimal, une preuve de concept et un correctif candidat. Claude a même proposé ses propres patchs pour corriger les failles qu'il trouvait.

22 failles dont 14 haute gravité

Sur les 112 rapports, 22 ont donné lieu à des CVE (des identifiants de failles de sécurité officiels), dont 14 classées haute gravité par Mozilla. Pour donner un ordre d'idée, ces 14 failles représentent quasiment un cinquième de toutes les vulnérabilités haute gravité corrigées dans Firefox sur l'ensemble de l'année 2025. Les 90 bugs restants sont de moindre gravité, mais la plupart sont désormais corrigés. Tout est intégré dans Firefox 148, disponible depuis le 24 février.

Firefox n'est pas le seul projet concerné. Anthropic indique avoir utilisé Claude Opus 4.6 pour repérer des vulnérabilités dans d'autres logiciels open source, dont le noyau Linux.

Trouver les failles, mais pas les exploiter

Côté offensif, le constat est quand même rassurant. Anthropic a aussi testé la capacité de Claude à exploiter les failles qu'il trouvait, pas seulement les détecter. L'équipe a dépensé environ 4 000 dollars en crédits API pour tenter de produire des exploits fonctionnels. Sur plusieurs centaines d'essais, seuls deux ont abouti, et encore : uniquement dans un environnement de test où la sandbox de Firefox avait été désactivée. Le modèle est bien meilleur pour trouver les bugs que pour les exploiter, et le coût de détection est dix fois inférieur à celui de l'exploitation.

C’est le genre de résultat qui change un peu la perception de l'IA dans la cybersécurité. On a beaucoup parlé du risque que des modèles comme Claude ou GPT servent à créer des attaques. Et là, c'est l'inverse : l'IA trouve les failles plus vite et pour moins cher que n'importe quel audit traditionnel, mais elle a encore du mal à les exploiter. 

L'avantage est clairement du côté des défenseurs, pour l'instant en tous cas. Mozilla a d'ailleurs annoncé avoir déjà intégré l'analyse assistée par IA dans ses processus de sécurité internes. En tout cas, quand une IA trouve en deux semaines autant de failles critiques qu'un an de recherches classiques, on comprend assez vite que le métier de la cybersécurité va changer.

Sources : Anthropic , Mozilla

Ce projet open source efface la censure des IA en un clic

6 mars 2026 à 18:32

Un projet open source publié sur GitHub début mars 2026 promet de retirer en un clic les mécanismes de refus intégrés aux grands modèles de langage. Baptisé Obliteratus, cet outil analyse la « géométrie du refus » dans les réseaux de neurones afin de neutraliser les garde-fous qui poussent une IA à répondre « je ne peux pas vous aider avec ça ».

Intelligence artificielle : quand les États-Unis sabotent leur propre champion face à DeepSeek

6 mars 2026 à 16:39

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Intelligence artificielle : quand les États-Unis sabotent leur propre champion face à DeepSeek

6 mars 2026 à 16:39

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Le gouvernement américain traite DeepSeek mieux qu’Anthropic

6 mars 2026 à 14:49

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Le gouvernement américain traite DeepSeek mieux qu’Anthropic

6 mars 2026 à 14:49

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Chardet : quand une IA réécrit un logiciel open source en cinq jours et change sa licence

Par : Korben
6 mars 2026 à 09:13

Le développeur Dan Blanchard a utilisé Claude d'Anthropic pour réécrire intégralement chardet, une bibliothèque Python téléchargée 130 millions de fois par mois, et passer sa licence de LGPL à MIT. L'auteur original conteste, la Free Software Foundation dénonce, et Bruce Perens, père de la définition open source, déclare que « toute l'économie du logiciel est morte ». Carrément.

Cinq jours et un changement de licence

Chardet est un outil qui détecte l'encodage des caractères dans un fichier texte. C'est une bibliothèque Python utilisée un peu partout, avec 130 millions de téléchargements par mois. Son mainteneur, Dan Blanchard, voulait depuis dix ans l'intégrer à la bibliothèque standard de Python, mais la licence LGPL l'en empêchait : elle impose que toute version modifiée reste sous les mêmes termes. Il a donc utilisé Claude d'Anthropic pour réécrire le code en partant d'un dépôt vide, sans accès au code source original.

Résultat : cinq jours de travail, un gain de vitesse de 48x, et un passage à la licence MIT, bien plus permissive. Le plagiat a été analysé par l'outil JPlag, et on y retrouve seulement 1,3% de similarité entre l'ancien et le nouveau code, autant dire rien. Sauf que Mark Pilgrim, le créateur original de chardet, conteste : pour lui, la licence LGPL s'applique quoi qu'il arrive, et une réécriture par IA ne change rien.

Le copyleft à l'épreuve de l'IA

Le problème dépasse en fait chardet. Armin Ronacher, créateur du framework Flask, résume bien la situation : « Le copyleft dépend du copyright et de la friction pour s'imposer. Mais comme le code est ouvert par définition, on peut le réécrire sans difficulté de nos jours. »

Bruce Perens, qui a écrit la définition même de l'open source, va plus loin : « Toute l'économie du développement logiciel est morte, finie, terminée. »

Il raconte aussi avoir construit une plateforme SRE complète en quelques jours avec Claude, un travail qui prenait des mois auparavant. Pour lui, les licences propriétaires comme open source perdent toute pertinence si n'importe quel logiciel peut être recréé par une IA en une semaine.

Un flou juridique total

Parce que oui, du côté du droit, c'est le vide total et la prise en compte du contenu généré par IA est peu appréhendée par les textes juridiques. Ce qui pourrait peut-être même dire que le code produit par Claude n'est peut-être pas protégeable. Et la Free Software Foundation enfonce le clou : « Il n'y a rien de propre dans un LLM qui a ingéré le code qu'on lui demande de réécrire. »

Le nœud du problème, c'est que Claude a été entraîné sur des milliards de lignes de code, dont probablement chardet lui-même. Simon Willison, développeur respecté, admet d'ailleurs que « les arguments des deux côtés sont entièrement crédibles ». On n'est pas rendus.

Ce qui se joue ici en fait, c'est surtout la question de savoir si les licences logicielles ont encore un sens quand une IA peut recréer n'importe quel code en quelques jours. Et la réponse, pour le moment, c'est que personne ne sait.

La justice américaine refuse de se prononcer, les fondations open source dénoncent sans pouvoir empêcher, et les développeurs comme Ronacher haussent les épaules. Et ça ne concerne pas que les développeurs : chaque application sur votre Mac, votre iPhone ou votre navigateur dépend de bibliothèques open source. Si leur modèle économique et juridique s'effondre, on le sentira tous passer.

Sources : The Register , Simon Willison

Pourquoi l’IA d’Anthropic est encore utilisée par l’armée américaine, malgré son bannissement

6 mars 2026 à 10:16

Bannie des agences fédérales fin février 2026, l'intelligence artificielle d'Anthropic s’avère décisive en pleine guerre contre l’Iran. Dario Amodei, le PDG de l’entreprise, tente donc de conclure un nouvel accord avec le Pentagone pour éviter l’exclusion durable.

Pourquoi l’IA d’Anthropic est encore utilisée par l’armée américaine, malgré son bannissement

6 mars 2026 à 10:16

Bannie des agences fédérales fin février 2026, l'intelligence artificielle d'Anthropic s’avère décisive en pleine guerre contre l’Iran. Dario Amodei, le PDG de l’entreprise, tente donc de conclure un nouvel accord avec le Pentagone pour éviter l’exclusion durable.

Shuffle - Quand 4 IA redesignent votre site (et c'est moche)

Par : Korben
5 mars 2026 à 09:48

Shuffle , c'est un outil qui vous propose de redesigner votre site web avec 4 modèles d'IA différents. Vous collez votre URL, vous décrivez ce que vous voulez... et boom, Claude Opus 4.6, GPT-5.2, Gemini 3 Pro et Kimi K2.5 vous pondent chacun leur version. J'ai testé sur ma home. Verdict : c'est moche de fou !

Vous arrivez sur la page, vous entrez l'adresse de votre site, vous tapez un petit prompt du genre "modernise mon blog tech" et vous lancez la machine. Les 4 modèles bossent alors en parallèle et au bout de 30 secondes environ, vous avez 4 propositions de redesign à comparer côte à côte.

Je trouvais le concept cool, sauf que dans la pratique, c'est une autre histoire. Comme je vous le disais en intro, j'ai testé sur korben.info, et les 4 IA ont eu exactement la même idée lumineuse : tout foutre en thème sombre. QUATRE sur QUATRE ! Pas un seul n'a osé proposer autre chose qu'un fond #1a1a2e dégeu avec des accents néon bleu-vert. Original, hein !!

Les 4 propositions de redesign de korben.info... toutes en dark mode. Désolé si votre site ressemble à ça.

On dirait que pour les IA, "blog tech" = "dark mode obligatoire"... et du coup ça ressemble à tous les médias tech génériques qu'on retrouve partout. Sauf si vous précisez "fond clair" dans le prompt, mais même là, c'est pas garanti.

Claude Opus a pondu une esthétique "hacker" avec du code Matrix en fond vert (carrément, on se laaache). GPT-5.2 a carrément rebaptisé le site "KORBEN NEXT" avec une baseline inventée de toute pièce, "La veille tech qui va droit au but"... euh, merci mais non merci j'aime pas le foot. Gemini 3 Pro a opté pour un style magazine éditorial et Kimi K2.5 (le modèle chinois de Moonshot AI) a sorti le gradient hero classique, propre... ou plutôt fade.

Bah ouais, les IA analysent la structure, les catégories, les images... mais le résultat c'est finalement toujours le même template sombre "tech media 2024" qu'on a vu un million de fois. Alors que pour moi, Korben.info c'est pas du tout cette ambiance.

Mais l'outil a quand même des qualités puisque l'éditeur visuel permet de modifier le résultat en drag-and-drop sans toucher au CSS, et vous pouvez même exporter le code dans 4 formats : Next.js, Laravel, WordPress ou HTML classique. En fait, ça peut servir de très bon point de départ si vous avez la flemme de partir d'une page blanche et si votre webdesigner est devenu injoignable depuis qu'il est parti à Punta Cana.

Côté prix, y'a une version gratuite mais limitée à quelques générations, et après puis c'est 24 dollars par mois...etc.

Ça aurait pu être un excellent outil mais malheureusement, les modèles sont formatés sur les mêmes tendances, les mêmes palettes, les mêmes layouts. C'est dommage je trouve. Voilà, après je pourrais vous faire une conclusion bien neuneu genre "C'est pas demain qu'une IA remplacera un vrai directeur artistique qui comprend l'identité d'une marque." mais la réalité, c'est que un humain moyen motivé qui sait ce qu'il veut peut avoir un truc incroyablement bien généré par IA s'il prend le temps le temps de se former et qu'il ne lâche rien ! Tenez par exemple, 100% du template graphique de mon site a été généré à l'aide de l'IA et moi derrière pour la fouetter...

Voilà, si vous voulez rigoler un peu, allez tester votre site sur Shuffle mais ne vous attendez pas à un miracle !

CyberStrikeAI : cet outil dopé à l'IA automatise les cyberattaques

Par : Korben
3 mars 2026 à 14:31

Un développeur chinois a mis en ligne CyberStrikeAI, une plateforme open source qui combine IA générative et plus de 100 outils offensifs pour automatiser les cyberattaques. En parallèle, un pirate amateur russophone a compromis plus de 600 pare-feu FortiGate dans 55 pays avec l'aide de DeepSeek et Claude, le tout en à peine cinq semaines. Les hackers aussi ont visiblement droit à leur copilote.

Un arsenal offensif piloté par l'IA

CyberStrikeAI est l'œuvre d'un développeur chinois qui se fait appeler Ed1s0nZ. L'outil, écrit en Go et publié sur GitHub, intègre plus de 100 outils offensifs : nmap, Metasploit, hashcat, mimikatz et bien d'autres. Le tout est piloté par des modèles de langage comme GPT ou Claude, qui se chargent de planifier les attaques, analyser les résultats et adapter la stratégie au fil de l'attaque. Le développeur a des liens avec Knownsec 404, une équipe de recherche en sécurité rattachée au ministère de la Sécurité d'État chinois via la CNNVD.

600 pare-feu tombés en cinq semaines

L'autre affaire est tout aussi parlante. Entre le 11 janvier et le 18 février 2026, un pirate russophone a compromis plus de 600 pare-feu Fortinet FortiGate dans 55 pays. Amazon Threat Intelligence a repéré la campagne et découvert un serveur mal sécurisé contenant plus de 1 400 fichiers : identifiants volés, scripts d'exploitation, logs d'attaque. Le pirate utilisait un serveur MCP baptisé ARXON et un orchestrateur en Go appelé CHECKER2, les deux s'appuyant sur DeepSeek et Claude pour automatiser le travail. Le pirate n'a même pas eu besoin d'exploiter de faille logicielle : des mots de passe faibles et des ports de gestion ouverts sur Internet ont suffi.

L'IA compense le manque d'expérience

Le pirate derrière les FortiGate n'est pas un vétéran : ses erreurs de sécurité opérationnelle, comme un serveur ouvert à tous les vents, trahissent un manque d'expérience flagrant. Sauf que l'IA a compensé. Là où il aurait fallu des années de pratique pour mener une campagne de cette envergure, les modèles de langage ont comblé les lacunes. CrowdStrike a d'ailleurs noté une hausse de 89 % des attaques assistées par IA en 2025. Et avec des outils comme CyberStrikeAI qui mettent l'arsenal offensif à portée de n'importe qui, ça ne va pas s'arranger.

Franchement, on n'est plus dans la théorie. L'IA offensive est devenue accessible, et les dégâts sont bien réels. Le problème, c'est que les garde-fous des modèles de langage sont toujours une passoire, et que tout le monde fait semblant de ne pas le voir.

Sources : cyberinsider , thehackernews

Anthropic tient tête au Pentagone et refuse de transformer son IA en outil de surveillance de masse 

27 février 2026 à 14:11

surveillance

Le bras de fer entre Anthropic et le Pentagone se durcit après la publication d’un billet de blog refusant de lever certaines restrictions d’usage de Claude. Le Department of War exige une autorisation d’emploi sans limites d'ici le 27 février à 17h01, sous peine de lourdes sanctions.

❌
❌