Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Faille Perplexity Computer : un accès gratuit à Claude Opus 4.6 est-il vraiment possible ?

13 mars 2026 à 16:12

Sur X, un chercheur en cybersécurité affirme avoir obtenu un accès illimité à Claude Opus 4.6 en exploitant l'infrastructure de Perplexity Computer. Si la démonstration technique est réelle, les conclusions sur la facturation sont à nuancer.

Faille Perplexity Computer : un accès gratuit à Claude Opus 4.6 est-il vraiment possible ?

13 mars 2026 à 16:12

Sur X, un chercheur en cybersécurité affirme avoir obtenu un accès illimité à Claude Opus 4.6 en exploitant l'infrastructure de Perplexity Computer. Si la démonstration technique est réelle, les conclusions sur la facturation sont à nuancer.

« Nous prévoyons des progrès bien plus spectaculaires », Anthropic veut préparer la société aux grands bouleversements de l’IA

11 mars 2026 à 17:23

En pleine guerre ouverte avec l'administration Trump et le Pentagone, Anthropic lance un nouvel organisme de recherche tourné vers le grand public. L'ambition affichée : préparer la société aux bouleversements que l'IA va provoquer.

« Nous prévoyons des progrès bien plus spectaculaires », Anthropic veut préparer la société aux grands bouleversements de l’IA

11 mars 2026 à 17:23

En pleine guerre ouverte avec l'administration Trump et le Pentagone, Anthropic lance un nouvel organisme de recherche tourné vers le grand public. L'ambition affichée : préparer la société aux bouleversements que l'IA va provoquer.

Claude d'Anthropic a trouvé 22 failles dans Firefox en deux semaines

Par : Korben
7 mars 2026 à 10:50

Anthropic et Mozilla viennent de publier les résultats d'une collaboration menée en février. En deux semaines, le modèle Claude Opus 4.6 a analysé près de 6 000 fichiers C++ du code source de Firefox et découvert 22 vulnérabilités de sécurité, dont 14 classées haute gravité. Toutes sont déjà corrigées dans Firefox 148.

Un chasseur de bugs d'un nouveau genre

C'est l'équipe de red team d'Anthropic qui a contacté Mozilla pour tester son système de détection de failles par IA sur le code source de Firefox. Le modèle Claude Opus 4.6 a d'abord été lâché sur le moteur JavaScript du navigateur, avant d'être étendu au reste de la base de code.

Vingt minutes après le début de l'analyse, il avait déjà identifié sa première faille : un Use After Free, un type de vulnérabilité mémoire qui peut permettre à un attaquant d'écraser des données avec du contenu malveillant. Les ingénieurs de Mozilla ont commencé à appliquer des correctifs dans les heures qui ont suivi.

Au total, Anthropic a soumis 112 rapports de bugs sur la période. Mozilla a souligné que la qualité des rapports a fait la différence : chaque soumission incluait un cas de test minimal, une preuve de concept et un correctif candidat. Claude a même proposé ses propres patchs pour corriger les failles qu'il trouvait.

22 failles dont 14 haute gravité

Sur les 112 rapports, 22 ont donné lieu à des CVE (des identifiants de failles de sécurité officiels), dont 14 classées haute gravité par Mozilla. Pour donner un ordre d'idée, ces 14 failles représentent quasiment un cinquième de toutes les vulnérabilités haute gravité corrigées dans Firefox sur l'ensemble de l'année 2025. Les 90 bugs restants sont de moindre gravité, mais la plupart sont désormais corrigés. Tout est intégré dans Firefox 148, disponible depuis le 24 février.

Firefox n'est pas le seul projet concerné. Anthropic indique avoir utilisé Claude Opus 4.6 pour repérer des vulnérabilités dans d'autres logiciels open source, dont le noyau Linux.

Trouver les failles, mais pas les exploiter

Côté offensif, le constat est quand même rassurant. Anthropic a aussi testé la capacité de Claude à exploiter les failles qu'il trouvait, pas seulement les détecter. L'équipe a dépensé environ 4 000 dollars en crédits API pour tenter de produire des exploits fonctionnels. Sur plusieurs centaines d'essais, seuls deux ont abouti, et encore : uniquement dans un environnement de test où la sandbox de Firefox avait été désactivée. Le modèle est bien meilleur pour trouver les bugs que pour les exploiter, et le coût de détection est dix fois inférieur à celui de l'exploitation.

C’est le genre de résultat qui change un peu la perception de l'IA dans la cybersécurité. On a beaucoup parlé du risque que des modèles comme Claude ou GPT servent à créer des attaques. Et là, c'est l'inverse : l'IA trouve les failles plus vite et pour moins cher que n'importe quel audit traditionnel, mais elle a encore du mal à les exploiter. 

L'avantage est clairement du côté des défenseurs, pour l'instant en tous cas. Mozilla a d'ailleurs annoncé avoir déjà intégré l'analyse assistée par IA dans ses processus de sécurité internes. En tout cas, quand une IA trouve en deux semaines autant de failles critiques qu'un an de recherches classiques, on comprend assez vite que le métier de la cybersécurité va changer.

Sources : Anthropic , Mozilla

Intelligence artificielle : quand les États-Unis sabotent leur propre champion face à DeepSeek

6 mars 2026 à 16:39

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Intelligence artificielle : quand les États-Unis sabotent leur propre champion face à DeepSeek

6 mars 2026 à 16:39

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Le gouvernement américain traite DeepSeek mieux qu’Anthropic

6 mars 2026 à 14:49

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Le gouvernement américain traite DeepSeek mieux qu’Anthropic

6 mars 2026 à 14:49

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Pourquoi l’IA d’Anthropic est encore utilisée par l’armée américaine, malgré son bannissement

6 mars 2026 à 10:16

Bannie des agences fédérales fin février 2026, l'intelligence artificielle d'Anthropic s’avère décisive en pleine guerre contre l’Iran. Dario Amodei, le PDG de l’entreprise, tente donc de conclure un nouvel accord avec le Pentagone pour éviter l’exclusion durable.

Pourquoi l’IA d’Anthropic est encore utilisée par l’armée américaine, malgré son bannissement

6 mars 2026 à 10:16

Bannie des agences fédérales fin février 2026, l'intelligence artificielle d'Anthropic s’avère décisive en pleine guerre contre l’Iran. Dario Amodei, le PDG de l’entreprise, tente donc de conclure un nouvel accord avec le Pentagone pour éviter l’exclusion durable.

Anthropic mis dehors par Trump, OpenAI prend sa place avec les mêmes garanties

28 février 2026 à 10:16

La nuit du 27 au 28 février 2026 aura été agitée de l'autre côté de l'Atlantique. Donald Trump a ordonné l'exclusion immédiate d'Anthropic de toutes les agences fédérales américaines, après le refus de l'entreprise de lever ses restrictions éthiques sur l'usage militaire de son IA. Un contrat aussitôt récupéré par OpenAI, qui affirme pourtant avoir obtenu du Pentagone les mêmes garanties qu'Anthropic réclamait.

Anthropic tient tête au Pentagone et refuse de transformer son IA en outil de surveillance de masse 

27 février 2026 à 14:11

surveillance

Le bras de fer entre Anthropic et le Pentagone se durcit après la publication d’un billet de blog refusant de lever certaines restrictions d’usage de Claude. Le Department of War exige une autorisation d’emploi sans limites d'ici le 27 février à 17h01, sous peine de lourdes sanctions.

Le Pentagone intensifie la pression sur Anthropic et consulte ses partenaires industriels

26 février 2026 à 17:29

Le Department of War a sollicité Boeing et Lockheed Martin afin d’évaluer leur usage de Claude, l’IA d’Anthropic. Cette démarche intervient dans un contexte de tensions sur les conditions d’utilisation de l’outil par le ministère américain de la Défense, qui n’exclut pas de mettre au ban l’entreprise si elle ne revoit pas ses conditions d’utilisation militaires. 

Claude Code - Pilotez votre terminal depuis votre canapé

Par : Korben
26 février 2026 à 12:46

Claude Code tourne en local et c'est son gros avantage car ça permet par exemple d'agir sur votre machine, de lancer des scripts...etc. Mais c'est aussi sa grosse limite car à cause de ça, vous êtes cloué devant votre terminal. J'étais en quête depuis un moment d'une solution et je vous avais déjà parlé de Vibe Companion y'a pas longtemps mais tous ces outils vont disparaitre puisque Anthropic vient de sortir Remote Control, une feature qui transforme claude.ai ou l'app mobile en télécommande pour votre session locale. Comme ça, vos fichiers restent chez vous et seule l'interface voyage.

Votre ordi fait tourner Claude Code normalement, et vous, vous pouvez continuer à lui parler depuis votre iPhone, votre Android, votre iPad ou n'importe quel navigateur Chrome, Firefox, Safari... Pas de serveur exposé, pas de port ouvert, que du HTTPS sortant. C'est plutôt bien foutu vous allez voir !

Ce qu'il vous faut

Bon déjà, un abonnement Pro (Édit : ? on me dit que c'est pas encore actif pour les pro ?) ou Max (pas le choix, les clés API ne marchent pas et les plans Team/Enterprise sont exclus pour le moment). Ensuite, vérifiez que Claude Code est installé et que vous êtes connecté via /login. Acceptez ensuite le "workspace trust" dans votre projet et hop, c'est tout côté prérequis.

Lancer une session

Deux options s'offrent à vous ensuite... Soit vous démarrez une nouvelle session dédiée :

claude remote-control

Soit vous êtes déjà en train de bosser dans Claude Code et vous tapez /rc (alias de /remote-control). Avec claude remote-control, seule l'URL apparaît... donc appuyez sur espace pour afficher le joli QR code.

3 flags utiles (uniquement avec claude remote-control, pas /rc) : --verbose pour voir ce qui transite, --sandbox pour forcer le mode bac à sable (désactivé par défaut) et --no-sandbox pour le couper si vous l'avez activé dans votre config.

Se connecter depuis un autre appareil

Ensuite, la méthode la plus rapide c'est de scanner le QR code avec votre téléphone. Sinon, copiez l'URL affichée et collez-la dans n'importe quel navigateur. Dernière option, allez sur claude.ai/code et votre session apparaît dans la liste (les sessions actives ont un petit point vert).

Une fois connecté, vous récupérez votre conversation en cours, vos fichiers, votre contexte... tout. Vous pouvez envoyer des messages, voir les résultats, approuver les modifications de fichiers. Bref, comme si vous étiez devant votre terminal, sauf que vous êtes dans votre canapé, votre lit ou en train de pousser le caddie chez Auchan !

Activer par défaut

Maintenant, si vous voulez que CHAQUE session Claude Code soit automatiquement accessible à distance, tapez /config dans une session Claude Code, puis activez l'option "Enable Remote Control for all sessions". Et voilà, plus besoin d'y réfléchir ! Chaque claude lancé dans un terminal sera pilotable depuis votre navigateur ou l'app mobile.

Vos sessions prennent le nom de votre dernier message (ou "Remote Control session" par défaut), donc utilisez /rename mon-projet-cool pour les retrouver facilement dans la liste sur claude.ai/code.

Sinon, dans Claude Code avec /mobile vous pouvez aussi afficher directement le QR code pour télécharger l'app Claude sur iOS ou Android.

Les limites à connaître

Bon, après c'est pas non plus parfait car déjà, c'est cappé à UNE SEULE session à distance par instance de Claude Code (si vous en lancez une deuxième, la première se déconnecte). Par contre, plusieurs instances dans des terminaux différents peuvent chacune avoir leur session remote. Le terminal doit également rester ouvert (si vous le fermez, c'est fini). Mais bonne nouvelle quand même, si le laptop passe en veille ou que le réseau saute, ça se reconnectera tout seul au réveil. Le piège, c'est si la machine reste sans réseau plus de 10 minutes... là, la session expire et il faudra relancer claude remote-control.

Soyez rassurés quand même côté sécurité c'est propre (uniquement du HTTPS sortant sur le port 443, zéro port entrant et des identifiants éphémères), mais gardez en tête que Claude Code a accès à votre terminal donc sauf si vous activez --sandbox, il peut de ce fait exécuter n'importe quelle commande... donc les mêmes précautions qu'en local s'appliquent !

Du coup si vous en avez marre de rester scotché devant votre terminal, maintenant vous savez quoi faire.

Merci à Lorenper !

Failles Claude Code : 3 vulnérabilités critiques corrigées par Anthropic

26 février 2026 à 07:32

Dans une étude publiée le 25 février 2026, les équipes de Check Point ont dévoilé trois vulnérabilités critiques affectant Claude Code, l'assistant de programmation IA développé par Anthropic.Ces failles exploitent la manière dont l'agent gère les fichiers de configuration du projet.

Le Pentagone donne 72 heures à Anthropic pour lui fournir un accès illimité à son IA

25 février 2026 à 12:34

Pentagone

Le ministère américain de la Défense donne 72 heures à Anthropic pour lui accorder un accès sans restriction à son modèle d’intelligence artificielle Claude. En cas de refus, l’entreprise s’expose à de lourdes sanctions.

Le Pentagone pose un ultimatum totalement dingue à Anthropic

Par : Korben
25 février 2026 à 10:26

Vous allez halluciner... Le Pentagone américain vient de poser un ultimatum à Anthropic. C'est Pete Hegseth, le patron du désormais "Department of War" (oui, Trump a rebaptisé le Pentagone par executive order... no comment...), exige que la boite de Dario Amodei lève toutes ses restrictions éthiques sur Claude d'ici ce vendredi.

Et la menace, c'est pas du bluff puisque ça parle du Defense Production Act , une loi de 1950 qui permet au gouvernement de réquisitionner une entreprise privée. Sinon, l'autre option sur la table de ces dingos, c'est de coller Anthropic sur une liste noire "supply chain risk", à côté de Huawei et Kaspersky. Ah ça c'est la classe.

En fait faut savoir qu'Anthropic a signé un contrat à 200 millions de dollars avec le Département de la Défense en juillet dernier et OpenAI, Google et xAI ont signé exactement le même type de contrat. Sauf que xAI a accepté les termes " all lawful purposes " sans sourciller et est déjà approuvé pour l'usage classifié alors qu'OpenAI et Google, eux, négocient encore leurs conditions.

Anthropic, eux, ont établi 2 lignes rouges à ne pas franchir : La surveillance de masse des citoyens américains et les armes autonomes capables de tuer sans intervention humaine. C'est tout ! Et visiblement, c'est déjà trop pour l'administration US qui qualifie ça de "woke AI".

Anthropic, c'est quand même une boite qui publie ses recherches sur la mécanique interne de ses modèles , qui écrit des papiers sur l'éthique de l'IA, et qui a carrément publié une "constitution" pour encadrer le comportement de Claude. Ils essayent de faire les choses proprement... Dario Amodei a même écrit un essai en janvier de cette année où il dit clairement que les démocraties ont un intérêt légitime à utiliser l'IA dans le domaine militaire... mais "dans certaines limites"... Mais apparemment ça ne suffit pas à l'oncle Sam.

Sean Parnell, le porte-parole du Pentagone, a déclaré que "la relation avec Anthropic est en cours de réévaluation" et Emil Michael, sous-secrétaire à la Défense, confirme que les négociations sont bloquées. Et comme je vous le disais en intro, la deadline c'est vendredi, 17h01 heure de la côte Est. Soit 23h01 à Paris. Sauf si Anthropic cède avant, ça pourrait aller très vite...

Perso, ça me rend dingue. Vous avez une boite qui essaye de garder un minimum de barrières éthiques, dans un secteur où tout le monde se couche, et le gouvernement lui tombe dessus comme un vieil empire soviétique exigeant sa soumission totale. Franchement, à la place de Dario, je prendrais mes cliques et mes claques et j'irais installer Anthropic en Europe ou en Asie. Quand votre propre gouvernement vous menace d'une loi datant de la guerre de Corée pour vous forcer à retirer vos garde-fous, ça va bien au-delà d'une simple pression. Ils veulent vraiment s'approprier la techno pour faire la guéguerre...

Notez que Chris Liddell, ancien adjoint du chief of staff de Trump, vient d'être ajouté au board d'Anthropic et la boite prépare son IPO pour 2026 donc autant vous dire que la pression est maximale de tous les côtés.

Mise à jour du 27 février : Bon bah Anthropic n'a pas plié ! Dario Amodei a publié un billet de blog disant que sa boite "ne peut pas en bonne conscience" accepter les exigences du Pentagone. Et le plus beau, c'est que le Pentagone avait envoyé dans la nuit un nouveau contrat, présenté comme un "compromis" (CBS News parle carrément d'"offre finale")... sauf que d'après Anthropic, ça ne changeait RIEN. Le texte contenait du jargon juridique permettant de contourner tous les garde-fous "à volonté". Hop, enfumage.

Amodei a pointé du doigt la contradiction totale du truc : d'un côté, le Pentagone menace de les coller sur la liste "supply chain risk" (un label normalement réservé aux boites ÉTRANGÈRES liées aux adversaires des US, genre Huawei), et de l'autre, il veut réquisitionner leur techno via le Defense Production Act parce qu'elle serait "essentielle à la sécurité nationale". Faudrait choisir un camp, les gars...

En face, Parnell a répondu que l'armée n'a "aucun intérêt à utiliser l'IA pour la surveillance de masse des Américains (ce qui est illégal) ni pour des armes autonomes". OK cool... mais alors pourquoi refuser de l'écrire noir sur blanc dans le contrat ? C'est LA question que tout le monde se pose.

Et Amodei ne joue pas les martyrs anti-militaristes non plus. Il a écrit noir sur blanc vouloir "continuer à servir le Département et nos combattants, avec nos deux garde-fous en place". Anthropic reste "prêt à continuer les discussions". Bref, c'est pas "non à l'armée", c'est "non au chèque en blanc".

Au Congrès, ça grince des deux côtés de l'allée. Le républicain Thom Tillis critique la gestion publique du dossier, et le démocrate Mark Warner s'inquiète de voir le Pentagone ignorer toute gouvernance IA. Bref, même dans les rangs de Trump, c'est le bordel.

Du coup la fameuse deadline, c'est AUJOURD'HUI. Après ça, soit le Pentagone met ses menaces à exécution (et ça finira probablement devant un tribunal), soit quelqu'un cède. Perso, je parie que Dario ne lâchera rien.

Merci Eric pour l'info.

Le Pentagone convoque le PDG d’Anthropic pour faire sauter les garde-fous de son chatbot Claude

24 février 2026 à 17:52

Le Pentagone et la société Anthropic renégocient l’accès au chatbot Claude sur les réseaux classifiés de l’armée, alors que le ministère américain de la Défense presse les acteurs de l'intelligence artificielle d’assouplir leurs garde-fous.

❌
❌