Le ministère américain de la Défense donne 72 heures à Anthropic pour lui accorder un accès sans restriction à son modèle d’intelligence artificielle Claude. En cas de refus, l’entreprise s’expose à de lourdes sanctions.
Le ministère américain de la Défense donne 72 heures à Anthropic pour lui accorder un accès sans restriction à son modèle d’intelligence artificielle Claude. En cas de refus, l’entreprise s’expose à de lourdes sanctions.
Vous allez halluciner... Le Pentagone américain vient de poser un ultimatum à Anthropic. C'est Pete Hegseth, le patron du désormais "Department of War" (oui, Trump a rebaptisé le Pentagone par executive order... no comment...), exige que la boite de Dario Amodei lève toutes ses restrictions éthiques sur Claude d'ici ce vendredi.
Et la menace, c'est pas du bluff puisque ça parle du
Defense Production Act
, une loi de 1950 qui permet au gouvernement de réquisitionner une entreprise privée. Sinon, l'autre option sur la tabled de ces dingos, c'est de coller Anthropic sur une liste noire "supply chain risk", à côté de Huawei et Kaspersky. Ah ça c'est la classe.
En fait faut savoir qu'Anthropic a signé un contrat à 200 millions de dollars avec le Département de la Défense en juillet dernier et OpenAI, Google et xAI ont signé exactement le même type de contrat. Sauf que xAI a accepté les termes "
all lawful purposes
" sans sourciller et est déjà approuvé pour l'usage classifié alors qu'OpenAI et Google, eux, négocient encore leurs conditions.
Anthropic, eux, ont établi 2 lignes rouges à ne pas franchir : La surveillance de masse des citoyens américains et les armes autonomes capables de tuer sans intervention humaine. C'est tout ! Et visiblement, c'est déjà trop pour l'administration US qui qualifie ça de "woke AI".
Anthropic, c'est quand même un boite qui publie ses recherches sur la
mécanique interne de ses modèles
, qui écrit des papiers sur l'éthique de l'IA, et qui a carrément publié une "constitution" pour encadrer le comportement de Claude. Ils essayent de faire les choses proprement... Dario Amodei a même écrit un essai en janvier de cette année où il dit clairement que les démocraties ont un intérêt légitime à utiliser l'IA dans le domaine militaire... mais "dans certaines limites"... Mais apparemment ça ne suffit pas à l'oncle Sam.
Sean Parnell, le porte-parole du Pentagone, a déclaré que "la relation avec Anthropic est en cours de réévaluation" et Emil Michael, sous-secrétaire à la Défense, confirme que les négociations sont bloquées. Et comme je vous le disais en intro, la deadline c'est vendredi, 17h01 heure de la côte Est. Soit 23h01 à Paris. Sauf si Anthropic cède avant, ça pourrait aller très vite...
Perso, ça me rend dingue. Vous avez une boite qui essaye de garder un minimum de barrières éthiques, dans un secteur où tout le monde se couche, et le gouvernement lui tombe dessus comme un vieil empire soviétique exigeant sa soumission totale. Franchement, à la place de Dario, je prendrais mes cliques et mes claques et j'irais installer Anthropic en Europe ou en Asie. Quand votre propre gouvernement vous menace d'une loi datant de la guerre de Corée pour vous forcer à retirer vos garde-fous, ça va bien au delà d'une simple pression. Ils veulent vraiment s'approprier la techno pour faire la gueguerre...
Notez que Chris Liddell, ancien adjoint du chief of staff de Trump, vient d'être ajouté au board d'Anthropic et la boite prépare son IPO pour 2026 donc autant vous dire que la pression est maximale de tous les côtés.
Le 25 février 2026, Anthropic, créateur de Claude, a annoncé le lancement de Remote Control, une fonctionnalité qui vise à transformer les sessions de travail sur Claude Code, son agent IA de codage.
Le Pentagone et la société Anthropic renégocient l’accès au chatbot Claude sur les réseaux classifiés de l’armée, alors que le ministère américain de la Défense presse les acteurs de l'intelligence artificielle d’assouplir leurs garde-fous.
Le Pentagone et la société Anthropic renégocient l’accès au chatbot Claude sur les réseaux classifiés de l’armée, alors que le ministère américain de la Défense presse les acteurs de l'intelligence artificielle d’assouplir leurs garde-fous.
Dans une série de tweets publiés sur X le 23 février 2026, l'entreprise américaine Anthropic, conceptrice des modèles de langage Claude, accuse plusieurs sociétés chinoises d'attaques par distillation. Comprenez : avoir élaboré leurs modèles en se basant sur les résultats produits par les siens.
Des centaines de milliards de lignes de COBOL tournent encore dans les systèmes critiques des banques et des gouvernements. Problème : les développeurs capables de les maintenir disparaissent, à la retraite ou trop âgés. Claude, l'IA d'Anthropic, promet de résoudre l'équation impossible -- moderniser sans tout casser.
Dans une série de tweets publiés sur X le 23 février 2026, l'entreprise américaine Anthropic, conceptrice des modèles de langage Claude, accuse plusieurs sociétés chinoises d'attaques par distillation. Comprenez : avoir élaboré leurs modèles en se basant sur les résultats produits par les siens.
Des centaines de milliards de lignes de COBOL tournent encore dans les systèmes critiques des banques et des gouvernements. Problème : les développeurs capables de les maintenir disparaissent, à la retraite ou trop âgés. Claude, l'IA d'Anthropic, promet de résoudre l'équation impossible -- moderniser sans tout casser.
Le 20 février 2026, la société américaine Anthropic annonçait le lancement de Claude Code Security, une nouvelle brique de cybersécurité automatisée intégrée directement à son outil de génération de code. L’annonce a provoqué un vent de panique sur les marchés : les valeurs des grandes sociétés de cybersécurité ont vacillé, certains y voyant une rupture brutale du modèle existant. Pourtant, la réalité technique se révèle beaucoup plus nuancée.
Le 20 février 2026, la société américaine Anthropic annonçait le lancement de Claude Code Security, une nouvelle brique de cybersécurité automatisée intégrée directement à son outil de génération de code. L’annonce a provoqué un vent de panique sur les marchés : les valeurs des grandes sociétés de cybersécurité ont vacillé, certains y voyant une rupture brutale du modèle existant. Pourtant, la réalité technique se révèle beaucoup plus nuancée.
Lors du sommet sur l’impact de l’intelligence artificielle organisé en Inde du 16 au 20 février 2026, Sam Altman et Dario Amodei ont refusé de se serrer la main pendant un salut collectif. Une interaction qui relance l’attention autour de la rivalité entre OpenAI et Anthropic.
Gemini 3.1 Pro marque une accélération nette dans la stratégie IA de Google. Plus puissant en raisonnement et largement amélioré sur le code et les usages agentiques, le nouveau modèle s’attaque frontalement aux positions revendiquées par Anthropic et OpenAI -- tout en conservant les mêmes tarifs.
Un lave-auto à 100 mètres : faut-il y aller à pied ou en voiture ? Derrière cette question en apparence absurde se cache un test redoutablement efficace pour évaluer le raisonnement des modèles d’IA. Numerama a obtenu des réponses parfois très justes… et parfois étonnamment à côté du sujet.
Un lave-auto à 100 mètres : faut-il y aller à pied ou en voiture ? Derrière cette question en apparence absurde se cache un test redoutablement efficace pour évaluer le raisonnement des modèles d’IA. Numerama a obtenu des réponses parfois très justes… et parfois étonnamment à côté du sujet.
Annoncé le 17 février 2026, Claude Sonnet 4.6 incarne la nouvelle offensive d’Anthropic. Plus ambitieux en programmation, en agents et en traitement de documents volumineux, le modèle vise à rapprocher les performances d’Opus sans augmenter ses tarifs.
OpenAI colle des pubs dans ChatGPT, et pendant ce temps, Anthropic fait exactement l'inverse puisqu'ils viennent d'ouvrir tous les outils premium de Claude aux utilisateurs gratuits.
Création de fichiers Excel, PowerPoint, Word, PDF (oui, tout ça)... c'était autrefois réservé aux abonnés Pro et depuis hier, c'est accessible à tout le monde ! Vous pouvez donc créer un tableau Excel avec des formules, un PowerPoint bien formaté, ou un document Word prêt à envoyer.
Côté connecteurs, vous pouvez brancher Claude directement sur Slack, Notion, Figma, WordPress, Zapier, Stripe, Canva, Asana et même PayPal. En gros, l'IA va chercher des infos dans vos outils et agit dessus plutôt que de vous laisser faire du copier-coller.
Y'a aussi les Skills (pour expliquer rapidos, ce sont des fichiers d'automatisation) que vous configurez pour que l'assistant fasse des tâches répétitives à votre place. Du coup, si vous
avez déjà bidouillé avec ses capacités de dev
, vous voyez l'intérêt d'avoir ça.
Anthropic a aussi glissé la "conversation compaction" qui garde le contexte sur des échanges plus longs. Le modèle pour les gratuits, c'est Sonnet 4.5 et les abonnés Pro à 20$/mois gardent Opus. Attention quand même, les limites d'utilisation n'ont PAS bougé parce que bon, faut bien vendre le Pro. Donc au bout de quelques échanges, ça sera moins chouette ^^... sauf si vous passez à la caisse, évidemment.
Moi je suis pas super fan de leur application Desktop et je préfère largement la version Claude Code en CLI mais bon, c'est juste une question de goût, car ça marche tout aussi bien.
Bref, entre les pubs d'OpenAI et les outils gratuits d'Anthropic... le choix est vite fait ! Anthropic est à un virage important et il ne faut pas qu'ils se loupent, car les gens sont (
enfin
) en train de se rendre compte que leur Claude est biiiiien au dessus de ce que propose ChatGPT.
Claude Code, c'est super puissant... mais faut avouer que dans un terminal, quand l'IA commence à enchaîner les appels d'outils dans tous les sens, on se retrouve vite à lire de la Matrice sans les lunettes de Neo. Surtout si vous tentez le coup depuis un iPad ou un mobile, ça pique.
Mais c'était sans compter sur
Companion
, un projet open source qui vous colle une interface web par-dessus Claude Code. En gros, au lieu de scroller frénétiquement dans votre terminal comme un hamster sous caféine, vous avez une vraie UI avec des blocs rétractables, de la coloration syntaxique et une vue claire de ce que l'agent fabrique. Ça tourne sur desktop, mobile, tablette... bref, partout où y'a un navigateur. D'ailleurs, si vous préférez une
app desktop native
, y'a aussi Opcode qui fait le taf.
Le truc trop cool c'est que ça peut gérer plusieurs sessions en parallèle. Vous pouvez donc jongler entre différentes instances de Claude Code, chacune avec ses propres permissions. D'ailleurs, y'a 4 modes de permission : du "je valide tout à la main" au "YOLO bypass all" pour ceux qui aiment vivre dangereusement... et qui n'ont pas installé de
plugin de sécurité
(on vous aura prévenus).
Chaque appel d'outil (Bash, Read, Write, WebSearch...) est affiché et vous pouvez approuver, refuser ou même éditer les commandes avant exécution. Si vous utilisez des sub-agents, Companion affiche les tâches imbriquées sous le parent. C'est propre.
Et puis y'a ce petit détail qui fait plaisir à savoir une barre de progression colorée qui montre l'occupation de votre fenêtre de contexte avec une estimation du coût en temps réel. Parce que bon, savoir que votre session de debug à 3h du mat' vient de vous coûter l'équivalent d'un kebab, c'est quand même pratique. Mais est ce que ça vous coûte vraiment de l'argent ??? Hé bien le projet utilise le flag un peu caché --sdk-url de Claude Code pour communiquer via WebSocket sur le port 3456.
Et au cas où vous vous demanderiez, pas besoin de clé API supplémentaire puisque ça se branche directement sur votre abo Claude Pro ou Team (même si Anthropic vient d'
ouvrir pas mal d'outils aux gratuits
).
Pour l'installer, c'est pas la mer à boire. Faut juste avoir Bun sur votre bécane, et ensuite :
bunx the-vibe-companion
Ensuite vous ouvrez http://localhost:3456 et c'est parti. Pour les bidouilleurs, tout le code est sur GitHub, un bun install dans le dossier companion/web et vous avez votre instance de dev. Après y'a plus qu'à installer
Tailscale
(ou votre propre VPN local) et vous avez accès à votre Claude Code depuis n'importe où.
Attention quand même, le protocole WebSocket est reverse-engineeré, donc si Anthropic change un truc demain... bon, vous voyez le délire, ça peut casser. Et si vous voulez en savoir plus sur les coulisses du
protocole MCP
d'Anthropic, j'en avais parlé il y a quelque temps. Mais en attendant, ça marche nickel et ça rend Claude Code nettement plus digeste qu'un terminal brut.