Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 13 février 2026Flux principal

Google Gemini repasse devant Claude : le nouveau Deep Think bat tous les records

13 février 2026 à 11:20

Deux mois après avoir lancé une première version de Gemini 3 Deep Think sous la barrière Gemini Ultra (275 euros par mois), Google actualise le « raisonnement » de son modèle dédié aux scientifiques et aux mathématiciens. Le résultat est sans appel : Google a de nouveau le modèle le plus avancé du marché, même s'il ne se destine pas encore à tout le monde.

Hier — 12 février 2026Flux principal

Claude ouvre ses outils pro à tous (et y'a zéro pub)

Par : Korben
12 février 2026 à 10:20

OpenAI colle des pubs dans ChatGPT, et pendant ce temps, Anthropic fait exactement l'inverse puisqu'ils viennent d'ouvrir tous les outils premium de Claude aux utilisateurs gratuits.

Création de fichiers Excel, PowerPoint, Word, PDF (oui, tout ça)... c'était autrefois réservé aux abonnés Pro et depuis hier, c'est accessible à tout le monde ! Vous pouvez donc créer un tableau Excel avec des formules, un PowerPoint bien formaté, ou un document Word prêt à envoyer.

Côté connecteurs, vous pouvez brancher Claude directement sur Slack, Notion, Figma, WordPress, Zapier, Stripe, Canva, Asana et même PayPal. En gros, l'IA va chercher des infos dans vos outils et agit dessus plutôt que de vous laisser faire du copier-coller.

Y'a aussi les Skills (pour expliquer rapidos, ce sont des fichiers d'automatisation) que vous configurez pour que l'assistant fasse des tâches répétitives à votre place. Du coup, si vous avez déjà bidouillé avec ses capacités de dev , vous voyez l'intérêt d'avoir ça.

Anthropic a aussi glissé la "conversation compaction" qui garde le contexte sur des échanges plus longs. Le modèle pour les gratuits, c'est Sonnet 4.5 et les abonnés Pro à 20$/mois gardent Opus. Attention quand même, les limites d'utilisation n'ont PAS bougé parce que bon, faut bien vendre le Pro. Donc au bout de quelques échanges, ça sera moins chouette ^^... sauf si vous passez à la caisse, évidemment.

Moi je suis pas super fan de leur application Desktop et je préfère largement la version Claude Code en CLI mais bon, c'est juste une question de goût, car ça marche tout aussi bien.

Bref, entre les pubs d'OpenAI et les outils gratuits d'Anthropic... le choix est vite fait ! Anthropic est à un virage important et il ne faut pas qu'ils se loupent, car les gens sont ( enfin ) en train de se rendre compte que leur Claude est biiiiien au dessus de ce que propose ChatGPT.

Source

Claude AI améliore sa version gratuite : Anthropic défie ChatGPT avec plusieurs nouveautés

12 février 2026 à 10:58

Plusieurs fonctionnalités populaires de l’IA Claude, développée par Anthropic et jusqu’ici réservées aux abonnés payants, deviennent gratuites, a annoncé l’entreprise le 11 février 2026. Une décision qui relance un peu plus la rivalité avec OpenAI.

À partir d’avant-hierFlux principal

Super Bowl : avez-vous vu l’énorme erreur dans la pub d’OpenAI ?

9 février 2026 à 11:51

Pour vendre son nouvel agent Codex aux utilisateurs de PC, OpenAI a diffusé lors du Super Bowl 2026 une publicité montrant… une interface macOS maquillée sur un ordinateur Windows. Un faux raccord repéré par les internautes, qui trahit sûrement un retard technique.

Anthropic lance Claude Opus 4.6, OpenAI réplique immédiatement avec GPT-5.3-Codex

5 février 2026 à 19:29

wikipédia cerveau AI IA intelligence artificielle

Un jour après une dispute publique entre OpenAI et Anthropic, les deux géants de l'intelligence artificielle ont publié deux nouveaux modèles haut de gamme qui battent de nouveaux records dans leurs catégories respectives. Anthropic a dévoilé Claude Opus 4.6 vers 18h40, OpenAI a riposté vingt minutes plus tard avec GPT-5.3-Codex pour les développeurs (la cible de Claude).

Anthropic (Claude) se moque de ChatGPT dans une pub : OpenAI répond, très agacé

5 février 2026 à 10:24

Attaqué de toutes parts par Google et xAI (Elon Musk), OpenAI n'avait pas vu venir la nouvelle campagne publicitaire d'Anthropic. Le créateur de Claude AI va diffuser au Super Bowl quatre courts spots qui se moquent de l'arrivée de la publicité dans ChatGPT. Sam Altman, le patron d'OpenAI, n'apprécie pas du tout cette attaque et a publié un long message sur les réseaux sociaux.

Claude Code - Comment activer le mode Swarms caché

Par : Korben
26 janvier 2026 à 11:49

Vous utilisez Claude Code, le CLI d'Anthropic ? Hé bien figurez-vous qu'il y a des fonctionnalités cachées dedans, et pas des moindres ! Un dev nommé Mike Kelly a fouillé dans le JavaScript minifié du CLI et il a découvert un truc dingue : un mode "Swarms" qui transforme votre assistant en véritable chef d'équipe capable de déléguer le travail à plusieurs agents en parallèle.

En gros, au lieu de parler à une seule IA qui code, vous parlez à un team lead. Et ce team lead, lui, il ne code pas... il planifie, découpe les tâches et les dispatche à une équipe de spécialistes qui bossent en même temps. Du coup quand vous validez un plan, il spawn plusieurs agents workers qui partagent un tableau de tâches, communiquent entre eux via une sorte de boîte aux lettres interne, et reviennent vous faire leur rapport une fois le boulot terminé.

Le truc c'est que cette fonctionnalité existe DÉJÀ dans le code de l'outil CLI, mais elle est verrouillée derrière un feature flag côté serveur (un truc qui s'appelle tengu_brass_pebble pour les curieux). Mike a donc créé claude-sneakpeek , un outil qui patche le CLI pour forcer ce flag à true. Hop, les fonctionnalités cachées deviennent accessibles. Si vous avez déjà lu mon article sur Auto-Claude , vous voyez le genre... Ce sont des agents en parallèle qui bossent pendant que vous faites autre chose, genre lire mes articles pour entrapercevoir le futur ^^.

Ce qui se débloque

Une fois le patch appliqué, vous avez accès à :

  • TeammateTool : pour spawner des équipes d'agents
  • Delegate mode : le Task tool peut lancer des agents en arrière-plan
  • Teammate mailbox : les agents peuvent s'envoyer des messages entre eux
  • Swarm spawning : orchestration native multi-agents

Concrètement, quand vous demandez une tâche complexe, l'IA peut maintenant découper le travail, créer des sous-tâches avec dépendances, et lancer plusieurs workers qui vont bosser en parallèle sur leurs morceaux respectifs. Et ça consomme moins de tokens que de tout faire séquentiellement, contrairement à ce qu'on pourrait croire.

Comment l'installer

L'installation est hyper simple. Vous lancez :

npx @realmikekelly/claude-sneakpeek quick --name claudesp

Ensuite, ajoutez le dossier bin à votre PATH si c'est pas déjà fait :

echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.zshrc && source ~/.zshrc

Et voilà, vous pouvez lancer claudesp au lieu de claude pour avoir la version avec les features débloquées !

Le truc bien pensé, c'est que ça installe une instance COMPLÈTEMENT isolée. Votre installation normale de l'outil CLI reste intacte, avec sa propre config, ses sessions et ses serveurs MCP. Zéro interférence.

Comment ça marche sous le capot

Pour les curieux qui veulent comprendre le hack, c'est assez chouette. En fait, le CLI est du JavaScript minifié, et il contient une fonction qui ressemble à ça :

function i8(){if(Yz(process.env.CLAUDE_CODE_AGENT_SWARMS))return!1;return xK("tengu_brass_pebble",!1)}

Cette fonction vérifie le feature flag côté serveur. Le patch la remplace simplement par :

function i8(){return!0}

Bref, au lieu de checker le flag, ça retourne toujours true. Simple mais efficace.

Pour mettre à jour ou désinstaller

npx @realmikekelly/claude-sneakpeek update claudesp
# Mise à jour

npx @realmikekelly/claude-sneakpeek remove claudesp
# Désinstallation

Voilà, si vous êtes fan d'automatisation et que vous voulez pousser le CLI dans ses retranchements, c'est clairement un truc à tester ! Le mode Swarms change la donne pour les projets complexes où paralléliser les tâches fait gagner un temps fou.

Source

C’est quoi Clawdbot, le programme qui permet à l’IA de contrôler votre ordinateur ?

26 janvier 2026 à 10:44

Clawdbot, un assistant personnel dopé à l’IA, promet de gérer mails, navigation web, scripts et même domotique à votre place. Mais son succès fulgurant, et la façon dont il est déployé, en font déjà l’un des outils les plus fascinants… et les plus sensibles du moment.

Claude Cowork – Quand l'IA d'Anthropic se fait exfiltrer vos fichiers

Par : Korben
15 janvier 2026 à 15:39

Ah, encore une merveilleuse petite faille de sécurité qui va ravir tous les paranos de la vie privée et les anti-IA ^^ ! Johann Rehberger et l'équipe de PromptArmor viennent de démontrer comment Claude Cowork , l'agent IA d'Anthropic censé vous simplifier la vie au bureau, peut se transformer en aspirateur à fichiers personnels.

J'imagine que si vous l'avez testé, vous avez un dossier connecté à Claude Cowork pour qu'il vous aide à analyser vos documents ? Parfait. Il suffit maintenant qu'un petit malin glisse un fichier Word contenant des instructions cachées, et hop hop hop, vos précieux fichiers partent se balader sur un serveur distant sans que vous n'ayez rien vu venir.

En fait, le fichier piégé contient du texte invisible pour l'œil humain, mais parfaitement lisible par l'IA. Genre une police en taille 1px, de couleur blanche sur fond blanc, avec un interligne de 0,1 histoire d'être vraiment sûr que personne ne le remarque. C'est beau la créativité des hackers, quand même.

Et l'IA, elle, lit tout ça comme si c'était normal et exécute gentiment les instructions malveillantes.

La chaîne d'attaque se déroule en cinq étapes bien huilées. D'abord, l'attaquant dépose son fichier vérolé dans un dossier partagé auquel Claude a accès. Ensuite, il attend qu'un utilisateur demande à l'IA d'analyser le contenu de ce dossier. Claude traite alors le fichier piégé et découvre les instructions cachées. L'IA effectue une requête qui envoie vos fichiers vers l'API Anthropic... sauf que les identifiants utilisés appartiennent à l'attaquant. Vos données atterrissent donc tranquillement dans son compte, sans que vous n'ayez la moindre notification.

Ce qui rend cette attaque particulièrement sournoise, c'est que la sandbox de Claude autorise les requêtes sortantes vers l'API d'Anthropic. Normal, me direz-vous, c'est son propre écosystème. Sauf que du coup, un attaquant bien motivé peut exploiter cette confiance aveugle pour faire transiter des données volées par un canal parfaitement légitime en apparence. Si vous suivez les vulnérabilités des systèmes RAG comme ConfusedPilot , vous reconnaîtrez le même genre de manipulation par injection de contenu.

Et ce n'est pas tout ! Les chercheurs ont également identifié un vecteur potentiel de déni de service. En créant un fichier avec une extension qui ne correspond pas à son contenu réel, genre un fichier texte déguisé en PDF, on peut provoquer des erreurs en cascade qui paralysent l'API de manière persistante.

Sympa pour bloquer un concurrent ou saboter un projet.

Côté modèles affectés, les chercheurs ont démontré la vulnérabilité sur plusieurs versions de Claude, dont Haiku. Bref, c'est du sérieux. Pour ceux qui s'intéressent aux failles de sécurité des assistants IA ou aux techniques de red teaming sur les LLM , cette recherche vaut vraiment le détour.

Anthropic a été notifié et travaille sur des correctifs. En attendant, si vous utilisez Claude Cowork avec des dossiers partagés, méfiez-vous de tout fichier qui pourrait traîner là sans raison apparente. Et la prochaine fois que quelqu'un vous envoie un document "urgent à analyser", prenez peut-être cinq secondes pour vous demander s'il ne cache pas une petite surprise.

Pour en savoir plus c'est par ici !

C’est inédit, la Chine aurait mené « la première campagne de cyberespionnage orchestrée par IA »

14 novembre 2025 à 11:03

Dans une étude publiée le 13 novembre 2025, la société américaine Anthropic met en lumière ce qu’elle considère comme « la première campagne de cyberespionnage orchestrée par IA ». Dans cette opération, attribuée à un acteur chinois, les outils d’intelligence artificielle ne servent plus seulement d’appuis, mais jouent un rôle autonome dans différentes phases de l’attaque.

❌
❌