Condamné par les vétérinaires à voir sa chienne mourir d’un cancer avancé, un ingénieur australien a décidé de concevoir lui-même un traitement expérimental. En s’aidant notamment de ChatGPT et d’outils d’IA, il a participé à la création d’un vaccin anticancéreux personnalisé à ARN messager pour son animal.
Le framework d'IA agentique OpenClaw est dans le viseur des autorités chinoises. Le 10 mars 2026, le CERT national a publié une liste de recommandations pour encadrer son usage, tandis que des banques publiques et administrations auraient reçu des instructions directes pour en interdire l'installation.
Le framework d'IA agentique OpenClaw est dans le viseur des autorités chinoises. Le 10 mars 2026, le CERT national a publié une liste de recommandations pour encadrer son usage, tandis que des banques publiques et administrations auraient reçu des instructions directes pour en interdire l'installation.
En juin 2026, Canal+ déploiera un nouveau moteur de recherche dans son application Canal+ (ex-myCANAL). Un modèle de langage OpenAI sera en charge de la recherche, ce qui devrait faciliter certaines requêtes et permettre de poser des questions en langage naturel.
Juste après avoir officialisé GPT-5.3 Instant pour les réponses rapides dans ChatGPT, OpenAI dévoile GPT-5.4 Thinking et GPT-5.4 Pro, ses deux nouveaux meilleurs modèles. Cette course effrénée semble avoir un seul but : rattraper Google et Anthropic.
Plus de 600 employés de Google et OpenAI ont signé une lettre ouverte baptisée « We Will Not Be Divided », pour demander des limites claires sur l'usage militaire de l'IA. Le nombre de signataires est monté à près de 900 en quelques jours. Il y a deux gros problèmes dans cette histoire : la surveillance de masse et les armes autonomes. Le contexte est tellement tendu que le Pentagone a même blacklisté Anthropic pour avoir refusé de coopérer.
Une lettre, deux lignes rouges
La lettre, publiée le 28 février sur le site notdivided.org, a d'abord réuni 573 employés de Google et 93 d'OpenAI. En quelques jours, le compteur est monté à près de 900 signatures, dont 800 côté Google. Les signataires posent deux lignes rouges : pas de surveillance de masse des citoyens américains, et pas de systèmes d'armes autonomes sans supervision humaine. « Les responsables gouvernementaux tentent de pousser les entreprises d'IA à abandonner certaines limites éthiques. Cette stratégie ne fonctionne que si aucun de nous ne sait où se situent les autres », peut-on lire dans la lettre.
Anthropic blacklisté par le Pentagone
Tout est parti d'un bras de fer entre Anthropic et le Pentagone. Le département de la Défense avait donné un ultimatum à Anthropic : lever ses restrictions sur Claude pour permettre son utilisation dans la surveillance domestique et les armes autonomes, ou perdre ses contrats fédéraux. Anthropic a refusé. La réponse a été immédiate : Trump a ordonné l'arrêt de toute utilisation des produits Anthropic par les agences fédérales, et le secrétaire à la Défense Pete Hegseth a désigné l'entreprise comme « risque pour la chaîne d'approvisionnement ». Le gouvernement a même menacé d'invoquer le Defense Production Act, une loi datant de la guerre de Corée, pour forcer Anthropic à coopérer. Et quelques heures après ce refus, OpenAI annonçait un accord avec le Pentagone pour déployer ses modèles sur les réseaux classifiés.
Altman tente de calmer le jeu
Sam Altman a organisé une session de questions-réponses sur X le samedi 1er mars. Il a reconnu que l'accord avait été « précipité » et que « les apparences ne sont pas bonnes ». Sa justification : vouloir « désamorcer » les tensions entre le Pentagone et Anthropic, et éviter que le gouvernement ne force les entreprises privées à coopérer. Sauf que l'accueil a été glacial. L'application Claude est montée à la deuxième place de l'App Store en téléchargements, les bureaux d'OpenAI à San Francisco ont été recouverts de graffitis, et l'un des employés d'OpenAI, Leo Gao, a qualifié les protections du contrat de « décoration de vitrine ».
Le timing d'OpenAI, qui a signé avec le Pentagone le jour même où Anthropic se faisait blacklister, est quand même difficile à avaler. Altman peut dire ce qu'il veut, ça ressemble surtout à du pur opportunisme. Le plus parlant, c'est que le grand public a spontanément pris le parti d'Anthropic, et que les propres employés d'OpenAI contestent l'accord. Perso, j'attends de voir si les lignes rouges réclamées par les salariés déboucheront sur de vraies politiques internes. Pour le moment, c'est Anthropic qui sort grandi de cette séquence, l'air de rien.
Quelques jours après avoir annoncé un contrat avec le département américain de la Défense, OpenAI évoque désormais un possible accord avec l’OTAN. L’entreprise avance en terrain miné, profitant d'une ouverture inédite de l'Alliance politico-militaire aux technologies grand public.
82 314 dollars, c'est l'incroyable facture que s'est mangé un dev mexicain après 48 heures d'utilisation frauduleuse de sa clé API Gemini. Sa dépense habituelle était de 180 dollars par mois environ, j'imagine que ça lui a fait un peu mal aux fesses. Et c'est une bonne raison pour moi de vous inciter une nouvelle fois à bien sécuriser vos clés API !
Le gars bosse dans une petite startup et de ce que j'ai compris, quelqu'un a chopé ses credentials et s'est lâché sur Gemini 3 Pro pendant deux jours. La réponse de Google ? "Responsabilité partagée". En gros, eux sécurisent l'infra, et vous sécurisez vos clés. Si vous vous faites plumer, c'est votre problème !
Et c'est pas un cas isolé car les chercheurs de Truffle Security ont scanné le web et trouvé 2 863 clés Google API exposées en clair sur des sites publics. Toutes identifiables par le préfixe AIza.
Sauf que comme je vous l'expliquais dans un article précédent,
ces clés, à la base, étaient conçues comme de simples identifiants de projet pour Maps et Firebase
et la doc Google disait carrément qu'elles n'étaient pas secrètes ! Et quand l'API Gemini a été activée sur ces projets, hé bien ces clés sont devenues des clés d'authentification, sans que personne ne réalise ce changement de paradigme.
Mais bon, plutôt que de chialer comme des fragiles, voyons comment éviter de se retrouver dans cette situation ^^.
Scanner vos secrets existants
Avant tout, faut savoir si vous avez déjà des fuites. Deux outils open source font ça très bien.
TruffleHog
scanne vos dépôts Git, vos fichiers, et même vos buckets S3 pour trouver des secrets qui traînent. L'install est simple :
Le flag --only-verified c'est le truc important, ça teste si les secrets trouvés sont encore ACTIFS. Parce que trouver une vieille clé révoquée, on s'en fiche. Attention, ça ne marche pas sur les repos privés sans token d'accès.
Y'a aussi
Nosey Parker
qui fait le même genre de boulot mais perso, je trouve TruffleHog plus complet pour les clés cloud, même si Nosey Parker est plus rapide pour les gros repos.
Après si vous bossez avec des clés Google spécifiquement, cherchez le pattern AIza dans votre code. Un simple grep suffit :
Scanner c'est bien, mais empêcher les secrets d'atterrir dans Git, c'est mieux. Et pour cela, rien de plus simple... Suffit d'installer un pre-commit hook.
Du coup, chaque git commit vérifie automatiquement qu'il n'y a pas de clé AWS qui traîne. Vous pouvez ajouter vos propres patterns (genre AIza pour Google) :
Le deuxième pattern, c'est pour les clés OpenAI (format sk-proj-). D'ailleurs, stockez TOUT dans des fichiers .env et vérifiez que .env est dans votre .gitignore. Ça devrait être un réflexe ! Le piège classique c'est surtout le fichier .env.example qui contient en fait de vraies clés... c'est du vu et revu sur GitHub.
Pour aller plus loin,
Vault de HashiCorp
gère également vos secrets de manière centralisée avec du chiffrement, de la rotation automatique et des audit logs. C'est carrément le niveau supérieur notamment pour les équipes. C'est bien plus safe que le .env .
Détecter un vol avant la catastrophe
Notre dev mexicain a découvert sa facture APRÈS 48 heures. Deux jours, c'est une éternité alors voilà comment réagir en minutes, et pas en jours.
Sur Google Cloud, allez dans Billing > Budgets & Alerts. Créez un budget avec des seuils à 50%, 90% et 100% de votre budget mensuel. Activez les notifications par email ET par Pub/Sub pour déclencher une Cloud Function qui coupe automatiquement les clés si le seuil est dépassé.
Chez OpenAI, c'est dans Settings > Billing > Usage limits. Vous pouvez définir un hard cap mensuel. Au-delà... plus rien ne passe. Même chose à peu près pour Claude d'Anthropic aussi...
Et surtout, activez la rotation automatique de vos clés. Sur Google Cloud :
Les restrictions d'API c'est pas un luxe donc sur chaque clé, limitez les services autorisés (Gemini uniquement si c'est son usage), les IPs sources et le nombre de requêtes par minute. Sauf si vous aimez les surprises à 5 chiffres sur votre relevé bancaire, une clé sans restriction, c'est une carte bleue sans plafond.
Perso, je me suis mis des alertes sur tous mes comptes cloud, que ce soit AWS, GCP ou Azure. Genre, si ça dépasse 50 balles en une journée... hop, notification sur le téléphone. Finalement, c'est 5 minutes de config qui peuvent vous éviter des mois de galère.
Depuis son lancement le 5 février 2026, Claude Opus 4.6, occupe les gros titres de l'actualité tech. Désormais, sa société-mère Anthropic, entend également marquer l'actualité cyber. Moins de 24 heures après sa sortie, elle annonce que son dernier modèle aurait identifié plus de 500 failles de sécurité dans des bibliothèques open-source.
Chris Lehane, directeur des affaires mondiales d'OpenAI, a confirmé lors du Forum économique mondial de Davos que l'entreprise préparait son premier appareil destiné au grand public. Il s'agirait d'écouteurs intelligents, dont le lancement est prévu pour le second semestre 2026, avec un objectif affiché de 40 à 50 millions d'unités écoulées la première année.
Dans une démonstration publiée sur LinkedIn le 16 janvier 2026, des chercheurs de Tenable ont révélé une faille de sécurité dans le nouvel outil d’OpenAI, ChatGPT Translate, rappelant les premières générations de garde‑fous appliqués aux agents LLM.
Les chercheurs de l’entreprise de cybersécurité Radware ont mis en garde, le 8 janvier 2026, contre une nouvelle attaque par injection indirecte visant ChatGPT. Cette offensive détourne une mécanique que l’on pensait réglée depuis quelques mois et cible spécifiquement l’outil Deep Research du chatbot.
L’armée américaine ouvre un nouveau cursus pour former des officiers spécialistes de l’IA et du machine learning, officiellement réunis sous l’appellation 49B AI/ML Officer. Objectif affiché : transformer l’US Army en force « data‑centrée », capable de mieux tirer parti de l’écosystème d’outils d’IA déjà déployés sur le terrain.
Le 27 décembre 2025, Sam Altman, patron d’OpenAI, maison mère de ChatGPT, a profité de son audience sur X pour partager une fiche de poste visiblement cruciale à ses yeux. L’entreprise cherche à recruter son prochain Chef de la préparation aux situations d’urgence. Un poste stratégique, très bien payé qui a déjà connu un turnover impressionnant au sein de l’organisation.
Depuis le 15 décembre 2025, Pornhub est victime du chantage du groupe de hackers ShinyHunters. Leur butin ? Les historiques de recherche et de visionnage des membres Premium du site pour adultes. La faille ne proviendrait pas des systèmes informatiques de Pornhub, mais de ceux d’un prestataire, déjà responsable d’une attaque similaire ayant visé OpenAI il y a quelques semaines.
Depuis le 3 novembre 2025 et la découverte d’une vulnérabilité React, une course effrénée s’est engagée dans l’écosystème cyber. D’un côté, les équipes de sécurité tentent de sécuriser leurs systèmes au plus vite ; de l’autre, les attaquants scannent l'Internet à grande échelle pour exploiter les retardataires. Les chercheurs suivent en temps réel l’évolution des campagnes d’attaque qui se greffent sur cette faille critique.
Dans un rapport publié le 9 décembre 2025, les chercheurs en cybersécurité de Kaspersky détaillent une vaste campagne malveillante qui exploite de manière détournée deux outils extrêmement populaires : la publicité en ligne via Google Ads et les conversations partagées sur ChatGPT.