Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 20 février 2026Flux principal

Microsoft Teams AI workflow templates in the Workflows app powered by Microsoft 365 Copilot

Par : IT Experts
20 février 2026 à 16:33
Workflow templates in the Workflows app (image Microsoft)
Microsoft has completed the global rollout of AI workflow templates in the Teams Workflows app, powered by Microsoft 365 Copilot, as of mid-February 2026 (Roadmap ID 500379). The feature introduces scheduled prompts — recurring, AI-driven automations that run without manual intervention. You can use pre-built templates to automate tasks such as weekly project summaries or data monitoring across the Microsoft 365 ecosystem. The feature is restricted to users with a Microsoft 365 Copilot license and is currently available only in Teams for Web and Teams for Mac.

Source

Hier — 19 février 2026Flux principal

Microsoft Security Dashboard for AI: Aggregate risk signals from Microsoft Defender, Microsoft Entra, and Microsoft Purview

Par : IT Experts
19 février 2026 à 16:33
Security Dashboard for AI (image Microsoft)
The Microsoft Security Dashboard for AI is a unified governance tool now available in public preview that aggregates real-time risk signals from Microsoft Defender, Microsoft Entra, and Microsoft Purview into a single interactive interface. Designed for CISOs and AI risk leaders, it provides inventory discovery, posture tracking, and remediation paths for AI agents, models, MCP servers, and applications. No additional licensing is required — access is included for organizations that already hold enterprise subscriptions to the relevant Microsoft security products.

Source

« J’y vais à pied ou en voiture ? » : pourquoi tout le monde pose cette question bête aux IA

18 février 2026 à 18:53

Un lave-auto à 100 mètres : faut-il y aller à pied ou en voiture ? Derrière cette question en apparence absurde se cache un test redoutablement efficace pour évaluer le raisonnement des modèles d’IA. Numerama a obtenu des réponses parfois très justes… et parfois étonnamment à côté du sujet.

« J’y vais à pied ou en voiture ? » : ce test de bon sens ridiculise les meilleures IA

18 février 2026 à 18:53

Un lave-auto à 100 mètres : faut-il y aller à pied ou en voiture ? Derrière cette question en apparence absurde se cache un test redoutablement efficace pour évaluer le raisonnement des modèles d’IA. Numerama a obtenu des réponses parfois très justes… et parfois étonnamment à côté du sujet.

À partir d’avant-hierFlux principal

What is ERC-8004? AI agents build trust using blockchain technology

Par : IT Experts
18 février 2026 à 16:00
ERC-8004 - AI agents build trust on the blockchain
Autonomous AI agents can perform complex tasks without human intervention, but face a critical challenge: how can they trust agents from other organizations? ERC-8004, developed by teams from the Ethereum Foundation, Google, Coinbase, and MetaMask, addresses this by providing a decentralized identity, reputation, and verification system for AI agents. Launched on Ethereum mainnet on January 29, 2026, the standard enables agents to discover reliable service providers and verify past performance. Over 20,000 AI agents were deployed across multiple blockchains within the first two weeks.

Source

La nouvelle star de l’IA derrière OpenClaw accuse l’Europe de faire fuir ses talents

18 février 2026 à 14:45

Le fondateur d’OpenClaw, désormais chez OpenAI, justifie son installation aux États-Unis par un climat réglementaire européen qu’il juge dissuasif. Une prise de position qui ravive les interrogations sur la capacité de l’UE à retenir ses talents technologiques.

Anthropic lance Claude 4.6 Sonnet : va-t-il réussir à rattraper ChatGPT et Google ?

18 février 2026 à 10:47

Annoncé le 17 février 2026, Claude Sonnet 4.6 incarne la nouvelle offensive d’Anthropic. Plus ambitieux en programmation, en agents et en traitement de documents volumineux, le modèle vise à rapprocher les performances d’Opus sans augmenter ses tarifs.

How to enable ChatGPT Lockdown Mode for enterprise security

Par : IT Experts
17 février 2026 à 17:31
ChatGPT's Lockdown Mode blocks file downloads, canvas access, and public web browsing to protect against potential attackers (image OpenAI)
ChatGPT Lockdown Mode is an advanced security setting designed to protect organizations against prompt-injection-based data exfiltration attacks. Introduced by OpenAI in February 2026, you can enable this optional feature through workspace settings if you manage enterprise ChatGPT accounts.

Source

Un nouveau constructeur soutient l’idée de la voiture européenne pas chère

16 février 2026 à 15:08

Hyundai soutient l'idée de l'Europe de vouloir proposer une voiture très abordable grâce à la création d'une nouvelle catégorie. Mais pour l'heure, le flou autour de la potentielle réglementation n'aide pas à se projeter.

What is Microsoft’s and Google’s new WebMCP standard?

Par : IT Experts
16 février 2026 à 14:21
The WebMCP standard enables AI agents to interact with web pages in a controlled way
WebMCP is a proposed web standard that enables websites to expose structured, callable tools directly to AI agents through a new browser API. Developed jointly by engineers at Google and Microsoft and incubated through the W3C's Web Machine Learning Community Group, WebMCP allows you to wrap your existing client-side JavaScript logic into agent-readable tools without re-architecting your web pages. Instead of AI agents relying on screen scraping or DOM manipulation to interact with websites, WebMCP provides a standardized way for agents to discover and invoke specific functions with defined schemas, ensuring more reliable and precise interactions.

Source

OpenAI débauche le créateur d’OpenClaw : bonne ou mauvaise nouvelle pour le futur de l’informatique ?

16 février 2026 à 10:36

Peter Steinberger, le créateur d'OpenClaw (ex-Moltbot et Clawdbot), rejoint OpenAI « pour piloter le développement de la prochaine génération d'agents personnels ». Son projet sera maintenu en vie sous la forme d'une fondation open source, que le développeur continuera de superviser. OpenAI réalise ici un des plus grands coups de 2026.

Claude Enterprise is now available for self-serve purchase without sales involvement

Par : IT Experts
13 février 2026 à 18:37
Claude Enterprise is now available for self-serve purchase without sales involvement
Anthropic announced on February 12, 2026, that Claude Enterprise is now available for direct self-serve purchase on its website, eliminating the need for sales conversations. Organizations can set up their workspace, configure single sign-on, and begin inviting team members within minutes.

Source

Disney attaque le modèle Seedance 2.0 qui génère des répliques parfaites de ses films grâce à l’IA

14 février 2026 à 12:12

Quelques jours après le lancement tonitruant de Seedance 2.0, le modèle IA capable de générer des vidéos, Disney envoie une mise en demeure à Bytedance. L'entreprise n'apprécie pas les vidéos virales qui mettent en scène Dark Vador ou Mickey avec un réalisme effrayant. L'entreprise, pourtant associée à OpenAI, parle d'un « pillage massif » de sa propriété intellectuelle.

Google Gemini repasse devant Claude : le nouveau Deep Think bat tous les records

13 février 2026 à 11:20

Deux mois après avoir lancé une première version de Gemini 3 Deep Think sous la barrière Gemini Ultra (275 euros par mois), Google actualise le « raisonnement » de son modèle dédié aux scientifiques et aux mathématiciens. Le résultat est sans appel : Google a de nouveau le modèle le plus avancé du marché, même s'il ne se destine pas encore à tout le monde.

VS Code agent orchestrations: A simple example

12 février 2026 à 16:07
VS Code agent orchestrations
Visual Studio Code version 1.109 introduces agent orchestrations — a feature that transforms the IDE into a multi-agent development platform. You can now create custom agents that collaborate, delegate tasks to specialized subagents, and execute complex workflows autonomously. This article explains the concept and demonstrates agent orchestration with a simple example. I'll also share my opinion on Microsoft's concept of agent orchestrations. It's not particularly favorable.

Source

The Vibe Companion - Une interface web pour piloter Claude Code

Par : Korben
10 février 2026 à 17:03

Claude Code, c'est super puissant... mais faut avouer que dans un terminal, quand l'IA commence à enchaîner les appels d'outils dans tous les sens, on se retrouve vite à lire de la Matrice sans les lunettes de Neo. Surtout si vous tentez le coup depuis un iPad ou un mobile, ça pique.

Mais c'était sans compter sur Companion , un projet open source qui vous colle une interface web par-dessus Claude Code. En gros, au lieu de scroller frénétiquement dans votre terminal comme un hamster sous caféine, vous avez une vraie UI avec des blocs rétractables, de la coloration syntaxique et une vue claire de ce que l'agent fabrique. Ça tourne sur desktop, mobile, tablette... bref, partout où y'a un navigateur. D'ailleurs, si vous préférez une app desktop native , y'a aussi Opcode qui fait le taf.

Le truc trop cool c'est que ça peut gérer plusieurs sessions en parallèle. Vous pouvez donc jongler entre différentes instances de Claude Code, chacune avec ses propres permissions. D'ailleurs, y'a 4 modes de permission : du "je valide tout à la main" au "YOLO bypass all" pour ceux qui aiment vivre dangereusement... et qui n'ont pas installé de plugin de sécurité (on vous aura prévenus).

Chaque appel d'outil (Bash, Read, Write, WebSearch...) est affiché et vous pouvez approuver, refuser ou même éditer les commandes avant exécution. Si vous utilisez des sub-agents, Companion affiche les tâches imbriquées sous le parent. C'est propre.

Et puis y'a ce petit détail qui fait plaisir à savoir une barre de progression colorée qui montre l'occupation de votre fenêtre de contexte avec une estimation du coût en temps réel. Parce que bon, savoir que votre session de debug à 3h du mat' vient de vous coûter l'équivalent d'un kebab, c'est quand même pratique. Mais est ce que ça vous coûte vraiment de l'argent ??? Hé bien le projet utilise le flag un peu caché --sdk-url de Claude Code pour communiquer via WebSocket sur le port 3456.

Et au cas où vous vous demanderiez, pas besoin de clé API supplémentaire puisque ça se branche directement sur votre abo Claude Pro ou Team (même si Anthropic vient d' ouvrir pas mal d'outils aux gratuits ).

Pour l'installer, c'est pas la mer à boire. Faut juste avoir Bun sur votre bécane, et ensuite :

bunx the-vibe-companion

Ensuite vous ouvrez http://localhost:3456 et c'est parti. Pour les bidouilleurs, tout le code est sur GitHub, un bun install dans le dossier companion/web et vous avez votre instance de dev. Après y'a plus qu'à installer Tailscale (ou votre propre VPN local) et vous avez accès à votre Claude Code depuis n'importe où.

Attention quand même, le protocole WebSocket est reverse-engineeré, donc si Anthropic change un truc demain... bon, vous voyez le délire, ça peut casser. Et si vous voulez en savoir plus sur les coulisses du protocole MCP d'Anthropic, j'en avais parlé il y a quelque temps. Mais en attendant, ça marche nickel et ça rend Claude Code nettement plus digeste qu'un terminal brut.

Allez jeter un œil !

Atlas fait ses adieux en salto

Par : Korben
10 février 2026 à 15:39

Atlas , le robot humanoïde de Boston Dynamics, vient de faire ses adieux en beauté. Et quand je dis en beauté, c'est salto arrière enchaîné avec une roue... le tout sans se vautrer la gueule. Pas mal pour une machine de 90 kg !

Cette vidéo "Atlas Airborne" publiée il y a quelques jours, c'est en gros le pot de départ de ce modèle de recherche. Celui qui nous a fait halluciner depuis 2013 avec ses cascades de parkour et ses backflips, sauf que cette fois, les ingénieurs ont voulu pousser le curseur au maximum avant de ranger le bonhomme au placard.

Les ingés ont bossé avec le RAI Institute (le labo fondé par Marc Raibert en 2022, après avoir quitté la direction de Boston Dynamics) pour développer un truc qui s'appelle le "whole-body learning". En gros, c'est de l'apprentissage par renforcement appliqué au corps entier du robot, et pas juste aux jambes ou aux bras séparément.

Tout ce qu'Atlas apprend en simulation (via IsaacLab, le framework de Nvidia basé sur Python), il le reproduit alors direct sur le vrai hardware. Y'a besoin d'aucun ajustement et ça s'appelle le "zero-shot transfer"... c'est-à-dire que vous entraînez le robot dans un monde virtuel sur GPU, hop, vous le branchez dans le monde réel et ça marche du premier coup. Bon, "du premier coup" c'est la théorie évidemment, car pratique, ça plante probablement 3 fois sur 10, sauf que la vidéo promo ne montre pas les gamelles.

Le plus tordu dans l'histoire, c'est que cette même techno qui lui permet de faire des acrobaties est celle qui lui donne sa démarche naturelle (celle qui a été primée "Best Robot" au CES en janvier). Un seul framework pour tout, de la roulade au rangement de cartons, c'est dingue quand même !

Et pendant que la version recherche fait le show, l'autre Atlas, le nouveau, se prépare à rentrer à l'usine . D'après Hyundai, le bestiau devrait débarquer dans leur Metaplant à Savannah en Géorgie d'ici 2028 pour du tri de pièces, puis de l'assemblage de composants d'ici 2030. Il embarque 56 degrés de liberté et un gripper tactile avec pouce opposable... en gros, des mains presque humaines. J'aurais préféré qu'ils gardent le modèle acrobate plutôt que de tout miser sur l'ouvrier, parce que le parkour c'est quand même carrément plus fun à regarder, mais bon, c'est pas (encore) moi qui signe les chèques chez Hyundai.

De son côté, le robot Spot a déjà atteint les 19 km/h grâce au même type d'apprentissage par renforcement (contre 5,8 km/h en config d'usine, soit plus du triple). Ça promet pour la version industrielle d'Atlas.

Après je crois me souvenir que le problème sur le Spot c'était pas les moteurs mais les batteries qui ne suivaient plus. Sauf si Hyundai a trouvé une solution côté autonomie, Atlas aura donc le même souci à l'échelle humanoïde... parce que faire un salto c'est rigolo, mais tenir 8h sur une chaîne de montage c'est un autre délire.

Je ne sais pas si vous avez déjà regardé la vidéo mais quand le robot se loupe légèrement sur un atterrissage, il corrige en temps réel avec un micro-repositionnement du pied. Comme un ajustement instinctif... c'est subtil et finalement très... humain.

J'suis pas pressé de me faire courser par ces trucs.

Scan OpenClaw agent skills for security vulnerabilities with the Cisco AI Skill Scanner

9 février 2026 à 14:23
Configuring OpenClaw in the terminal
OpenClaw, previously known as Clawdbot and briefly as Moltbot, is a free, open‑source personal AI agent that runs locally on your computer, enabling you to automate any task a human can perform on a computer. It gained rapid popularity, accumulating 100,000 GitHub stars in record time, along with tens of thousands of forks as it went viral. OpenClaw skills pose severe security risks because they are unvetted modules that may contain hidden, malicious instructions for the agent's model. These harmful instructions could result in API key leaks, data theft, credential compromise, and system breaches due to malicious code execution. This guide covers OpenClaw skill structure, known security incidents, and step-by-step instructions for scanning agent skills with the Cisco AI Skill Scanner. The Cisco AI Skill Scanner provides comprehensive security analysis of OpenClaw agent skills before installation, detecting malware, data exfiltration, and prompt-injection vulnerabilities.

Source

❌
❌