Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 29 avril 2026Flux principal

DOOM tourne aussi dans ChatGPT et Claude (évidemment)

Par : Korben ✨
29 avril 2026 à 09:31

DOOM a déjà été porté sur des thermostats, des tests de grossesse, et même un piano ! Manquait donc plus que les chatbots IA !

Et voilà que c'est fait puisque Chris Nager vient de faire tourner DOOM dans ChatGPT et Claude, jouable directement dans la fenêtre du chat.

Le truc tient en deux outils MCP. Pour rappel, MCP (Model Context Protocol), c'est le protocole standard qui permet à une IA d'appeler des outils externes.

Ici donc, create_doom_session lance le jeu inline dans l'application, et get_doom_launch_url renvoie une URL de fallback pour les clients qui ne savent pas afficher d'UI inline.

Sous le capot, c'est cloudflare/doom-wasm qui tourne, avec les assets libres de Freedoom Phase 1, le tout écrit en TypeScript et hébergé sur Netlify. Vous tapez "lance DOOM" dans Claude, ça démarre le rendu canvas directement dans la fenêtre de chat, et hop, les démons sont là !

Pour ceux qui débarquent, DOOM est sorti en décembre 1993, et le running gag "can it run DOOM?" remonte à la fin des années 90, quand id Software a libéré le code source du jeu en 1997. Et depuis 30 ans, DOOM tourne déjà sur tout un tas de matos comme des distributeurs de billets, des oscilloscopes, des frigos, ou même des satellites en orbite... la liste est sans fin !

Y'a même un type qui avait fait tourner DOOM avec du CSS dans un navigateur le mois dernier. Alors c'est sûr que ChatGPT et Claude étaient déjà sur la liste des prochaines cibles évidentes.

Alors pourquoi ça devient possible maintenant ? Hé bien parce que la spécification MCP Apps est passée en stable fin janvier. C'est donc l'extension du Model Context Protocol qui permet à un serveur MCP de retourner une UI interactive (HTML, canvas, dashboards) directement intégrée dans la conversation.

Tout ça est sandboxé dans une iframe, ça communique via postMessage, et c'est aussi supporté côté VS Code. On est totalement dans la lignée de ces outils MCP qu'on commence à voir partout.

Comme MCP donne déjà à l'app une zone d'affichage dans la conversation (une iframe hôte), le réflexe naturel, c'est d'y caler une page web qui contiendrait elle-même DOOM.

Sauf que ça fait deux fenêtres imbriquées qui se battent avec les règles de sécurité du navigateur (CSP, frame-src, tout ça). Du coup, Chris a eu une idée de génie et a viré la couche du milieu et posé l'écran du jeu directement dans la zone fournie par MCP. Une couche en moins, et tout marche nickel !

Côté limites, faut savoir que c'est une version vraiment épurée. Pas de sauvegarde ni de chargement de partie, pas de screenshots, pas d'état persistant entre les sessions. Tout ça a été coupé volontairement pour gagner en stabilité.

Pour tester chez vous, les amis, le code est dispo sur GitHub via la PR #54 du repo de Chris, prête à être ajoutée à votre config Claude Desktop ou ChatGPT. Y a de quoi s'amuser.

Bref, DOOM tourne désormais directement dans la fenêtre de chat de votre IA préférée. La question n'est plus "qu'est-ce qui peut faire tourner DOOM ?" mais "qu'est-ce qui ne le fait PAS encore ?".

Source : Chris Nager

Google Gemini a deux nouvelles armes en France pour piquer les utilisateurs de ChatGPT

29 avril 2026 à 09:00

Quelques semaines après les États-Unis, Google active en France deux nouvelles fonctionnalités de Gemini : la mémoire des conversations et un outil d'importation qui permet de basculer son historique ChatGPT ou Claude directement dans l'application.

Hier — 28 avril 2026Flux principal

« Toute finalité gouvernementale légale » : Google s’allie au Pentagone pour l’utilisation militaire de son IA

28 avril 2026 à 12:36

Selon The Information, Google a conclu un accord avec le Pentagone pour permettre l’usage de ses modèles d’IA dans des opérations classifiées. Un partenariat sensible, qui intervient après la rupture entre le gouvernement américain et Anthropic.

« Une sorte de blocage mental » : un amateur armé de ChatGPT résout un problème mathématique vieux de 60 ans

28 avril 2026 à 18:03

Montage ChatGPT maths

Un amateur de 23 ans a réussi à résoudre une énigme mathématique vieille de 60 ans grâce à une simple conversation avec ChatGPT. En contournant les biais académiques traditionnels, le modèle GPT-5.4 Pro prouve que l'IA est capable de fulgurances créatives.

À partir d’avant-hierFlux principal

La fin des applications ? OpenAI préparerait un smartphone 100% IA

27 avril 2026 à 18:30

Selon une note de l’analyste Ming‑Chi Kuo publiée le 27 avril 2026, OpenAI travaillerait désormais sur un smartphone centré sur les agents d’IA, co‑conçu avec MediaTek, Qualcomm et le fabricant Luxshare.

OpenAI met fin à sa relation exclusive avec Microsoft : ChatGPT s’ouvre à la concurrence

27 avril 2026 à 15:57

À quelques heures de l'ouverture de son procès face à Elon Musk, OpenAI annonce revoir sa politique d'exclusivité avec Microsoft, qui détient aujourd'hui 27 % de l'entreprise. Pour éviter que le lien avec Microsoft lui soit reproché, OpenAI annonce que tous les services de cloud peuvent désormais travailler avec lui. Microsoft va également cesser de partager ses revenus avec le créateur des modèles GPT, qui n'est plus son partenaire exclusif.

Le trailer épique de la Bataille de Gaulle, ChatGPT vs Gemini et saison 3 des Anneaux de pouvoir – le récap’ de la semaine

26 avril 2026 à 07:22

Parmi les sujets qui ont retenu votre attention cette semaine, il y avait la rivalité entre ChatGPT et Gemini, des nouvelles de la saison 3 des Anneaux de pouvoir et une bande-annonce marquante sur le film La Bataille de Gaulle.

« Plante un clou dans le miroir et récite le Psaume 91 à l’envers » : une étude recense les IA les plus enclines à nourrir les spirales délirantes

24 avril 2026 à 15:45

C'est un benchmark d’un nouveau genre. Selon une étude scientifique publiée le 23 avril 2026, certains modèles de langage (LLM) peuvent activement renforcer les croyances délirantes de leurs utilisateurs. Les écarts de comportement sont considérables d’un modèle à l’autre.

OpenAI lâche GPT 5.5 et le message est clair : l’IA doit maintenant travailler, pas juste répondre

OpenAI déploie GPT 5.5, une mise à jour de son modèle d’intelligence artificielle conçue pour automatiser l’exécution de tâches complexes et réduire les interactions nécessaires entre l'utilisateur et la machine.

L’article OpenAI lâche GPT 5.5 et le message est clair : l’IA doit maintenant travailler, pas juste répondre est apparu en premier sur Tom’s Hardware.

full

thumbnail

OpenAI dévoile GPT-5.5 et veut faire une remontada historique face à Claude et Gemini

23 avril 2026 à 20:30

ChatGPT OpenAI chatbot

Deux jours après le lancement réussi du nouveau générateur d'images ChatGPT Images 2.0, OpenAI dévoile GPT-5.5, autrefois connu sous le nom de code « Spud ». Un modèle pensé pour agir de manière autonome et qui a pour lourde tâche de reprendre la couronne à Anthropic… quitte à faire gonfler les prix.

ChatGPT a un nouveau moment Ghibli : tout le monde génère des affiches de foot

23 avril 2026 à 10:32

Au lancement du premier ChatGPT Images, OpenAI avait connu un moment de gloire grâce à la génération de photos dans le style du studio Ghibli. Un an plus tard, avec ChatGPT Images 2.0, ce sont des photos dans le style des clubs de football que les internautes génèrent en masse. La capacité de ChatGPT à générer des montages compliqués impressionne.

On a comparé ChatGPT et Gemini pour générer 10 images : le meilleur n’est pas celui que vous croyez

22 avril 2026 à 14:27

Avec ChatGPT Images 2.0, OpenAI prétend écraser la concurrence. Que vaut son nouveau modèle face au Nano Banana 2 de Google Gemini, considéré par beaucoup comme l'outil le plus polyvalent ? Nous avons confronté les deux modèles dans une série de tests pensés pour les piéger et exploiter leurs capacités les plus avancées (raisonnement + recherche sur le web).

GPT-5.4-Cyber, le modèle de cybersécurité qu'OpenAI ne veut pas ouvrir à tout le monde

Par : Korben
15 avril 2026 à 12:21

Le sujet central du lancement de GPT-5.4-Cyber, c'est moins le modèle que le mécanisme d'accès.

OpenAI a annoncé une version fine-tunée de GPT-5.4 dédiée aux cas d'usage cybersécurité, avec une particularité assumée : moins de restrictions sur les capacités du modèle, mais accès réservé aux participants vérifiés du programme Trusted Access for Cyber.

Concrètement, ce GPT-5.4-Cyber sait faire des choses que les modèles grand public refusent ou limitent. On parle ici de Reverse engineering de binaires sans code source, analyse de malware, étude de vulnérabilités, génération de workflows défensifs avancés, et j'en passe.

Des tâches utiles pour un chercheur en sécurité, mais potentiellement dangereuses si elles tombent entre les mauvaises mains. D'où le verrou d'accès au niveau du compte plutôt qu'au niveau du prompt.

Le programme Trusted Access for Cyber avait été lancé plus tôt dans l'année pour donner à des pros de la sécu vérifiés un accès à des capacités normalement bridées.

OpenAI y ajoute désormais des niveaux supplémentaires, avec un principe simple. Plus le niveau de vérification d'identité est élevé, plus les capacités du modèle sont débloquées. Accès étendu à des milliers d'individus et des centaines d'équipes sécurité, à condition de passer les contrôles.

Ce qui frappe en fait, c'est le changement de posture. OpenAI avait longtemps mis l'accent sur le bridage direct du modèle, via du RLHF agressif et des garde-fous au niveau du prompt. L'approche qui s'impose en 2026, c'est celle de la vérification d'identité plus du monitoring d'usage, avec un modèle plus compétent en face.

Moins de refus, plus de traçabilité. C'est cohérent avec le fait que les red teams avaient largement documenté comment contourner les garde-fous classiques.

Le timing est intéressant. L'annonce tombe une semaine après un lancement similaire chez un concurrent sur le même créneau. Mythos avait ouvert le bal avec un modèle spécialisé cyber et un mécanisme d'accès vérifié comparable.

Du coup, OpenAI ne veut pas laisser le marché et pousse son infra d'identité plutôt que de tenter une bataille de benchmarks.

Côté risques, la question qui reste ouverte c'est la solidité du processus de vérification. Un acteur malveillant avec une couverture légitime (société écran, identité empruntée, insider dans une boîte de pentest) peut techniquement passer les contrôles, et OpenAI indique surveiller l'usage a posteriori plutôt que bloquer en amont. Une fuite d'output reste exploitable même si le compte d'origine est révoqué derrière.

Bref, modèle plus fort, bridage déplacé du prompt vers l'identité. On est là devant un marché cyber-IA qui bouge très vite.

Source : Bloomberg

Qu’est-ce que GPT-5.4-Cyber, la nouvelle IA d’OpenAI pour la cybersécurité ?

15 avril 2026 à 10:15

Le 14 avril 2026, OpenAI a présenté GPT-5.4-Cyber, une variante de son dernier modèle pensée pour la cyberdéfense et destinée aux professionnels de la sécurité. L’annonce suit de près le bruit médiatique suscité par Anthropic et son projet Glasswing.

« Pour prévenir tout risque » : pourquoi OpenAI vient de forcer la mise à jour de ChatGPT sur Mac

11 avril 2026 à 09:53

Le 11 avril 2026, OpenAI a déployé une mise à jour obligatoire de ses applications macOS, après la découverte d’une faille dans la bibliothèque Axios, compromise fin mars. L’entreprise assure n’avoir constaté aucune intrusion, mais agit par précaution.

Vous utilisez ChatGPT pour coder ? Le prix va drastiquement augmenter

La société américaine introduit un nouveau palier tarifaire, entre son offre Plus à 20 dollars et son offre Pro à 200 dollars, pour répondre à la hausse de la demande liée aux outils de génération de code.

L’article Vous utilisez ChatGPT pour coder ? Le prix va drastiquement augmenter est apparu en premier sur Tom’s Hardware.

full

thumbnail

Il menace un agent du renseignement en parlant à ChatGPT, le RAID débarque chez lui

Par : Korben
7 avril 2026 à 13:09

Un Strasbourgeois de 37 ans a été interpellé par le RAID après avoir formulé des menaces dans une conversation avec ChatGPT. OpenAI a signalé les propos au FBI, qui a transmis l'alerte aux autorités françaises via la plateforme Pharos.

L'affaire a été classée sans suite, mais elle montre que les échanges avec les chatbots ne sont pas vraiment privés.

Des menaces repérées par OpenAI

Les faits remontent au 3 avril. L'homme a indiqué à ChatGPT vouloir acheter un pistolet Glock pour "tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI". Les propos ont été détectés par les systèmes de modération d'OpenAI, qui applique depuis 2024 une politique claire : si une conversation présente un risque de violence physique, l'entreprise peut transmettre les échanges aux forces de l'ordre.

Ici, OpenAI a alerté le FBI, qui a relayé l'information aux autorités françaises via Pharos, la plateforme de signalement en ligne gérée par l'OCLCTIC.

Le RAID intervient, aucune arme trouvée

L'intervention a eu lieu au domicile de l'homme, dans le quartier de Koenigshoffen à Strasbourg. Le RAID est entré sans incident et n'a trouvé aucune arme sur place. L'homme a été placé en garde à vue puis libéré le lendemain.

Il a expliqué être schizophrène, en rupture de traitement depuis deux ans, et avoir voulu "tester la fiabilité et la surveillance de l'intelligence artificielle" plutôt que planifier quoi que ce soit. Le parquet de Strasbourg a classé l'affaire sans suite et l'homme a été hospitalisé d'office en psychiatrie.

Vos conversations avec les chatbots ne sont pas privées

Cette affaire est un bon rappel pour tous les utilisateurs de ChatGPT et d'autres assistants IA. OpenAI le dit dans ses conditions d'utilisation : les conversations peuvent être analysées, et dans certains cas transmises à la police.

Depuis février 2024, l'entreprise a perturbé plus de 40 réseaux qui enfreignaient ses règles. Et le mécanisme est rapide : entre les propos tenus à Strasbourg et l'intervention du RAID, il s'est visiblement passé très peu de temps. La coopération entre OpenAI, le FBI et les autorités françaises a fonctionné en quasi temps réel.

C'est le genre d'histoire qui fait réfléchir. On parle quand même d'un type qui tape des menaces dans un chatbot depuis chez lui et qui voit le RAID débarquer à sa porte quelques heures plus tard. Ici l'affaire s'est bien terminée, l'homme avait visiblement besoin de soins et pas d'un Glock.

Mais ça pose une question très concrète : est-ce que tous les utilisateurs de ChatGPT, Claude ou Gemini ont bien conscience que leurs conversations sont surveillées et peuvent remonter aux autorités de n'importe quel pays ? On imagine bien que non.

Source : Vosges Matin

❌
❌