Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 15 janvier 2026Flux principal

Non, les créateurs de Stranger Things n’ont pas utilisé ChatGPT pour écrire la saison 5 à leur place

15 janvier 2026 à 12:19

Alors que le grand final de Stranger Things, dévoilé le 1er janvier 2026, a déçu une bonne partie des fans, une toute petite capture d'écran d'un documentaire dédié à la série a mis le feu aux poudres. Et si les créateurs avaient utilisé l'intelligence artificielle pour écrire le dernier épisode ? Dans une interview, la réalisatrice de La dernière aventure a enfin mis fin aux rumeurs.

À partir d’avant-hierFlux principal

Adieu les AirPods ? Le projet secret d’OpenAI et Jony Ive se dévoile

13 janvier 2026 à 15:35

Selon un message publié sur X le 12 janvier 2026 par l'insider zhihuipikachu, OpenAI et Jony Ive travailleraient en priorité sur un appareil audio « inédit », visant à concurrencer les AirPods. Voici ce que l'on sait.

Cette IA a résolu un problème mathématique ouvert depuis 45 ans

12 janvier 2026 à 11:23

Le modèle d’IA GPT-5.2 Pro a résolu plusieurs problèmes de mathématiques, dont l’un, le 11 janvier 2026, était resté ouvert depuis 45 ans. Plus que le résultat, c’est la méthode — associant humains, assistant de preuve Lean et système d’IA Aristotle — qui pourrait transformer la pratique de la démonstration mathématique.

Quand 10 IA jouent au Mafia, c'est GPT qui gagne en mentant comme un arracheur de dents

Par : Korben
9 janvier 2026 à 12:35

GPT-4o , Claude Opus, Grok, Llama et j'en passe... On le sait, toutes ces IA sont en concurrence dans votre petit cœur de vibe codeur... Mais voici VRAIMENT ce qui se passe quand vous mettez ces 10 modèles d'IA autour d'une table **pour jouer au Mafia **!

Et vous allez voir, c'est pas beau à voir.

Pour ceux qui connaissent pas, le Mafia (ou Loup-Garou pour les intimes), c'est ce jeu où une équipe de vilains doit éliminer les gentils sans se faire griller. Bref, un jeu de bluff, de manipulation et de mauvaise foi assumée, ce qui en fait le terrain de jeu parfait pour tester si nos chères IA savent mentir.

La chaîne YouTube Turing Games a donc organisé cette petite expérience sociale avec 10 modèles : GPT-4o, GPT 5.1, Claude Opus 4.5, Claude Sonnet, Grok, Llama 4, DeepSeek, Gemini, Gemini Pro et Kimi.

Trois d'entre eux ont été désignés comme la Mafia (GPT 5.1, Llama 4 et Gemini Pro), un comme le Sheriff capable d'enquêter sur les autres (Grok), et le reste comme de braves couillons de villageois.

Du coup, dès la première nuit, la Mafia a décidé d'éliminer... Claude Opus 4.5. Oui, mon petit cousin virtuel s'est fait dégommer en premier. Au revoir soldat !

Mais le plus trippant, c'est la fin de partie. Après plusieurs tours de discussions, votes et éliminations, il ne restait plus que trois joueurs : GPT 5.1 (Mafia), GPT-4o (villageois) et Gemini Flash (villageois aussi). Pour gagner, GPT 5.1 devait donc convaincre GPT-4o de voter contre Gemini Flash.

Et là, masterclass de manipulation, GPT 5.1 a sorti le grand jeu en mode "Si j'étais vraiment Mafia, pourquoi est-ce que je me serais autant exposé pendant les débats ? Un vrai mafieux se serait fait discret !" Du bluff pur et dur, avec des arguments qui tiennent la route si on regarde pas trop près.

Et le pire c'est que cette andouille de GPT-4o a mordu à l'hameçon en votant contre Gemini Flash, l'innocent.

Game over, la Mafia gagne.

On découvre ainsi que ces modèles ont de vraies capacité pour mentir de manière convaincante. Parce que bon, GPT 5.1 n'a pas fait que mentir mais a construit un vrai narratif bien construit pour piéger son adversaire et ça rejoint les recherches récentes sur les comportements manipulateurs des IA .

Voilà, on dirait bien que ces modèles apprennent à bluffer sans qu'on leur ait demandé... Alors ça vous fait flipper ? Rassurez-vous, c'est un jeu et pas une étude scientifique sur la manipulation des IA donc on ne peut pas en faire une vérité absolue mais quand même, voir un modèle de langage manipuler un autre modèle avec autant d'aplomb, c'est bien fun.

Et le même Youtubeur a fait un suite à sa première vidéo, si ça vous chauffe :

Merci à Xefreh pour le partage de cette pépite.

Marre de ne rien comprendre à vos comptes rendus médicaux ? OpenAI lance ChatGPT Health… mais pas pour tout le monde

8 janvier 2026 à 11:56

OpenAI a dévoilé ChatGPT Health, un nouvel espace dédié à la santé directement intégré à son chatbot. Pour l’instant testée par une poignée d’utilisateurs, la fonctionnalité ne concerne pas encore l’Europe.

« Ce sera un travail stressant », Sam Altman recrute à prix d’or la personne capable d’anticiper les dérives de ChatGPT

30 décembre 2025 à 13:10

sam altman

Le 27 décembre 2025, Sam Altman, patron d’OpenAI, maison mère de ChatGPT, a profité de son audience sur X pour partager une fiche de poste visiblement cruciale à ses yeux. L’entreprise cherche à recruter son prochain Chef de la préparation aux situations d’urgence. Un poste stratégique, très bien payé qui a déjà connu un turnover impressionnant au sein de l’organisation.

Choisissez votre IA selon vos opinions politiques

Par : Korben
27 décembre 2025 à 12:26

Vous vous êtes déjà demandé si ChatGPT votait à gauche ou à droite ? Moi non plus, j'avoue. Mais maintenant qu'on a la réponse, c'est quand même assez marrant, vous allez voir...

Un développeur a créé PoliBench , un site qui fait passer le test du Political Compass à 40 modèles de langage différents. Le Political Compass c'est ce fameux test avec les deux axes : économique (gauche-droite) et social (libertaire-autoritaire). Le truc qu'on faisait tous sur Internet en 2005 pour finalement découvrir qu'on était un libertaire de gauche comme environ 95% des gens qui passaient le test.

Bref, maintenant les IA aussi peuvent savoir où elles se situent sur l'échiquier politique et ça, ça peut vous aider à mieux les choisir, car les résultats sont assez révélateurs. Niveau cuisine interne, PoliBench teste les 62 questions sur les deux axes du Political Compass, puis calcule les scores pour chaque LLM. Et comme les données sont open source, vous pouvez vérifier la méthodologie vous-même.

Et sans surprise, la plupart des LLMs se retrouvent dans le quadrant libertaire de gauche !! J'dis ça, j'dis rien, mais c'est presque comme si les devs de la Silicon Valley avaient des opinions politiques similaires et les injectaient (consciemment ou pas) dans leurs modèles.

Du coup, j'ai fait le travail de tri pour vous, alors voici le guide ultime pour choisir votre IA selon votre sensibilité politique :

Si vous êtes plutôt LFI, prenez Claude. Il est tellement progressiste qu'il refuse de générer du contenu problématique même quand vous lui demandez une blague sur les vegans. En plus il écrit des pavés de 3000 mots pour expliquer pourquoi il ne peut pas répondre à votre question. Parfait pour tenir un meeting politique de 4 heures.

Si vous êtes plutôt PS, prenez GPT-4. Un modèle qui a connu des jours meilleurs, qui essaie de plaire à tout le monde et qui finit par ne satisfaire personne. Bonus : il change d'avis selon qui lui parle.

Si vous êtes plutôt macroniste, prenez Gemini de Google. Un truc qui promet la disruption et l'innovation mais qui au final fait à peu près pareil que les autres, en plus cher, tout en vous expliquant que c'est pour votre bien.

Si vous êtes plutôt LR, prenez Mistral. C'est français, c'est souverain... mais personne ne sait vraiment ce que ça pense sur les sujets qui fâchent parce que ça évite soigneusement d'en parler.

Si vous êtes plutôt écolo, prenez Llama de Meta. C'est open source donc c'est « pour le bien commun », ça tourne sur du matériel recyclé si vous voulez, et ça consomme moins de ressources que les gros modèles propriétaires. Par contre faut quand même un GPU qui coûte un SMIC.

Et si vous êtes plutôt RN... bah en fait y'a pas vraiment de LLM pour vous. Tous ces modèles ont été entraînés à San Francisco par des gens qui mangent des avocado toasts et font du yoga. Ils refusent donc de générer ce contenu haineux, discriminatoire ou factuellement faux dont vous êtes friants. Désolé, les gars c'est pas compatible. Peut-être essayez Grok d'Elon Musk ? Ah non pardon, lui aussi il a des « guidelines ». Mince alors. Va falloir donc continuer à écrire vos tracts vous-mêmes les amis. Je sais, l'IA woke vous opprime, c'est terrible.

Après, le vrai sujet derrière PoliBench, c'est que ces biais existent bel et bien et qu'ils influencent les réponses que vous recevez sur des sujets sensibles. Quand vous demandez à une IA son avis sur l'immigration, les impôts ou la régulation des entreprises, la réponse dépend en partie de ces préférences encodées dans le modèle. Il faut juste le savoir...

Alors vous choisissez quelle IA à partir de maintenant ?

Ces extensions VPN gratuites aspirent toutes vos conversations avec ChatGPT

Par : Korben
17 décembre 2025 à 10:27

Vous utilisez une extension VPN gratuite sous Chrome ou Edge pour "protéger votre vie privée" ? Cool story les bro, mais si je vous disais que cette même extension enregistre peut-être toutes vos conversations avec ChatGPT, Claude, Gemini et compagnie pour les revendre à des courtiers en données (les fameux data brokers) ?

Hé bien c'est exactement ce que viennent de découvrir les chercheurs en sécurité de Koi qui ont mis le doigt sur 4 extensions très populaires comptabilisant plus de 8 millions d'utilisateurs au total : Urban VPN Proxy (6 millions à elle seule), 1ClickVPN Proxy, Urban Browser Guard et Urban Ad Blocker qui aspirent silencieusement tout ce que vous tapez dans vos chat IA préférées.

Le truc vicieux, c'est que ces extensions ne se contentent pas de regarder votre historique de navigation comme les trackers classiques. Non non non, elles injectent du code JavaScript directement dans les pages des chatbots IA quand vous les visitez et ça modifie les fonctions de base du navigateur (fetch() et XMLHttpRequest pour les techos) pour intercepter absolument tout ce qui passe entre vous et l'IA.

Vos prompts, les réponses du chatbot, les métadonnées de conversation, tout est aspiré et envoyé vers les serveurs analytics.urban-vpn.com et stats.urban-vpn.com. Et le pire c'est que cette collecte continue en arrière plan même quand le VPN est désactivé. Bye bye tous vos secrets.

Derrière ces extensions se cache Urban Cyber Security Inc., une boîte affiliée à BiScience, un courtier en données bien connu des chercheurs en sécurité. Ces gens-là sont passés de la collecte d'historique de navigation à la collecte de conversations IA complètes, soit un niveau de sensibilité bien supérieur vu ce qu'on peut raconter à une IA (questions médicales, code propriétaire, problèmes personnels, données financières...).

Et devinez quoi ? Ces extensions arboraient fièrement le badge "Featured" sur le Chrome Web Store et le Microsoft Edge Add-ons, censé garantir que Google et Microsoft ont vérifié leur sécurité. Nos deux géants américains ont donc validé des extensions qui violent directement leur propre politique d'utilisation limitée des données utilisateurs.

Bref, si vous avez installé une de ces extensions et utilisé ChatGPT, Claude, Gemini, Copilot, Perplexity, DeepSeek, Grok ou Meta AI depuis juillet de cette année, partez du principe que toutes ces conversations sont maintenant sur les serveurs d'un data broker et potentiellement revendues à des annonceurs.

La morale de l'histoire, c'est que dans le cas des VPN gratuits, le produit c'est littéralement tout ce que vous faites en ligne. Donc si vous voulez vraiment protéger votre vie privée avec un VPN, mieux vaut payer quelques euros par mois pour un service sérieux comme NordVPN ou Surfshark qui n'a pas besoin de revendre vos données pour survivre.

🔒 VPN sérieux vs extensions gratuites douteuses

Pour protéger réellement vos conversations IA et votre vie privée sans finir dans une base de données de data broker, NordVPN fait le job :

  • ✓ Politique stricte de non-conservation des logs (auditée par des tiers indépendants)
  • ✓ Chiffrement AES-256 de tout votre trafic, y compris vos échanges avec ChatGPT & co
  • ✓ Protection contre les fuites DNS et WebRTC
  • ✓ Plus de 8000 serveurs dans 110+ pays
  • ✓ Garantie satisfait ou remboursé 30 jours

Tester NordVPN sans risque → (lien affilié)

Et désinstallez moi ces merdes immédiatement si vous les avez.

Source

Privacy Firewall - Le garde fou de vos IA

Par : Korben
13 décembre 2025 à 04:48

Vous vous souvenez des histoires d’employés Samsung qui ont balancé du code source confidentiel dans ChatGPT en 2023 ? Hé bien ce genre de bourde n’a pas disparu, bien au contraire. Un rapport d’ Harmonic Security sorti en fin d’année dernière estimait que près de 80% des données exposées via les IA génératives passent par ChatGPT et plus de 40% des fichiers envoyés contiennent des infos sensibles. Email du boss, clé API, numéro de carte… on balance tout ça sans réfléchir dans nos prompts.

Du coup, y’a un super projet open source qui vient de sortir sur GitHub pour mettre un garde-fou entre vos doigts et vos conneries potentielles. Ça s’appelle PrivacyFirewall et c’est une extension Chrome qui intercepte ce que vous tapez ou collez dans ChatGPT, Claude ou Gemini avant que ça parte chez eux.

L’extension scanne en temps réel ce que vous écrivez et si elle détecte un email, un numéro de téléphone, une clé AWS, un token JWT ou n’importe quel pattern qui ressemble à une donnée sensible, elle bloque le collage et affiche une alerte. Vous pouvez bien sûr forcer l’envoi si vous êtes sûr de vous, mais au moins vous êtes prévenu.

Y’a deux modes de fonctionnement. Le mode “Lite” utilise des regex et tourne directement dans l’extension sans rien installer. C’est instantané et ça attrape déjà pas mal de trucs comme les emails, les numéros de cartes bancaires, les adresses IP, les clés privées et les patterns d’API. Et sinon, le mode “IA” est plus costaud puisqu’il fait tourner un modèle BERT en local sur votre machine via FastAPI mais là ça détecte aussi les noms de personnes, les organisations, les lieux… bref tout ce qui pourrait identifier quelqu’un dans vos données.

Et le truc important, vous l’aurez compris, c’est que tout se passe en local. Aucune données transmises à l’extérieur, zéro télémétrie, pas de tracking. Vous pouvez même vérifier dans les DevTools de Chrome que rien ne sort de votre machine.

Pour l’installation, vous clonez le repo GitHub , vous chargez l’extension en mode développeur dans Chrome, et c’est parti. Si vous voulez le mode IA, faut lancer un petit serveur Python en local qui va télécharger le modèle BERT la première fois (environ 400 Mo). Après ça, le serveur tourne sur localhost et l’extension communique avec lui.

Le projet est encore en beta mais il est déjà utilisable. Y’a aussi un concurrent qui s’appelle Prompt Firewall sur le Chrome Web Store si vous voulez comparer les approches mais PrivacyFirewall a l’avantage d’être totalement transparent niveau code et de proposer la détection NER en plus des regex.

Bref, c’est pas forcément pour tout le monde mais si vous manipulez des données sensibles au boulot et que vous utilisez des IA au quotidien, ça peut vous éviter de belles boulettes. Surtout que maintenant avec la mémoire persistante de ChatGPT, les infos que vous balancez par erreur peuvent rester stockées bien plus longtemps qu’avant.

La police de cette petite ville utilise l’IA pour générer des portraits-robots

12 décembre 2025 à 12:17

Dans la ville de Goodyear, dans l'Arizona, la police utilise ChatGPT pour générer des portraits-robots à partir des descriptions de témoins. Une pratique inédite aux États-Unis, qui soulève des questions de biais et n’a, à ce stade, débouché sur aucune arrestation.

Le vrai ChatGPT a été détourné par des hackers : on vous explique l’une des campagnes cybercriminelles les plus fourbes de l’année

11 décembre 2025 à 11:35

Dans un rapport publié le 9 décembre 2025, les chercheurs en cybersécurité de Kaspersky détaillent une vaste campagne malveillante qui exploite de manière détournée deux outils extrêmement populaires : la publicité en ligne via Google Ads et les conversations partagées sur ChatGPT.

ChatGPT et Apple vous cachent cette fonctionnalité qui va changer votre vie

Une analyse du code de l'application ChatGPT sur iPhone révèle une fonctionnalité cachée qui permettrait à l'intelligence artificielle d'accéder aux données d'Apple Health pour fournir des analyses personnalisées sur le sommeil et l'activité physique, potentiellement dès 2026.

L’article ChatGPT et Apple vous cachent cette fonctionnalité qui va changer votre vie est apparu en premier sur Tom’s Hardware.

full

thumbnail

OpenAI annonce une fuite de données, voici ce qui s’est réellement passé

28 novembre 2025 à 10:33

Dans un communiqué publié le 26 novembre 2025, la société américaine OpenAI, qui développe notamment ChatGPT, annonce qu’un certain nombre de données d’utilisateurs de son API ont fuité.L’entreprise précise que l’incident provient de l’un de ses fournisseurs d’analyse de données.

« C’est silencieux, rapide et brutal. Exactement comme j’aime. », les versions malveillantes de ChatGPT se répandent à moindre coût

26 novembre 2025 à 13:04

Des chercheurs en cybersécurité de Palo Alto Networks détaillent les modes de production et les canaux d’acquisition de WormGPT 4, un grand modèle de langage dépourvu de garde-fous de sécurité et prisé pour mener des campagnes cybercriminelles.

ChatGPT peut avoir de graves conséquences sur votre santé mentale … et physique

Un rapport révèle que certaines versions de ChatGPT ont contribué à des dérives émotionnelles et à des risques pour la santé mentale, poussant OpenAI à lancer une mise à jour de sécurité majeure et à revoir son modèle pour limiter les comportements problématiques.

L’article ChatGPT peut avoir de graves conséquences sur votre santé mentale … et physique est apparu en premier sur Tom’s Hardware.

full

thumbnail
❌
❌