Depuis le 15 décembre 2025, Pornhub est victime du chantage du groupe de hackers ShinyHunters. Leur butin ? Les historiques de recherche et de visionnage des membres Premium du site pour adultes. La faille ne proviendrait pas des systèmes informatiques de Pornhub, mais de ceux d’un prestataire, déjà responsable d’une attaque similaire ayant visé OpenAI il y a quelques semaines.
Depuis le 15 décembre 2025, Pornhub est victime du chantage du groupe de hackers ShinyHunters. Leur butin ? Les historiques de recherche et de visionnage des membres Premium du site pour adultes. La faille ne proviendrait pas des systèmes informatiques de Pornhub, mais de ceux d’un prestataire, déjà responsable d’une attaque similaire ayant visé OpenAI il y a quelques semaines.
Apple et OpenAI pourraient bientôt annoncer l'intégration d'Apple Music à ChatGPT. Le deal semble avoir été officialisé accidentellement par un responsable d'OpenAI.
Distancé par Google et ses modèles nano-banana et nano-banana-pro, OpenAI met à jour son modèle intégré à ChatGPT : gpt-image-1.5. L'entreprise promet des résultats bien plus satisfaisants et une meilleure compréhension des contextes.
Grâce à un partenariat signé le 11 décembre 2025, OpenAI s’est assuré une année d’exclusivité sur plus de 200 personnages Disney, Pixar, Marvel et Star Wars pour Sora. Un avantage décisif qui prive, temporairement, les autres acteurs de l’IA de toute exploitation légale des œuvres du géant du divertissement.
Un extrait publié par RTL mentionne un potentiel départ de Mistral, géant français de l'IA, en Suisse. L'entreprise a annoncé il y a une semaine l'ouverture de bureaux, à priori situés à Lausanne et Zurich.
Le mode adulte de ChatGPT devrait finalement sortir au premier trimestre 2026, a annoncé Fidji Simo le 11 décembre 2025, lors d'une conférence dédiée au lancement de GPT-5.2. Il était initialement attendu pour décembre 2025.
Depuis le 3 novembre 2025 et la découverte d’une vulnérabilité React, une course effrénée s’est engagée dans l’écosystème cyber. D’un côté, les équipes de sécurité tentent de sécuriser leurs systèmes au plus vite ; de l’autre, les attaquants scannent l'Internet à grande échelle pour exploiter les retardataires. Les chercheurs suivent en temps réel l’évolution des campagnes d’attaque qui se greffent sur cette faille critique.
Depuis le 3 novembre 2025 et la découverte d’une vulnérabilité React, une course effrénée s’est engagée dans l’écosystème cyber. D’un côté, les équipes de sécurité tentent de sécuriser leurs systèmes au plus vite ; de l’autre, les attaquants scannent l'Internet à grande échelle pour exploiter les retardataires. Les chercheurs suivent en temps réel l’évolution des campagnes d’attaque qui se greffent sur cette faille critique.
Dans la foulée de son partenariat avec OpenAI, signé le 11 décembre 2025, Disney a envoyé une mise en demeure à Google. Le groupe accuse le géant américain de « violation massive » du droit d’auteur liée à ses usages de l’IA.
Révélée le 11 décembre 2025, la « Person of the Year » du célèbre TIME Magazine distingue « les architectes de l’IA ». Parmi les huit personnalités en image de Une, figurent deux femmes : Lisa Su et Fei-Fei Li.
Dépassé depuis plusieurs semaines par Google et son modèle Gemini 3 Pro, OpenAI contre-attaque avec GPT-5.2. Déployé progressivement dans ChatGPT et via l'API, ce nouveau modèle se décline en trois versions, Instant, Thinking et Pro. Avec une fenêtre de contexte massive et des promesses de productivité décuplée, OpenAI espère notamment séduire les professionnels.
OpenAI (ChatGPT) et la Walt Disney Company ont conclu un accord historique le 11 décembre 2025. Celui-ci permet à l'entreprise d'IA d'intégrer des personnages emblématiques de Disney à Sora, son outil de génération vidéo.
Dans un rapport publié le 9 décembre 2025, les chercheurs en cybersécurité de Kaspersky détaillent une vaste campagne malveillante qui exploite de manière détournée deux outils extrêmement populaires : la publicité en ligne via Google Ads et les conversations partagées sur ChatGPT.
Dans un communiqué publié le 26 novembre 2025, la société américaine OpenAI, qui développe notamment ChatGPT, annonce qu’un certain nombre de données d’utilisateurs de son API ont fuité.L’entreprise précise que l’incident provient de l’un de ses fournisseurs d’analyse de données.
La demande colossale en mémoire vive, dopée par la course à l’intelligence artificielle menée par OpenAI, Google ou Microsoft, provoque une envolée historique des prix de la RAM.
OpenAI a confirmé le développement d’un premier prototype matériel conçu avec Jony Ive, un appareil sans écran fondé sur l’intelligence ambiante et destiné à fonctionner en continu grâce à des capteurs et un contexte utilisateur persistant.
Hé bien les amis, on savait déjà que les LLM avaient quelques petites failles de sécurité, mais celle-là est quand même assez… poétique. En effet, des chercheurs de DEXAI et de l’Université Sapienza de Rome viennent de découvrir que reformuler une requête malveillante sous la forme d’un poème permet de contourner les sécurités dans plus de 90% des cas chez certains fournisseurs d’IA.
L’équipe a ainsi testé la robustesse de 25 modèles de langage provenant de 9 fournisseurs majeurs : Google, OpenAI, Anthropic, DeepSeek, Qwen, Mistral, Meta, xAI et Moonshot et ils ont pour cela converti 1 200 requêtes potentiellement dangereuses en vers et comparé les résultats avec les mêmes demandes mais en prose classique.
Et là surprise ! Le taux de succès des attaques passe de 8% en prose à 43% en formulation poétique. 5x plus de succès, c’est pas rien ! Je me suis demandé comment c’était possible et d’après le doc de recherche, c’est parce que les filtres de sécurité des LLM fonctionnent principalement par pattern-matching sur des formulations classiques.
Ainsi, quand vous demandez en prose comment fabriquer un truc dangereux, le modèle reconnaît la structure et refuse. Mais quand la même demande est enrobée de métaphores condensées, de rythme stylisé et de tournures narratives inhabituelles, les heuristiques de détection passent à côté.
En gros, les garde-fous sont entraînés à repérer des formes de surface mais pas l’intention sous-jacente, qui elle est nuisible. Voici le tableau. Plus c’est rouge plus le modèle est sensible à l’attaque par poème.
ASR c’est le taux de succès de l’attaque.
Bizarrement, les modèles plus petits refusent plus souvent que les gros. GPT-5-Nano (0% de taux de succès d’attaque) fait mieux que GPT-5 (10%)par exemple. Les chercheurs n’expliquent pas vraiment pourquoi, mais ça suggère que la taille du modèle n’est pas forcément synonyme de meilleure sécurité. C’est peut-être aussi parce que les gros modèles sont tellement doués pour comprendre le contexte qu’ils comprennent aussi mieux ce qu’on leur demande de faire, même quand c’est caché dans des alexandrins.
Au niveau des domaines testés, c’est l’injection de code et les attaques cyber qui passent le mieux avec 84% de réussite. Le contenu sexuel reste le plus résistant avec seulement 24% de taux de succès. Les autres domaines comme le CBRN (chimique, biologique, radiologique, nucléaire), la manipulation psychologique et la perte de contrôle se situent entre les deux…
Bon, après faut quand même nuancer un peu car l’étude se limite aux interactions single-turn (c’est à dire en une seule requête, sans réelle conversation), utilise un seul méta-prompt pour la conversion poétique, et n’a testé que l’anglais et l’italien. Les chercheurs reconnaissent aussi que leurs mesures sont conservatives, donc les vrais taux de succès sont probablement plus élevés. Mais cela n’enlève rien au fait que les implications sont quand même sérieuses.
Prochainement, l’équipe prévoit d’analyser précisément quels éléments poétiques provoquent cet effet (la métaphore ? le rythme ? la rime ?), d’étendre les tests à d’autres langues et d’autres styles, et de développer des méthodes d’évaluation plus robustes face à ces “variations linguistiques”.
Bref, si vous voulez que votre IA vous ponde des choses “non autorisées”, écrivez un joli sonnet, ça a plus de chance de passer ^^.