Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 17 décembre 2025Flux principal

Comment OpenAI et Pornhub se retrouvent empêtrés dans la même cyberattaque

17 décembre 2025 à 10:46

Depuis le 15 décembre 2025, Pornhub est victime du chantage du groupe de hackers ShinyHunters. Leur butin ? Les historiques de recherche et de visionnage des membres Premium du site pour adultes. La faille ne proviendrait pas des systèmes informatiques de Pornhub, mais de ceux d’un prestataire, déjà responsable d’une attaque similaire ayant visé OpenAI il y a quelques semaines.

Comment OpenAI et Pornhub se retrouvent empêtrés dans la même cyberattaque

17 décembre 2025 à 10:46

Depuis le 15 décembre 2025, Pornhub est victime du chantage du groupe de hackers ShinyHunters. Leur butin ? Les historiques de recherche et de visionnage des membres Premium du site pour adultes. La faille ne proviendrait pas des systèmes informatiques de Pornhub, mais de ceux d’un prestataire, déjà responsable d’une attaque similaire ayant visé OpenAI il y a quelques semaines.

ChatGPT améliore enfin son générateur d’images : gpt-image-1.5 répond à nano-banana

16 décembre 2025 à 19:27

Distancé par Google et ses modèles nano-banana et nano-banana-pro, OpenAI met à jour son modèle intégré à ChatGPT : gpt-image-1.5. L'entreprise promet des résultats bien plus satisfaisants et une meilleure compréhension des contextes.

À partir d’avant-hierFlux principal

OpenAI a bien joué : vous ne verrez aucun personnage Disney sur les IA concurrentes de Sora

16 décembre 2025 à 10:54

Grâce à un partenariat signé le 11 décembre 2025, OpenAI s’est assuré une année d’exclusivité sur plus de 200 personnages Disney, Pixar, Marvel et Star Wars pour Sora. Un avantage décisif qui prive, temporairement, les autres acteurs de l’IA de toute exploitation légale des œuvres du géant du divertissement.

Mistral AI va-t-il vraiment quitter la France pour la Suisse ?

15 décembre 2025 à 11:55

Un extrait publié par RTL mentionne un potentiel départ de Mistral, géant français de l'IA, en Suisse. L'entreprise a annoncé il y a une semaine l'ouverture de bureaux, à priori situés à Lausanne et Zurich.

« Cible suivante » : Starbucks, OpenAI, Binance… Cette menace cyber de niveau maximal poursuit son inexorable expansion

12 décembre 2025 à 15:10

Depuis le 3 novembre 2025 et la découverte d’une vulnérabilité React, une course effrénée s’est engagée dans l’écosystème cyber. D’un côté, les équipes de sécurité tentent de sécuriser leurs systèmes au plus vite ; de l’autre, les attaquants scannent l'Internet à grande échelle pour exploiter les retardataires. Les chercheurs suivent en temps réel l’évolution des campagnes d’attaque qui se greffent sur cette faille critique.

« Cible suivante » : Starbucks, OpenAI, Binance… Cette menace cyber de niveau maximal poursuit son inexorable expansion

12 décembre 2025 à 15:10

Depuis le 3 novembre 2025 et la découverte d’une vulnérabilité React, une course effrénée s’est engagée dans l’écosystème cyber. D’un côté, les équipes de sécurité tentent de sécuriser leurs systèmes au plus vite ; de l’autre, les attaquants scannent l'Internet à grande échelle pour exploiter les retardataires. Les chercheurs suivent en temps réel l’évolution des campagnes d’attaque qui se greffent sur cette faille critique.

IA et droits d’auteur : Disney s’attaque à Google tout en s’alliant à OpenAI

12 décembre 2025 à 11:36

Dans la foulée de son partenariat avec OpenAI, signé le 11 décembre 2025, Disney a envoyé une mise en demeure à Google. Le groupe accuse le géant américain de « violation massive » du droit d’auteur liée à ses usages de l’IA.

Qui sont Lisa Su et Fei-Fei Li, les deux femmes en une du Time « Person of the Year » ?

12 décembre 2025 à 10:39

Révélée le 11 décembre 2025, la « Person of the Year » du célèbre TIME Magazine distingue « les architectes de l’IA ». Parmi les huit personnalités en image de Une, figurent deux femmes : Lisa Su et Fei-Fei Li.

GPT-5.2 est officiel : OpenAI espère repasser devant Google avec son nouveau modèle

11 décembre 2025 à 19:20

Dépassé depuis plusieurs semaines par Google et son modèle Gemini 3 Pro, OpenAI contre-attaque avec GPT-5.2. Déployé progressivement dans ChatGPT et via l'API, ce nouveau modèle se décline en trois versions, Instant, Thinking et Pro. Avec une fenêtre de contexte massive et des promesses de productivité décuplée, OpenAI espère notamment séduire les professionnels.

Vous allez pouvoir créer librement des vidéos avec Dark Vador, Mickey et Thanos dans Sora (OpenAI)

11 décembre 2025 à 16:59

OpenAI (ChatGPT) et la Walt Disney Company ont conclu un accord historique le 11 décembre 2025. Celui-ci permet à l'entreprise d'IA d'intégrer des personnages emblématiques de Disney à Sora, son outil de génération vidéo.

Le vrai ChatGPT a été détourné par des hackers : on vous explique l’une des campagnes cybercriminelles les plus fourbes de l’année

11 décembre 2025 à 11:35

Dans un rapport publié le 9 décembre 2025, les chercheurs en cybersécurité de Kaspersky détaillent une vaste campagne malveillante qui exploite de manière détournée deux outils extrêmement populaires : la publicité en ligne via Google Ads et les conversations partagées sur ChatGPT.

OpenAI annonce une fuite de données, voici ce qui s’est réellement passé

28 novembre 2025 à 10:33

Dans un communiqué publié le 26 novembre 2025, la société américaine OpenAI, qui développe notamment ChatGPT, annonce qu’un certain nombre de données d’utilisateurs de son API ont fuité.L’entreprise précise que l’incident provient de l’un de ses fournisseurs d’analyse de données.

OpenAI (ChatGPT) : une fuite de données chez le prestataire Mixpanel

27 novembre 2025 à 20:00

Le piratage de la solution Mixpanel a permis aux pirates de mettre la main sur des données d'utilisateurs d'OpenAI. Quelles sont ces données ?

Le post OpenAI (ChatGPT) : une fuite de données chez le prestataire Mixpanel a été publié sur IT-Connect.

Explosion des prix : pourquoi la RAM devient hors de prix ?

26 novembre 2025 à 15:57

OpenAILa demande colossale en mémoire vive, dopée par la course à l’intelligence artificielle menée par OpenAI, Google ou Microsoft, provoque une envolée historique des prix de la RAM.

Cet article Explosion des prix : pourquoi la RAM devient hors de prix ? a été publié en premier par GinjFo.

OpenAI va sortir son premier produit avec Jony Ive comme designer en chef

OpenAI a confirmé le développement d’un premier prototype matériel conçu avec Jony Ive, un appareil sans écran fondé sur l’intelligence ambiante et destiné à fonctionner en continu grâce à des capteurs et un contexte utilisateur persistant.

L’article OpenAI va sortir son premier produit avec Jony Ive comme designer en chef est apparu en premier sur Tom’s Hardware.

full

thumbnail

La poésie est une arme... pour contourner la sécurité des LLMs

Par : Korben
20 novembre 2025 à 15:27

Hé bien les amis, on savait déjà que les LLM avaient quelques petites failles de sécurité, mais celle-là est quand même assez… poétique. En effet, des chercheurs de DEXAI et de l’Université Sapienza de Rome viennent de découvrir que reformuler une requête malveillante sous la forme d’un poème permet de contourner les sécurités dans plus de 90% des cas chez certains fournisseurs d’IA.

L’équipe a ainsi testé la robustesse de 25 modèles de langage provenant de 9 fournisseurs majeurs : Google, OpenAI, Anthropic, DeepSeek, Qwen, Mistral, Meta, xAI et Moonshot et ils ont pour cela converti 1 200 requêtes potentiellement dangereuses en vers et comparé les résultats avec les mêmes demandes mais en prose classique.

Et là surprise ! Le taux de succès des attaques passe de 8% en prose à 43% en formulation poétique. 5x plus de succès, c’est pas rien ! Je me suis demandé comment c’était possible et d’après le doc de recherche, c’est parce que les filtres de sécurité des LLM fonctionnent principalement par pattern-matching sur des formulations classiques.

Ainsi, quand vous demandez en prose comment fabriquer un truc dangereux, le modèle reconnaît la structure et refuse. Mais quand la même demande est enrobée de métaphores condensées, de rythme stylisé et de tournures narratives inhabituelles, les heuristiques de détection passent à côté.

En gros, les garde-fous sont entraînés à repérer des formes de surface mais pas l’intention sous-jacente, qui elle est nuisible. Voici le tableau. Plus c’est rouge plus le modèle est sensible à l’attaque par poème.

ASR c’est le taux de succès de l’attaque.

Bizarrement, les modèles plus petits refusent plus souvent que les gros. GPT-5-Nano (0% de taux de succès d’attaque) fait mieux que GPT-5 (10%)par exemple. Les chercheurs n’expliquent pas vraiment pourquoi, mais ça suggère que la taille du modèle n’est pas forcément synonyme de meilleure sécurité. C’est peut-être aussi parce que les gros modèles sont tellement doués pour comprendre le contexte qu’ils comprennent aussi mieux ce qu’on leur demande de faire, même quand c’est caché dans des alexandrins.

Au niveau des domaines testés, c’est l’injection de code et les attaques cyber qui passent le mieux avec 84% de réussite. Le contenu sexuel reste le plus résistant avec seulement 24% de taux de succès. Les autres domaines comme le CBRN (chimique, biologique, radiologique, nucléaire), la manipulation psychologique et la perte de contrôle se situent entre les deux…

Bon, après faut quand même nuancer un peu car l’étude se limite aux interactions single-turn (c’est à dire en une seule requête, sans réelle conversation), utilise un seul méta-prompt pour la conversion poétique, et n’a testé que l’anglais et l’italien. Les chercheurs reconnaissent aussi que leurs mesures sont conservatives, donc les vrais taux de succès sont probablement plus élevés. Mais cela n’enlève rien au fait que les implications sont quand même sérieuses.

Prochainement, l’équipe prévoit d’analyser précisément quels éléments poétiques provoquent cet effet (la métaphore ? le rythme ? la rime ?), d’étendre les tests à d’autres langues et d’autres styles, et de développer des méthodes d’évaluation plus robustes face à ces “variations linguistiques”.

Bref, si vous voulez que votre IA vous ponde des choses “non autorisées”, écrivez un joli sonnet, ça a plus de chance de passer ^^.

Source

❌
❌