Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

« Un pas en arrière par rapport à GPT-5 », comment le dernier outil d’OpenAI s’est fait pirater dès son premier jour

21 janvier 2026 à 12:33

Dans une démonstration publiée sur LinkedIn le 16 janvier 2026, des chercheurs de Tenable ont révélé une faille de sécurité dans le nouvel outil d’OpenAI, ChatGPT Translate, rappelant les premières générations de garde‑fous appliqués aux agents LLM. 

La course folle pour sécuriser les LLM continue, ChatGPT doit colmater une brèche qu’on pensait réglée

8 janvier 2026 à 18:20

Les chercheurs de l’entreprise de cybersécurité Radware ont mis en garde, le 8 janvier 2026, contre une nouvelle attaque par injection indirecte visant ChatGPT.​ Cette offensive détourne une mécanique que l’on pensait réglée depuis quelques mois et cible spécifiquement l’outil Deep Research du chatbot.

Ils mènent des cyberattaques par les mots : qu’est-ce qu’une injection de prompt ?

4 janvier 2026 à 15:05

L’attaque par injection de prompt attire particulièrement l’attention des experts. Elle fait partie d'une nouvelle vague de risques cyber, liés à l'omniprésence de nouveaux outils dans nos usages quotidiens, ces dernières années : les modèles de langage (LLM).

❌
❌