Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Google lance Gemini 3 Deep Think, un modèle si fort qu’il coûte 275 euros par mois

5 décembre 2025 à 09:27

Annoncé parallèlement à Gemini 3 Pro, mais pas totalement prêt fin novembre, le modèle Gemini 3 Deep Think est disponible depuis le 4 décembre. Il s'agit d'une version ultra-puissante du modèle de Google qui étudie plusieurs chaînes de raisonnement simultanément pour résoudre des problèmes complexes.

C’est la fin de la preuve par l’image : l’outil Google Nano Banana Pro génère d’incroyables fake news à la chaîne

4 décembre 2025 à 11:54

Le 3 décembre 2025, NewsGuard a publié une enquête sur le nouvel outil de génération d’images de Google, NanoBanana Pro. L’entreprise américaine, qui évalue la fiabilité des sites d’information, a voulu tester la capacité de cet outil à participer à des campagnes de désinformation… et les résultats sont édifiants.

C’est la fin de la preuve par l’image : l’outil Google Nano Banana Pro génère d’incroyables fake news à la chaîne

4 décembre 2025 à 11:54

Le 3 décembre 2025, NewsGuard a publié une enquête sur le nouvel outil de génération d’images de Google, NanoBanana Pro. L’entreprise américaine, qui évalue la fiabilité des sites d’information, a voulu tester la capacité de cet outil à participer à des campagnes de désinformation… et les résultats sont édifiants.

« Google Antigravity a supprimé mon disque dur », la session de vibe coding d’un photographe vire au cauchemar

2 décembre 2025 à 16:29

Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.

« Google Antigravity a supprimé mon disque dur », la session de vibe coding d’un photographe vire au cauchemar

2 décembre 2025 à 16:29

Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.

Mistral AI dévoile Mistral 3 et Ministral : des modèles qui replacent la France sur la scène open source

2 décembre 2025 à 16:36

Après OpenAI, Google, Anthropic et DeepSeek, au tour de Mistral AI, la pépite française de l'intelligence artificielle, de lancer ses nouveaux modèles de langage. La startup dévoile une gamme complète capable de s'adapter à différents usages, sous licence libre Apache 2.0.

« Google Antigravity a supprimé mon disque dur », la session de vibe coding d’un photographe vire au cauchemar

2 décembre 2025 à 15:59

Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.

« Google Antigravity a supprimé mon disque dur », la session de vibe coding d’un photographe vire au cauchemar

2 décembre 2025 à 15:59

Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.

Alerte rouge chez OpenAI : l’entreprise suspendrait plusieurs projets à cause de Google

2 décembre 2025 à 10:38

Selon The Information, Sam Altman aurait envoyé un mémo aux employés d'OpenAI pour leur annoncer que l'entreprise traverse une zone de turbulence. Face à la montée en puissance de Google Gemini, ChatGPT pourrait lancer un nouveau modèle dès la semaine prochaine.

Nano-PDF - Éditez vos PDF grâce à l'IA Nano Banana

Par : Korben
1 décembre 2025 à 13:10

Modifier un PDF, c’est toujours la galère surtout si c’est un PDF avec que des images sans texte sélectionnable. Soit vous avez Adobe Acrobat qui coûte une couille, soit vous vous tapez des outils en ligne douteux, soit vous exportez en Word et vous priez pour que la mise en page survive. Bref, vous faites vos trucs de losers….

Mais ça c’était sans compter sur Nano-PDF qui propose une approche radicalement différente : Vous décrivez ce que vous voulez changer en langage naturel, et l’IA se chargera du reste.

Par exemple, si vous avez une présentation PDF avec une faute de frappe sur la slide n°5, au lieu de galérer avec un éditeur, vous tapez juste

`nano-pdf edit ma_presentation.pdf 5 "Corrige la faute sur le mot 'investisement'"`

Et hop, c’est réglé. Vous voulez mettre à jour un graphique avec les données de 2025 ? Pareil, vous décrivez le changement et l’outil se débrouille !

Nano-PDF utilise le modèle Gemini 3 Pro Image de Google (surnommé “Nano Banana Pro”) pour interpréter vos instructions et générer les modifications visuelles. Le workflow technique est d’ailleurs bien fichu puisque les pages PDF sont converties en images via Poppler , envoyées au modèle avec votre prompt, puis les images générées sont reconverties en PDF avec une couche de texte restaurée par OCR via Tesseract. Du coup, vos PDF restent sélectionnables et cherchables après modification, contrairement aux solutions qui vous filent des images aplaties.

Côté fonctionnalités, y’a pas mal de choses sympas. Vous pouvez par exemple éditer plusieurs pages en une seule commande, créer de nouvelles slides qui respectent le style visuel de votre deck existant, même utiliser des pages de référence pour que l’IA comprenne mieux votre charte graphique, et le traitement par lot est géré en parallèle pour gagner du temps sur les grosses présentations.

L’installation passe par pip avec

`pip install nano-pdf`

Et comme je vous le disais, il vous faudra aussi Poppler pour le rendu PDF et Tesseract pour l’OCR. Et attention, petit détail qui a son importance, l’API Gemini Pro Image nécessite un compte payant. Faudra sortir la thune car les clés gratuites ne permettent pas de générer des images… donc bon, prévoyez quelques euros de crédit Google Cloud si vous voulez tester.

Le truc cool, c’est par défaut c’est du 4K en résolution, mais vous pouvez descendre en 2K ou 1K si vous voulez économiser sur les coûts d’API. Y’a aussi une option --use-context qui envoie tout le texte du PDF au modèle pour qu’il comprenne mieux le contexte de vos modifications. Et si vous créez une nouvelle slide, cette option est activée par défaut pour que le résultat soit cohérent avec le reste du document.

Voilà, si vous passez votre vie à modifier des présentations PDF et que vous en avez marre des workflows à rallonge, installez Nano-PDF . C’est open source sous licence MIT, et ça change la vie !

Merci Lorenper pour le partage !

Génère une horloge fonctionnelle : on a poussé un peu plus loin le comparateur d’IA le plus drôle du Web

30 novembre 2025 à 17:31

Sur le site AI World Clocks, 9 horloges sont générées chaque minute. Elles sont chacune basées sur un modèle d'IA différent. Une façon ludique de répondre à une question essentielle : quelle IA est capable de nous donner l'heure efficacement à travers une horloge ?

Au fait, pourquoi Nano Banana s’appelle Nano Banana ?

30 novembre 2025 à 16:00

En réalité lancé sous l'appellation « Gemini 2.5 Flash Image », le modèle de génération/édition d'images de Google est aujourd'hui connu sous le nom de Nano Banana. Son successeur, Nano Banana Pro, s'appelle en réalité « Gemini 3 Pro Image », même si personne ne l'appelle comme ça.

HashJack - L'attaque qui met à mal les navigateurs IA

Par : Korben
27 novembre 2025 à 12:30

Les chercheurs de Cato Networks viennent de publier leurs travaux sur une nouvelle technique d’attaque baptisée HashJack, et l’idée c’est d’exploiter les fragments d’URL, vous savez le petit # suivi d’un truc à la fin des adresses web, pour injecter des instructions malveillantes dans les assistants IA intégrés aux navigateurs.

En temps normal, tout ce qui se trouve après le # dans une URL ne quitte jamais votre navigateur et c’est utilisé pour naviguer vers une section précise d’une page web, et les serveurs web ne voient jamais cette partie. Du coup, les outils de sécurité réseau non plus. Et c’est justement là que ça devient vicieux…

Car les assistants IA comme Gemini dans Chrome, Copilot dans Edge ou Comet de Perplexity ont accès à l’intégralité de l’URL, fragment compris. Un attaquant peut donc crafter une URL d’apparence légitime avec des instructions cachées après le #, et quand vous demandez à votre assistant IA de vous aider avec cette page, il va gentiment exécuter les commandes planquées. Cato Networks décrit ça comme la première injection de prompt indirecte capable de transformer n’importe quel site légitime en vecteur d’attaque.

D’après les tests de l’équipe de Cato, les scénarios d’attaque possibles sont variés puisque ça va du phishing classique où l’assistant vous donne un faux numéro de téléphone à appeler, à l’exfiltration de données vers des serveurs contrôlés par l’attaquant. Y’a aussi la désinformation avec de fausses infos boursières ou médicales, ou encore des instructions détaillées pour installer des backdoors.

Bref, c’est le jackpot pour les attaquants.

Niveau compatibilité de l’attaque, les trois principaux touchés sont Gemini pour Chrome, Copilot pour Edge et Comet de Perplexity. Bonne nouvelle quand même, Claude pour Chrome et Atlas d’OpenAI ne sont pas vulnérables, puisqu’iils n’accèdent pas directement aux fragments d’URL.

Côté réponse des éditeurs, c’est un peu le grand écart puisque Perplexity a classé le problème comme critique et a appliqué un correctif, Microsoft a fait pareil pour Copilot fin octobre mais par contre, Google a décidé de classer ça comme un “comportement attendu” et a marqué le bug en “Won’t Fix”.

Argh !! Donc si vous utilisez Gemini dans Chrome, vous êtes toujours exposé les amis !

Après faut relativiser quand même car l’attaque nécessite plusieurs étapes d’interaction de la part de l’utilisateur. C’est pas juste cliquer sur un lien et hop vous êtes pwned. Il faut visiter la page vérolée ET demander à l’assistant IA d’interagir avec le contenu. Mais bon, vu que de plus en plus de gens utilisent ces assistants pour des tâches quotidiennes, le risque existe.

D’ailleurs, HashJack s’inscrit dans une tendance plus large. Brave a publié une étude montrant que l’injection de prompt indirecte est un défi systémique pour toute la catégorie des navigateurs boostés à l’IA et des techniques similaires ont été testées avec succès contre Atlas de ChatGPT et d’autres. Même le CISO d’OpenAI admet que, je cite “l’injection de prompt reste un problème de sécurité non résolu à la frontière de la recherche”.

Voilà, si vous utilisez un Navigateur IA, soyez vigilant sur les URLs bizarres qu’on vous envoie et si c’est Gemini dans Chrome, peut-être qu’il vaut mieux attendre que Google se décide à considérer ça comme un vrai problème de sécu… ces fous !

Source

Aluminium OS - Le nouvel essai de Google pour mettre Android sur votre PC

Par : Korben
25 novembre 2025 à 21:18

Vous vous souvenez de Remix OS, de Phoenix OS et de tous ces projets qui promettaient ENFIN de faire tourner Android sur votre PC comme un vrai OS desktop ? Ouais, moi aussi je m’en souviens… Et ce dont je me souviens surtout, c’est de comment ça s’est terminé… Des abandons, des problèmes de mise à jour, du licensing foireux avec Google. Bref, un vrai carnage…

Hé bien cette fois c’est Google lui-même qui se lance dans l’aventure avec un projet baptisé Aluminium OS. Et attention, ce n’est pas juste une rumeur de plus puisque Rick Osterloh, le grand patron de la division Devices de chez Google, a officiellement annoncé le projet en septembre dernier au Snapdragon Summit de Qualcomm. Comme les deux boîtes bossent ensemble sur cette nouvelle plateforme, on devrait logiquement voir débarquer des machines sous puces Snapdragon.

Côté naming, Google reste fidèle à sa convention maison avec un nom de métal en “-ium”, vous savez, comme Chromium pour Chrome… Sauf qu’ils ont choisi la version britannique “Aluminium” plutôt que “Aluminum” nord-américaine. Ça sera aussi plus simple à retenir pour nous les français.

Aluminium c’est donc la fusion tant attendue entre ChromeOS et Android afin d’avoir un seul OS unifié pour les laptops, les tablettes détachables et même les mini-PC style Chromebox. L’objectif affiché c’est de mieux concurrencer l’iPad sur le marché des tablettes, mais aussi taper sur la tête de Windows et macOS côté PC. Et contrairement à ce qu’on pourrait craindre, Google ne compte pas limiter ça aux machines d’entrée de gamme pourries puisqu’ils prévoient trois segments : AL Entry (le pas cher), AL Mass Premium (le milieu de gamme) et AL Premium pour jouer dans la cour des grands.

Le truc qui change vraiment par rapport aux Phoenix OS et autres projets communautaires, c’est surtout que Google veut intégrer son IA Gemini au cœur du système. Bon ok, tout le monde fait ça maintenant, mais au moins ça prouve que c’est un projet sérieux avec de vraies ressources derrière.

Maintenant, si vous êtes actuellement utilisateurs de Chromebook (force à vous ! ^^), pas de panique puisque les machines existantes continueront à recevoir leurs mises à jour jusqu’à leur fin de vie. Les plus récentes pourraient même avoir droit à une petite migration vers Aluminium OS si elles sont compatibles. D’ailleurs, si on en croit les rapports de bugs internes, Google teste actuellement ce système sur des cartes de dev équipées de puces MediaTek Kompanio 520 et Intel Alder Lake 12e gen, donc si votre Chromebook tourne avec l’un de ces chipsets, vous avez peut-être une chance…

En interne, les ingénieurs parlent même déjà de “ChromeOS Classic” pour désigner l’ancien système, ce qui laisse penser que Google pourrait simplement renommer Aluminium en ChromeOS une fois leur truc mature.

Bref, le lancement de ce nouvel OS Made in Google est prévu pour 2026 et sera probablement basé sur Android 17. À voir maintenant si ça décollera plus que ChromeOS…

Source

Gmail entraîne son IA avec vos mails ? Pas si vite...

Par : Korben
21 novembre 2025 à 10:47

Ces derniers jours, une info a pas mal circulé… Google activerait par défaut une option permettant à Gmail de lire vos mails pour entraîner Gemini, son IA. Plusieurs sites dont le mien ont relayé l’info, puisque c’est ce que nous a expliqué Malwarebytes … qui a depuis publié un rectificatif.

Alors qu’est-ce qu’il en est vraiment ? D’où vient la confusion ?

Google a récemment reformulé et déplacé certains paramètres liés aux “fonctionnalités intelligentes” de Gmail. Le problème, c’est que le nouveau wording est suffisamment vague pour prêter à confusion. Quand on voit “smart” ou “intelligent” en 2025, on pense direct à l’IA générative. Ajoutez à ça l’intégration de Gemini un peu partout dans les produits Google, plus un procès en cours en Californie qui accuse Google d’avoir donné accès à Gmail, Chat et Meet à Gemini sans consentement… et vous obtenez un joli cocktail de parano.

Alors que fait vraiment Gmail à vos message ?

Hé bien Gmail scanne bien vos emails, mais pour faire tourner ses propres fonctionnalités : le filtrage anti-spam, la catégorisation automatique (Principal, Promotions, Réseaux sociaux…), le Smart Compose qui suggère la fin de vos phrases, ou encore l’ajout automatique d’événements dans votre agenda. C’est comme ça que Gmail fonctionne depuis des années, et ce n’est pas la même chose que d’entraîner un modèle d’IA générative comme Gemini.

Google affirme d’ailleurs que ces paramètres sont opt-in (donc désactivés par défaut), même si l’expérience semble varier selon les utilisateurs.

Alors pourquoi désactiver quand même ces options ?

Hé bien même si vos mails ne servent pas à entraîner Gemini, vous pouvez légitimement vouloir limiter ce que Google analyse. Moins de données exploitées = moins de profilage. Voici comment faire.

Allez dans Gmail sur votre ordinateur. Cliquez sur l’icône engrenage en haut à droite, puis sur “Voir tous les paramètres”.

Scrollez jusqu’à la section “Fonctionnalités intelligentes et personnalisation” et décochez la case.

Ensuite, si vous utilisez Google Workspace, allez dans les paramètres correspondants et désactivez aussi “Fonctionnalités intelligentes dans Google Workspace” et “Fonctionnalités intelligentes dans d’autres produits Google”.

Et voilà !

Petit bémol, sans ces fonctionnalités, plus d’événements ajoutés automatiquement à l’agenda, plus de Smart Compose, plus de résumés automatiques. Bref, vous revenez à un Gmail plus basique, mais qui garde vos données un peu plus au chaud.

Bref, cette histoire est un bon rappel que quand une info semble trop “scandaleuse” pour être vraie, ça vaut le coup de creuser un peu avant de s’enflammer. Cela dit, vouloir limiter ce que Google sait de vous reste toujours une bonne idée !

Article initialement rédigé le 21 novembre 2025, puis édité le 24 novembre 2025, suite au correctif de MalwareBytes.

PROMPTFLUX - Le malware qui demande à Gemini comment échapper aux antivirus

Par : Korben
7 novembre 2025 à 10:15

Bon vous savez tous comment marche votre antivirus. Il détecte un malware, il le bloque, et tout revient à la normale.

Mais si je vous disais que maintenant, c’est parfaitement possible qu’une heure plus tard le même malware se repointe, sauf que c’est plus le même, parce que son code a changé. Car entre temps, il a demandé à Google Gemini de le réécrire…

Bien c’est pas de la science-fiction, hein, c’est ce que décrit un rapport du Google Threat Intelligence Group (GTIG) qui nous présente une nouvelle génération de malwares qui intègrent des LLM directement dans leur exécution.

Plus de génération statique du code, c’est le malware lui-même qui appelle une API LLM pendant qu’il tourne, demande des modifications, se réécrit, et repart faire sa besogne.

Les deux exemples les plus marquants s’appellent PROMPTFLUX et PROMPTSTEAL .

PROMPTFLUX, c’est un dropper en VBScript qui appelle l’API Gemini pour obfusquer son propre code. Il se réécrit dans la base de registre Windows pour persister au reboot, puis demande à Gemini de générer de nouvelles variantes d’obfuscation. Son module interne s’appelle “Thinking Robot” et il interroge Gemini régulièrement du genre “Comment contourner l’antivirus X ? Propose des variantes de mon code pour éviter la signature Y.

Gemini lui répond, le malware applique le conseil, se modifie, et se relance.

Comme les antivirus détectent les malwares par signatures ou comportements connus, si le malware change toutes les heures, les signatures deviennent immédiatement obsolètes. L’antivirus a alors toujours un coup de retard. Et PROMPTFLUX n’a même pas besoin d’un serveur C2 pour télécharger de nouvelles variantes puisqu’il génère ses propres variantes localement en demandant à Gemini.

GTIG estime que PROMPTFLUX est encore en développement et les échantillons analysés ne montrent pas de capacité réelle à compromettre un réseau. Mais ça reste une preuve de concept active… En gros, quelqu’un, quelque part teste cette approche.

PROMPTSTEAL, lui par contre, est déjà opérationnel. GTIG l’attribue à APT28 (FROZENLAKE), un groupe lié au renseignement militaire russe (GRU). Le CERT-UA l’a documenté sous le nom LAMEHUG en juillet dernier et c’est la première observation d’un malware qui interroge un LLM en opération réelle.

PROMPTSTEAL de son côté est écrit en Python. Il utilise l’API Hugging Face pour accéder au modèle Qwen2.5-Coder-32B-Instruct . Le malware envoie des prompts encodés en Base64, genre “récupère les infos système” ou “trouve les documents sensibles” et le LLM génère des commandes Windows d’une ligne qui sont ensuite exécutées localement par le malware. Ensuite ce dernier collecte les données et les exfiltre tranquillement.

L’astuce donc, c’est que le malware ne contient plus de commandes en dur. Il les génère à la volée selon le contexte comme ça, si l’environnement change, il demande de nouvelles commandes adaptées. Plus de pattern fixe à détecter et chaque exécution est différente.

GTIG mentionne aussi d’autres exemples tels que FRUITSHELL, un reverse shell PowerShell public qui contient des prompts pour contourner les protections LLM ou encore PROMPTLOCK, un concept de ransomware en Go qui utilise un LLM pour générer des scripts Lua de chiffrement.

Il y a aussi QUIETVAULT, un voleur de tokens JavaScript qui cible GitHub et NPM, puis exfiltre les résultats via des repos publics.

Tous ces malwares partagent la même idée : intégrer un LLM dans la chaîne d’exécution. Génération, obfuscation, commandes dynamiques, recherche de secrets… Le LLM devient un composant actif du malware !

Le rapport décrit aussi comment les attaquants contournent les protections des LLM à base d’ingénierie sociale dans les prompts. L’attaquant se fait passer le plus souvent pour un étudiant en sécurité, un participant à un CTF, ou encore un chercheur parfaitement légitime. Le LLM, configuré pour aider, répond alors à toutes les demandes.

Dans un cas documenté par GTIG, une tentative a mal tourné pour les attaquants. On le sait car dans les logs de leurs échanges avec le LLM, GTIG a trouvé des domaines C2 et des clés de chiffrement en clair. Les attaquants avaient oublié de nettoyer leurs tests et c’est grâce à ça que GTIG a récupéré l’accès à leur infrastructure puis l’a neutralisée.

Le rapport liste aussi les groupes étatiques actifs comme UNC1069 (MASAN) , lié à la Corée du Nord, qui utilise les LLM pour générer des deepfakes et voler des cryptoactifs. Ou encore UNC4899 (PUKCHONG) , aussi nord-coréen, qui emploie les modèles pour développer des exploits et planifier des attaques sur les supply chains.

De son côté, APT41 , un groupe étatique chinois, s’en sert pour obfusquer du code. Et le groupe iranien APT42 , a même tenté de construire un agent SQL qui traduirait des requêtes en langage naturel vers des commandes d’extraction de données sensibles. GTIG les a bloqué en coupant les comptes qu’ils utilisaient.

Et sur le marché noire, ce genre d’outils et de services multi-fonctions ont le vent en poupe. Génération de campagne de phishing, création de deepfakes, génération automatique de malwares, abonnements avec accès API…etc.

Leur modèle commercial copie celui des services légitimes avec une version gratuite basique pour gouter et un abonnement payant pour les fonctions avancées, avec des communautés Discord pour le support. Ça permet d’abaisser la barrière d’entrée pour les attaquants les moins expérimentés.

Côté défense maintenant, les recommandations sont assez classiques. Pensez à surveiller l’activité anormale des clés API qui pourraient être volées. Détectez les appels inhabituels à des services LLM externes depuis les processus. Contrôlez l’intégrité des exécutables et protégez tout ce qui est “secrets” sur les hôtes.

N’oubliez pas non plus de ne jamais, ô grand jamais, exécuter aveuglément des commandes générées par un modèle IA (je vous l’ai assez répété).

Voilà, tous ces exemples actuels sont expérimentaux mais le signal est donné et il est plutôt limpide : l’IA est en train de rendre les malwares plus virulents en leur permettant de s’adapter !

Source

❌
❌