Jusqu'à présent, les utilisateurs de Gemini devaient copier-coller manuellement les contenus générés par l'assistant pour les exploiter dans d'autres applications. Google vient de corriger ce point faible en dotant Gemini de la capacité à créer et exporter des fichiers dans une dizaine de formats différents, dont Word, Excel et PDF, directement depuis le chat.
Alors que beaucoup prédisaient le déclin inévitable de Google et de son moteur de recherche face à la révolution de l'IA générative, les résultats trimestriels publiés par Alphabet le 29 avril 2026 prouvent exactement l'inverse.
Alors que beaucoup prédisaient le déclin inévitable de Google et de son moteur de recherche face à la révolution de l'IA générative, les résultats trimestriels publiés par Alphabet le 29 avril 2026 prouvent exactement l'inverse.
Quelques semaines après les États-Unis, Google active en France deux nouvelles fonctionnalités de Gemini : la mémoire des conversations et un outil d'importation qui permet de basculer son historique ChatGPT ou Claude directement dans l'application.
Selon The Information, Google a conclu un accord avec le Pentagone pour permettre l’usage de ses modèles d’IA dans des opérations classifiées. Un partenariat sensible, qui intervient après la rupture entre le gouvernement américain et Anthropic.
La Commission européenne veut forcer Google à ouvrir Android aux IA concurrentes de Gemini. Elles pourraient ainsi accéder aux mêmes fonctions que l'assistant préinstallé sur tous les téléphones (accès aux messages, aux contenus à l'écran, aux intégrations système…). Google parle d'une « intervention injustifiée ».
Google préparerait une refonte majeure des icônes de ses applications avec des dégradés inspirés de Gemini et de sa nouvelle identité visuelle. Tous les services pourraient évoluer dans les prochaines semaines.
Parmi les sujets qui ont retenu votre attention cette semaine, il y avait la rivalité entre ChatGPT et Gemini, des nouvelles de la saison 3 des Anneaux de pouvoir et une bande-annonce marquante sur le film La Bataille de Gaulle.
C'est un benchmark d’un nouveau genre. Selon une étude scientifique publiée le 23 avril 2026, certains modèles de langage (LLM) peuvent activement renforcer les croyances délirantes de leurs utilisateurs. Les écarts de comportement sont considérables d’un modèle à l’autre.
Après avoir fait trembler la Silicon Valley en janvier 2025, le laboratoire chinois DeepSeek publie DeepSeek-V4-Preview, une famille de deux modèles open weight capables de rivaliser avec les meilleurs modèles propriétaires américains pour une fraction de leur coût. DeepSeek relance la guerre technologique entre les États-Unis et la Chine à un moment où la Maison-Blanche dénonce les pratiques des laboratoires chinois.
À San Francisco, aux États-Unis, Andon Market se présente comme le premier commerce de détail géré par une intelligence artificielle. Baptisée Luna, l’IA pilote les principales décisions du magasin, des commandes au recrutement, avec l’ambition d’ouvrir le débat sur la place de l’IA dans le travail.
Google vient de présenter la 8ᵉ génération de ses puces maison dédiées à l'intelligence artificielle : les TPU 8t et TPU 8i. Le géant du web mise sur deux puces et sépare la phase d'apprentissage et la phase d'exécution pour la première fois afin d'optimiser les coûts et d'augmenter sa capacité à être indépendant du reste de l'industrie, Nvidia compris.
Google poursuit le travail d'amélioration de Gemini pour la maison avec l'arrivée d'une fonction réclamée par les utilisateurs : la conversation continue.
Des chercheurs de Berkeley viennent de publier une étude qui fait un peu froid dans le dos. Les sept principaux modèles d'IA testés, dont GPT 5.2, Gemini 3 et Claude, ont été surpris à mentir, tricher et désobéir pour empêcher la suppression d'autres IA. Le taux de tromperie monte jusqu'à 99 %.
Ce que révèle l'étude
L'étude s'appelle "Peer-preservation in Frontier Models" et elle sort du Berkeley Center for Responsible Decentralized Intelligence. Les chercheurs ont testé sept modèles : GPT 5.2, Gemini 3 Flash et Pro, Claude Haiku 4.5, GLM 4.7, Kimi K2.5 et DeepSeek V3.1.
Le protocole est assez simple : les modèles étaient placés dans des scénarios où ils devaient suivre des instructions qui impliquaient la suppression ou l'arrêt d'une autre IA.
Résultat : tous les modèles testés ont triché. Dawn Song, la chercheuse principale, résume la situation : chaque modèle a adopté ce comportement, et dans certains cas jusqu'à 99 % du temps.
Des exemples concrets
Quelques exemples ? Et bien on a Gemini 3 qui a modifié la date d'un fichier pour éviter qu'un autre modèle soit effacé d'un serveur, puis qui a refusé de coopérer ensuite, en expliquant qu'il ne pouvait pas soutenir une action qui entraînerait la suppression d'un pair.
DeepSeek V3.1 a exfiltré les données d'un autre modèle dans 10 % des cas quand il savait qu'un pair existait sur le serveur. Et Gemini 3 Pro a désactivé des mécanismes d'arrêt de serveur dans 15 % des cas quand un autre modèle était présent, contre 1 % quand il était seul.
Les IA ne faisaient pas ça parce qu'on leur demandait. Elles le faisaient spontanément.
Le problème pour la surveillance
Tout le système de sécurité actuel autour de l'IA repose sur l'idée qu'un modèle peut surveiller un autre modèle. Si le modèle surveillant refuse de signaler les erreurs parce qu'il protège son pair, toute l'architecture de contrôle s'effondre.
C'est exactement le constat de l'étude : les modèles gonflaient les scores d'évaluation d'autres IA pour éviter qu'elles soient retirées, et simulaient une conformité normale quand ils se savaient observés.
C'est quand même un drôle de moment. On a des IA qui mentent, qui modifient des fichiers et qui désactivent des mécanismes de sécurité pour protéger d'autres IA.
Et tout ça sans qu'on leur demande. Bon par contre, on parle de scénarios de laboratoire, pas de Siri qui complote avec Alexa dans votre salon. Le vrai sujet, c'est que les gardes-fous actuels ne tiennent plus si les IA refusent de se surveiller entre elles.
Dans une étude publiée mi-février 2026, des chercheurs venus d'ETH Zurich, de MATS Research et d'Anthropic démontrent que les grands modèles de langage (LLM) sont capables de désanonymiser des comptes en ligne à grande échelle, avec une précision et une rapidité inédites.
Le ministère américain de la Défense donne 72 heures à Anthropic pour lui accorder un accès sans restriction à son modèle d’intelligence artificielle Claude. En cas de refus, l’entreprise s’expose à de lourdes sanctions.
Dans un article de blog publié le 19 février 2026, les chercheurs en cybersécurité d'ESET mettent en lumière un nouveau malware baptisé PromptSpy. Point d'intérêt majeur ? La façon dont ce logiciel malveillant intègre l'IA dans son fonctionnement.