L’absence des RTX 50 SUPER au CES 2026 alimente les spéculations. Ce rafraîchissement intermédiaire est-il abandonnée pour mieux préparer l’arrivée des GeForce RTX 60 ?
Face aux prix élevés des GPU récents, NVIDIA envisage de relancer d'anciens modèles comme la RTX 3060 tout en réaffirmant que le rendu neuronal, où l'IA génère davantage de pixels à partir de moins de calculs, représente l'avenir des graphismes de jeu.
Au CES 2026, Uber expose son robotaxi conçu en partenariat avec Lucid et Nuro pour rivaliser avec Waymo, Zoox et Tesla. L'action de l'entreprise a fait un bond dans la foulée de l'annonce, alors qu'Uber compte s'appuyer sur Alpamayo, le modèle open source de conduite autonome de Nvidia.
NVIDIA lance DLSS 4.5 avec un modèle d'upscaling Transformer de 2e génération disponible sur tous les GPU RTX et un mode de génération d'images 6x réservé aux RTX 50, permettant d'atteindre 240 FPS en 4K avec path tracing mais au prix d'une latence accrue de 10-15 %.
Au CES 2026, Nvidia a présenté Alpamayo, une plateforme d’IA open source pour la conduite autonome, que Mercedes-Benz intégrera dès 2026 dans sa future CLA. Une approche qui vise clairement le même terrain que le Full Self-Driving (FSD) de Tesla.
Nvidia a présenté le DLSS 4.5. Cette évolution de la technologie d’upscaling assure une meilleure qualité d’image et des performances inédites en Path Tracing.
At CES 2026, NVIDIA took the wraps off of its new DLSS 4.5 update, featuring a second-gen Transformer Super Resolution model and a new 6x Multi Frame Generation tool. Here's what you need to know.
Face à la pénurie de RAM, Nvidia s'apprêterait à relancer la production de la GeForce RTX 3060. Celle-ci repose sur de la mémoire GDDR6, une technologie plus ancienne, généralement moins sous tension que la GDDR7 en termes de disponibilité et de prix.
Faut-il se préparer à une année 2026 compliquée en matière de prix ? Le jeu vidéo, et plus particulièrement le Gaming sur PC traverse une véritable crise d’accessibilité. Entre la course effrénée à l’IA, l’explosion de la demande en GPU toujours plus puissants et la dépendance croissante à la DDR5, les prix s’envolent. Ils laissent …
Vous avez une vieille GTX 1060 qui tourne nickel sous Arch Linux ? C'est con, NVIDIA vient de vous mettre un beau coup de pied aux fesses car la boîte au caméléon vert a décidé d'abandonner le support des GPU Pascal (les GTX 10xx) dans son dernier driver 590 et ça crée un joyeux bordel, notamment sur Arch.
Le problème, c'est que quand vous faites une mise à jour système sur Arch avec une vieille carte Pascal ou Maxwell, le nouveau driver refuse de charger. Résultat, vous vous retrouvez éjecté vers la ligne de commande sans interface graphique. Sympa pour débugger quand y'a plus d'écran qui fonctionne...
Faut dire que le modèle "rolling release" d'Arch fait que les utilisateurs ont reçu ce driver incompatible automatiquement avec leur mise à jour. Ils n'ont pas eu le temps de dire ouf que leur système était déjà cassé. Et les GTX 1060 et 1050 Ti, c'est pas exactement des cartes de musée... Y'en a encore pas mal qui tournent sur Steam, et même si parmi leurs propriétaires, seule une poignée utilise Linux, et encore moins Arch, ça fait quand même du monde impacté.
Pour s'en sortir, y'a deux solutions. La première, c'est d'installer le driver legacy nvidia-580xx-dkms depuis l'AUR, qui est maintenu par l'équipe CachyOS. Le hic, c'est que ça crée des problèmes de dépendances avec Steam, donc faut aussi installer lib32-nvidia-580xx-utils pour que les jeux 32 bits fonctionnent. La deuxième option, c'est de basculer sur Nouveau, le driver open source fait par reverse engineering. Ça marche, mais avec les limitations que ça implique niveau performances et fonctionnalités.
Ce qui me rend dingue dans cette histoire, c'est que pendant des années, NVIDIA a refusé de fournir de la documentation pour ses GPU, forçant la communauté Linux à utiliser le reverse engineering pour Nouveau. Et depuis 2022, ils ont ouvert les modules kernel pour les architectures Turing et plus récentes, mais les parties user-space et le firmware restent propriétaires. Et surtout, aucune aide pour les vieilles cartes comme Pascal !! Du coup, maintenant que NVIDIA abandonne ces générations de cartes, c'est aux bénévoles de la communauté de maintenir les drivers legacy... Pas cool.
D'ailleurs,
l'annonce officielle d'Arch Linux
précise que les cartes Turing et plus récentes (RTX 20xx et GTX 1650+) vont automatiquement basculer vers les modules kernel open source, donc pas d'intervention manuelle pour eux. C'est uniquement les propriétaires de vieilles Pascal/Maxwell qui doivent se taper le boulot.
Bref, si vous avez une carte Pascal sous Arch, basculez sur nvidia-580xx-dkms avant votre prochain pacman -Syu. Dans sa grande bonté, NVIDIA a aussi promis des patchs de sécu jusqu'en 2028, mais bon, on a vu ce que valent leurs promesses côté Linux...
En raison d'une pénurie mondiale de mémoire, du fait de la demande en IA, Nvidia pourrait réduire la production de ses cartes GeForce RTX 50 de près de 40 % dès 2026, menaçant ainsi la disponibilité des modèles de milieu de gamme comme les 5070 Ti et 5060 Ti.
NVIDIA et SK hynix co-développent pour 2027 un "AI SSD" capable d'atteindre 100 millions d'IOPS pour optimiser les charges de travail d'inférence, un projet qui risque de provoquer une pénurie majeure et une hausse des prix sur le marché mondial des puces NAND.
Vous voulez faire tourner un modèle d'IA en local sans avoir besoin d'un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d'entraînement afin de jouer la transparence totale. Chapeau !
Le modèle phare de cette nouvelle famille s'appelle Nemotron 3 Nano et c'est un modèle de 30 milliards de paramètres, mais attention, il n'en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du
Mamba-2
et du Mixture-of-Experts (
MoE
). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.
Sous le capot, Nvidia a également mis le paquet puisque le modèle a été entraîné sur 25 trillions de tokens. J'ai bien dit "trillions"... Pour vous donner une idée, les données d'entraînement incluent du
Common Crawl
de 2013 à 2025, du code dans 43 langages différents, des articles scientifiques, et une tonne de données synthétiques générées par d'autres modèles. Et tout ça, Nvidia l'a rendu public donc
vous pouvez télécharger les datasets sur Hugging Face
et vérifier par vous-même ce qui a servi à entraîner le bouzin.
Côté performances, Nemotron 3 Nano
se défend plutôt bien
. Sur les benchmarks de raisonnement mathématique comme AIME25, il atteint 99,2% quand on lui donne accès à des outils. Sur le coding avec LiveCodeBench, il tape du 68,3%, ce qui le place devant Qwen3-30B. Et pour les tâches d'agent logiciel genre SWE-Bench, il monte à 38,8%. Pas mal pour un modèle qu'on peut faire tourner sur du matos grand public.
D'ailleurs, parlons du matos justement. Nemotron 3 Nano tourne sur des cartes comme la H100, la A100, ou même la future RTX PRO 6000 et supporte jusqu'à 1 million de tokens en contexte si vous avez assez de VRAM. Et niveau vitesse, Nvidia annonce un débit de tokens 4 fois supérieur à la génération précédente, avec 60% de tokens de raisonnement en moins. C'est donc exactement ce que tout le monde demande à saoir du token qui sort vite pour les workflows agentiques.
Maintenant, pour l'utiliser, c'est hyper simple. Il est dispo sur Hugging Face, et vous pouvez le lancer avec Transformers, vLLM, TensorRT, ou même llama.cpp. Y'a même un mode "thinking" qu'on peut activer ou désactiver selon si on veut du raisonnement poussé ou des réponses rapides.
Pour ma part, je l'ai testé à l'aide d'Ollama comme ceci :
ollama run nemotron-3-nano:30b
J'ai trouvé que vitesse de génération était vraiment impressionnante, ça débite beaucoup plus qu'un Llama 3 qui est de taille équivalente. Après, je suis sur un Mac M4 avec 128 Go de RAM, donc je suis plutôt bien loti mais j'ai trouvé ce modèle vraiment très rapide. Je pense que je vais vraiment m'en servir pour des trucs comme de la qualification, du résumé, de l'analyse ce genre de choses.
A voir maintenant si en français il s'en sort bien sur les tournures de phrases. Quoi qu'il en soit pour du développement et des workflows agentiques, il n'y a pas photo, ça va être mon nouveau modèle par défaut quand j'ai besoin de choses en local.
La famille Nemotron 3 ne se limite pas au Nano évidemment. Y'a aussi le Super avec environ 100 milliards de paramètres pour les applications multi-agents, et l'Ultra avec 500 milliards pour les tâches vraiment complexes. Ces deux-là arriveront au premier semestre 2026 donc faudra encore être un peu patient. Nvidia a aussi sorti des bibliothèques comme NeMo Gym pour l'entraînement et NeMo RL pour le fine-tuning.
Jensen Huang, le patron de Nvidia, a aussi dit un truc intéressant lors de l'annonce : "L'innovation ouverte est le fondement du progrès de l'IA." Venant d'une boîte qui a longtemps joué la carte proprio sur ses technos, je trouve que c'est un sacré virage et des entreprises comme Accenture, Deloitte, Oracle, Palantir, ou même Cursor sont déjà en train d'intégrer Nemotron dans leurs produits.
Ce qui est cool aussi, c'est que le modèle supporte 24 langues officielles de l'UE plus une dizaine d'autres comme l'arabe, le chinois ou le japonais et côté code, il gère Python, C++, Java, Rust, Go, et même du CUDA. Bref, c'est plutôt polyvalent.
Voilà, donc si vous cherchez un modèle open source sérieux avec des données d'entraînement transparentes et une vitesse de génération qui arrache, Nemotron 3 Nano mérite clairement le coup d’œil !