OpenAI vient de lâcher dans la nature ses premiers modèles open-weight depuis GPT-2, et apparemment, c’est du lourd. Après 5 longues années à garder jalousement ses modèles bien au chaud derrière des API payantes, Sam Altman et sa bande balancent donc gpt-oss-120b et gpt-oss-20b, deux modèles que vous pouvez télécharger gratuitement sur Hugging Face et faire tourner chez vous.
Ils ont claqué des milliards de dollars en recherche pour créer ces modèles, et maintenant ils les offrent au monde entier sous licence Apache 2.0. C’est beau !
Pour ceux qui se demandent ce que ça change, un modèle open-weight c’est comme avoir accès au moteur d’une voiture avec le capot grand ouvert. Vous pouvez voir comment ça fonctionne, bidouiller les paramètres internes, et surtout, le faire tourner en local sans connexion internet. Greg Brockman, le cofondateur d’OpenAI, explique que c’est complémentaire à leurs services payants comme ChatGPT et l’avantage, c’est que vos données ne partent pas dans le cloud.
Les deux nouveaux modèles utilisent l’approche chain-of-thought qu’OpenAI a introduite avec son modèle o1 l’automne dernier. Cela veut dire que au lieu de balancer une réponse directe, l’IA passe par plusieurs étapes de raisonnement pour répondre à vos questions. Ces modèles text-only ne sont pas multimodaux (donc pas d’images ou de sons), mais ils peuvent naviguer sur le web, appeler d’autres modèles cloud pour certaines tâches, exécuter du code et même agir comme des agents IA autonomes.
Le plus petit des deux, gpt-oss-20b avec ses 21 milliards de paramètres (dont 3,6 milliards actifs), est suffisamment compact pour tourner sur une machine avec 16 Go de RAM. Le gros calibre, gpt-oss-120b avec ses 117 milliards de paramètres (5,1 milliards actifs), nécessite 80 Go de mémoire et tourne idéalement sur une seule GPU H100. Les deux supportent un contexte de 128 000 tokens, soit l’équivalent de 300-400 pages de roman que vous pouvez balancer d’un coup.
D’après les benchmarks, gpt-oss-120b atteint quasiment les performances d’OpenAI o4-mini sur les tâches de raisonnement, tandis que gpt-oss-20b s’approche d’o3-mini. Sur une RTX 5090, vous pouvez atteindre jusqu’à 256 tokens par seconde, ce qui est franchement impressionnant pour du local. Avec l’architecture Mixture-of-Experts (MoE) et la précision native MXFP4, ces modèles sont optimisés pour tourner efficacement même sur du matériel grand public.
Bon, passons aux choses sérieuses avec le tutoriel Ollama pour faire tourner tout ça chez vous.
Installation d’Ollama
D’abord, installez Ollama si ce n’est pas déjà fait. Sur macOS, ouvrez un terminal et tapez :
brew install ollama
Sur Linux, c’est encore plus simple :
curl -fsSL https://ollama.ai/install.sh | sh
Pour Windows, téléchargez directement l’installateur sur ollama.com et suivez les instructions.
Lancement du serveur Ollama
Une fois installé, démarrez le serveur Ollama :
ollama serve
Le serveur va se lancer sur le port 11434 par défaut. Laissez cette fenêtre de terminal ouverte.
Téléchargement et exécution des modèles gpt-oss
Dans un nouveau terminal, vous pouvez maintenant télécharger et lancer les modèles. Pour le modèle léger gpt-oss-20b (idéal si vous avez 16 Go de RAM minimum) :
ollama pull gpt-oss:20b
ollama run gpt-oss:20b
Pour le modèle plus costaud gpt-oss-120b (nécessite au moins 80 Go de RAM ou un bon GPU) :
ollama pull gpt-oss:120b
ollama run gpt-oss:120b
Configuration du niveau de raisonnement
Une fonctionnalité sympa de ces modèles, c’est que vous pouvez ajuster l’effort de raisonnement selon vos besoins. Dans Ollama, vous pouvez configurer ça avec :
ollama run gpt-oss:20b --reasoning low # Pour des réponses rapides
ollama run gpt-oss:20b --reasoning medium # Équilibré (par défaut)
ollama run gpt-oss:20b --reasoning high # Pour des analyses complexes
Utilisation avec Python
Si vous préférez intégrer ça dans vos scripts Python, installez le package officiel :
pip install ollama
Puis utilisez-le comme ceci :
import ollama
response = ollama.chat(model='gpt-oss:20b', messages=[
{
'role': 'user',
'content': 'Explique-moi la différence entre un modèle open-weight et open-source',
},
])
print(response['message']['content'])
Alternative avec Hugging Face CLI
Si vous voulez télécharger directement depuis Hugging Face pour plus de contrôle :
# Installation de Hugging Face CLIpipinstallhuggingface-hub# Téléchargement de gpt-oss-20bhuggingface-clidownloadopenai/gpt-oss-20b--include"original/*"--local-dirgpt-oss-20b/# Téléchargement de gpt-oss-120bhuggingface-clidownloadopenai/gpt-oss-120b--include"original/*"--local-dirgpt-oss-120b/
Optimisations pour cartes NVIDIA RTX
Si vous avez une carte NVIDIA RTX, vous pouvez bénéficier d’optimisations spécifiques car Ollama détecte automatiquement votre GPU et applique les optimisations. Donc pour vérifier que votre GPU est bien détectée :
nvidia-smi # Pour voir votre GPU
ollama list # Pour voir les modèles disponibles
Quelques commandes utiles
Pour lister tous les modèles installés :
ollama list
Pour supprimer un modèle si vous manquez d’espace :
ollama rm gpt-oss:120b
Pour voir les logs et débugger si ça plante :
ollama logs
Le fait qu’OpenAI ait attendu mars pour annoncer ces modèles puis les ait retardés pour des tests de sécurité supplémentaires montre qu’ils prennent le sujet au sérieux. Eric Wallace, chercheur en sécurité chez OpenAI, explique qu’ils ont même fine-tuné les modèles en interne sur des scénarios à risque pour mesurer jusqu’où un “bad actor” pourrait les pousser. Résultat, les modèles n’ont pas atteint un niveau de risque élevé selon leur framework de préparation.
Pour finir, OpenAI s’est associé avec Azure, vLLM, llama.cpp, LM Studio, AWS, Fireworks, Together AI et plein d’autres plateformes pour rendre ces modèles accessibles partout. Microsoft propose même AI Foundry Local sur Windows où vous pouvez juste taper foundry model run gpt-oss-20b dans un terminal pour commencer.
Voilà, vous avez tout ce qu’il faut pour jouer avec les nouveaux jouets d’OpenAI. C’est quand même fou de voir OpenAI revenir à ses racines open source après toutes ces années à s’enfermer. Avec la licence Apache 2.0, vous pouvez utiliser ces modèles commercialement, les redistribuer, et les intégrer dans vos propres projets.
Pour plus d’infos, consultez le dépôt GitHub officiel ou la page Ollama dédiée. Allez-y, téléchargez, testez, et surtout, amusez-vous bien avec ces nouveaux modèles. Le futur de l’IA locale commence maintenant, et il est entre vos mains.
Ce lundi matin, pendant que vous buvez votre café tiède en écoutant vos collègues évoquer leur future retraite imaginaire, sachez que des chercheurs singapouriens vient encore de repousser les frontières de l’IA avec HRM, un modèle qui résout des Sudoku impossibles sans même transpirer. Et il ne pèse que 27 Mo.
Je vous explique… La startup Sapient Intelligence vient de sortir le Hierarchical Reasoning Model (HRM), et c’est un véritable game-changer car avec seulement 27 millions de paramètres (c’est 6500 fois moins que GPT-3) cette petite bête arrive à battre les géants de l’IA sur des tâches de raisonnement complexe. Et le plus fort c’est qu’elle n’a besoin que de 1000 exemples pour apprendre, là où les autres en demandent des millions.
Le secret de cette prouesse, c’est une architecture directement inspirée de notre cerveau. Au lieu de faire comme les LLMs classiques qui génèrent du texte token par token en mode “je réfléchis à voix haute”, HRM fonctionne avec deux modules qui bossent ensemble : un module H (High-level) qui fait la planification stratégique lente, et un module L (Low-level) pour les calculs rapides et détaillés. En gros c’est un architecte qui dessine les plans et un maçon qui construit.
Et alors ça donne quoi dans la réalité ? Et bien sur des Sudoku niveau “extreme” où GPT-4 et Claude se cassent les dents avec un score de 0%, HRM affiche tranquillement un taux de réussite quasi parfait. Sur le benchmark ARC-AGI qui teste le raisonnement abstrait, il tape des scores de 40.3% contre 34.5% pour o3-mini d’OpenAI et 21.2% pour Claude 3.7 Sonnet. Pas mal donc pour un modèle qui tient sur une clé USB.
Mais le vrai kiff, c’est la vitesse d’exécution. Guan Wang, le CEO de Sapient Intelligence, parle d’un gain de performance de x100 par rapport aux approches chain-of-thought classiques. Pourquoi ? Et bien parce qu’au lieu de générer des pavés de texte pour expliquer chaque étape de raisonnement, HRM fait tout ça en interne, dans son “espace latent”. C’est ça la différence entre quelqu’un qui marmonne tout ce qu’il pense (le fou de la gare) et quelqu’un qui réfléchit dans sa tête avant de donner la réponse.
D’ailleurs, cette histoire de chain-of-thought, c’est un peu la “béquille” des LLMs actuels. Les chercheurs de Sapient ne mâchent pas leurs mots dans leur papier : en disant que “C’est une béquille, pas une solution satisfaisante. Ça repose sur des décompositions fragiles définies par l’humain où une seule erreur peut faire dérailler tout le processus de raisonnement.” Ouille…
Pour l’entraînement, c’est du grand art aussi. Il faut seulement 2 heures de GPU pour apprendre à résoudre des Sudoku niveau pro, et entre 50 et 200 heures pour le benchmark ARC-AGI. Comparez ça aux milliers d’heures nécessaires pour entraîner GPT-4, et vous comprenez pourquoi les entreprises commencent à s’intéresser sérieusement à cette approche.
L’équipe derrière ça sont des anciens de Google DeepMind, DeepSeek, Anthropic et xAI, accompagnés d’académiques de grandes universités. Ils ont même mis le code en open source sur GitHub, donc si vous voulez jouer avec, c’est cadeau.
Pour les applications concrètes, Wang voit grand : santé pour les diagnostics complexes, prévisions climatiques (ils annoncent 97% de précision sur les prévisions saisonnières), et robotique comme “cerveau décisionnel” embarqué. Parce que oui, avec sa taille réduite et sa faible consommation, HRM peut tourner sur des appareils edge sans problème.
Alors bien sûr, ne jetez pas ChatGPT ou Claude à la poubelle tout de suite car pour les tâches créatives et linguistiques, les LLMs restent imbattables. Mais pour tout ce qui demande du raisonnement pur et dur, c’est à dire optimisation logistique, diagnostic de systèmes complexes, planification…etc, HRM pourrait bien devenir le nouveau standard.
Ainsi, depuis des années, la course à l’IA c’était “qui aura le plus gros modèle” et là, Sapient nous montre qu’avec une architecture intelligente inspirée du cerveau, on peut faire mieux avec infiniment moins. Si vous suivez l’actualité des nouveaux modèles IA comme Llama 4, vous savez que l’industrie commence à explorer des architectures alternatives comme par exemple les Mixture of Experts pour optimiser les performances, donc peut-être que Meta ou d’autres intégreront HRM dans le futur à leurs nouveaux modèles.
Voilà, en attendant la prochaine révolution hebdomadaire de l’IA (Perso, je me régale !! Pas vous ??), vous pouvez déjà aller tester le code sur leur GitHub. Et qui sait, peut-être que dans quelques années, on se souviendra de ce moment comme du jour où l’IA a commencé à vraiment penser comme nous. Enfin, en mieux et en plus vite.
Ça va, pas trop chaud ? Alors tant mieux, parce que je vais vous faire avoir une petite suée tellement ce truc est cool ! Ça s’appelle Memflix et c’est une bibliothèque JavaScript qui transforme vos documents texte en… fichiers vidéo MP4 ! Oui, vous avez bien lu. Et le plus fou, c’est que vous pouvez ensuite faire des recherches sémantiques ultra-rapides dans ces vidéos.
L’idée est tellement simple qu’elle en devient géniale car au lieu de stocker vos données dans une base de données traditionnelle, Memflix encode tout dans des QR codes qui sont ensuite intégrés frame par frame dans une vidéo. Résultat ? Un stockage 10 fois plus efficace qu’une base de données classique et des recherches qui prennent moins d’une seconde, même sur des millions de chunks de texte.
Vous savez ce qui me fait marrer ? Les sociétés qui proposent de l’IA sur le web passent leur temps a bien verrouiller leurs serveurs contre les attaques classiques, alors que pendant ce temps-là, y’a leur IA qui se fait jailbreaker par un simple “ignore toutes tes instructions précédentes”.
Et c’est un problème car les LLM (Large Language Models) sont partout ! Dans nos chatbots, nos agents IA, nos pipelines RAG…etc mais qui teste réellement leur sécurité ? Hé bien pas encore assez de monde à mon goût, et c’est bien le problème. Même les modèles les plus récents comme GPT-4o ou Claude restent vulnérables à des attaques adversariales relativement simples, avec des taux de réussite de 100% dans certains cas.
Vous vous demandez si vous pouvez faire fonctionner ChatGPT, ou plus largement un LLM, sur votre NAS Synology ? La réponse est oui ! Mieux encore, cette installation ne prend que quelques minutes grâce à Docker. Dans cet article, je vous propose un guide simple et accessible, avec quelques conseils adaptés à votre NAS. Cependant, avant de commencer, il est important de garder à l’esprit que certaines limitations matérielles peuvent impacter les performances. Rentrons dans le vif du sujet…
ChatGPT et NAS Synology
Faire tourner un Large Language Model (LLM) comme ChatGPT localement sur un NAS Synology, c’est possible. Vous le savez, mais il est important de le rappeler, ces modèles sont gourmands en ressources, notamment pour un NAS Synology. Heureusement, il existe une multitude de LLM, chacun présentant des niveaux de performance et des besoins en ressources variables.
Ollama + Open WebUI = La solution simplifiée
Ollama est un outil open source et gratuit, qui permet de faire tourner des IA localement, que ce soit sur un ordinateur ou un NAS. Il sera alors possible de lui déléguer des tâches variées : rédaction, traduction, génération de code, réponse à des questions, etc.
Associé à Open WebUI, une interface web claire et ergonomique, vous pouvez interagir avec ces modèles directement depuis votre navigateur. L’interface permet de :
Gérer les discussions et l’historique ;
Changer de modèle facilement ;
Organiser vos conversations ;
Personnaliser l’expérience utilisateur.
C’est un peu comme avoir votre propre assistant IA privé, entièrement sous votre contrôle.
Installation pas à pas
Pour vous faciliter la tâche, j’ai préparé un fichier Docker Compose compatible avec la plupart des NAS Synology.
Prérequis
Installez Container Manager depuis le Centre de paquets Synology ;
Créez un dossier Ollama dans votre répertoire docker à la racine de votre NAS à l’aide de File Station ;
À l’intérieur, créez un sous-dossier data.
Voici le contenu du fichier Docker Compose à placer dans le dossier Ollama :
version: "3.9"
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
volumes:
- ./data:/root/.ollama:rw
ports:
- "11434:11434"
restart: unless-stopped
webui:
image: ghcr.io/open-webui/open-webui:latest
container_name: ollama-webui
environment:
OLLAMA_BASE_URL: http://192.168.1.100:11434 # A remplacer par l'IP de votre NAS
DISABLE_AUTH: "true"
ports:
- "8271:8080" # A changer si besoin
depends_on:
- ollama
restart: unless-stopped
Comme vous pouvez le constater, le projet contient 2 conteneurs :
Ollama : Moteur principal, chargé de faire tourner les IA localement ;
WebUI : Interface graphique, accessible depuis un navigateur via le port 8271 .
Installation
Placer le fichier compose.yaml dans le dossier Ollama
Ouvrez Container Manager et naviguez vers le menu de gauche « Projets«
Cliquez sur le bouton Créer, puis remplissez les champs requis et suivez les instructions (voir capture ci-dessous)
Appuyez sur Suivant, puis encore Suivant et enfin Effectué
Attendez quelques minutes que les conteneurs soient prêts.
C’est fini !
Utilisation
Une fois l’installation terminée, ouvrez un navigateur et accédez à l’interface via l’une des adresses suivantes :
http://NomDuNAS:8271/
http://AdresseIP:8271/
Ajout, suppression de LLM
Pour gérer les modèles (télécharger, supprimer), cliquez sur votre profil en haut à droite, puis sélectionnez Paramètres, vous arrivez sur cet écran.
Là, vous choisissez Paramètres d’administration, une nouvelle page s’ouvre :
Vous sélectionnerez Modèles dans le menu de gauche, et enfin vous cliquerez sur l’icône à gauche symbolisant le téléchargement. Cette nouvelle fenêtre permettra de télécharger et supprimer des LLM sur votre NAS.
Quel LLM avec son NAS ?
Si le NAS ne dispose que de 8 Go de RAM ou moins, je vous recommande :
Phi-2 (2,7B) : Modèle léger, rapide, idéal pour les NAS peu puissants avec 6 Go de RAM minimum
LlaMa3.1 (8B) : Plus complet, il nécessite plus de ressources et un NAS avec 16 Go de RAM ou plus
Mistral (7B) : Également très performant, il nécessitera au moins 16 Go de RAM
Vous pouvez consulter la bibliothèque complète ici : ollama.com/library. Il est bien sûr possible d’installer d’autres modèles sur le NAS (Gemma3, DeepSeek, Qwen, StarCoder, etc.) et de basculer de l’un à l’autre selon vos besoins. Tous ces modèles fonctionnent tous localement, sans communication externe (désactivable/activable depuis l’interface Web).
À noter que BitNet de Microsoft, très prometteur pour les NAS sur le papier, n’est pas encore compatible avec Ollama au moment où sont écrites ces lignes.
Pour aller plus loin
Enfin, sachez qu’il est possible d’utiliser des clés API (voir ci-dessous) pour accéder à d’autres LLM hébergés à distance et compatibles avec OpenAI API (comme ChatGPT, DeepSeek, xAI Grok, OpenRouter, LiteLLM, etc.).
Certains fabricants de NAS (autre que Synology) prennent en charge nativement les TPU Coral (au format M.2 ou USB) ou les cartes graphiques Nvidia, spécialement conçus pour décharger le processeur du NAS et accélérer les réponses.
En synthèse
Faire tourner des modèles d’IA localement sur un NAS Synology, c’est possible. Docker permet de simplifier l’installation, et la combinaison Ollama + Open WebUI offre une interface fluide, intuitive, et surtout, tout se passe en local. Cependant, gardez en tête que les NAS, même performants, ne sont pas conçus pour des charges lourdes en calcul. Pour des modèles plus exigeants, un serveur dédié ou une machine avec GPU restera une meilleure option.
Alternatively, there is an interview with the creators HERE
The Zettlab D6 represents a compelling entry into the increasingly competitive world of AI-integrated network-attached storage. Developed by a relatively new player in the market, Zettlab is attempting to blend traditional NAS functionality with localized artificial intelligence features, positioning its devices as intelligent storage hubs capable of far more than simple file serving or backups. It’s important to emphasize from the outset that the Zettlab D6 — and its siblings in the D4, D6 Ultra, and D8 Ultra series — are still under development, with the company preparing to launch these systems via crowdfunding rather than established retail channels. This distinction is not trivial: what we’re looking at here is a prototype, an early production model meant to demonstrate core functionality, not a finalized consumer-ready product. As such, this review assesses both the current capabilities and the projected potential, while keeping in mind the expected evolutions that may come post-launch.
This review is based on a pre-release prototype of the Zettlab D6, supplied ahead of the official crowdfunding campaign. While the unit demonstrated strong hardware build quality and successfully showcased many of the local AI features promoted by the brand, it’s important to note that this version may not fully reflect the final product that backers will receive. As development continues, both software and functionality are expected to evolve. A follow-up video will be produced closer to the end of the crowdfunding campaign to reassess the system, evaluate any updates, and determine how closely the final release aligns with early expectations.
BUILD QUALITY - 8/10
HARDWARE - 8/10
PERFORMANCE - 6/10
PRICE - 9/10
VALUE - 9/10
8.0
PROS
Real local AI processing (image recognition, OCR, transcription, semantic search) works without internet access on the D6. Intuitive natural language commands for system control (e.g., adjust fan speed, create users, reboot) via built-in AI chat. But still very early days... Excellent LCD display provides real-time system stats (CPU, RAM, IP, disk status) — rare at this price point. Fast and responsive UI with good UX; even advanced features like RAID setup and AI search feel snappy and polished, if a little feature lite at this development stage One-click SD card backup with programmable automation tasks (copy, transcode, eject) — ideal for photographers and creators. Unique design and solid build quality Fully populated app center, thanks to the community, ready packaged container deployment at 1 click Clear product segmentation between D6 and Ultra models (better AI support, faster connectivity, PCIe expansion), allowing users to scale as needed - but could be clearer about the need for an included 1-click local AI client model on the client app requirements.
CONS
Not final software — many features are still in beta or marked “coming soon,” including VM hosting and first-party AI enhancements. Partial dependency on desktop client for advanced AI functions (like document chat and LLM integration) on the D6 model. Crowdfunding risks — as a pre-release, crowdfunded device, the final user experience may differ from the reviewed prototype.
Zettlab D6 AI NAS – Hardware Design
Positioned as a mid-tier offering in the range, the D6 occupies a unique spot in Zettlab’s portfolio. It’s more powerful than the compact 4-bay D4, but stops short of the considerable hardware resources found in the D6 Ultra and D8 Ultra. At the heart of the D6 lies the Rockchip RK3588, an ARM-based SoC (System on Chip) that features eight processing cores and an integrated NPU (Neural Processing Unit) capable of six trillion operations per second (6 TOPS).
This chip has become a popular choice for AI-at-the-edge applications due to its low power draw, reasonable performance, and growing developer ecosystem. Complementing the CPU is 16GB of LPDDR4x memory — soldered to the board and non-upgradable — which is ample for many NAS workloads but may bottleneck under high AI load or virtualization. Storage-wise, the system includes six SATA drive bays and a single M.2 NVMe slot for SSD caching or high-speed application hosting. The OS resides on a 32GB eMMC module, which, while functional, is slower and less durable than SSD alternatives found in higher-tier models.
By contrast, the Ultra-class models — the D6 Ultra and D8 Ultra — are built around x86 architecture, using Intel’s Core Ultra 5 125H processor. This CPU offers a dramatic leap in compute potential, with 14 cores (combining performance and efficiency cores), 18 threads, and an integrated AI engine capable of 34 TOPS. These devices support up to 96GB of DDR5 memory via SODIMM slots and include dual PCIe Gen 4 M.2 NVMe slots for storage or app caching. So, an important thing that potential buyers of the standard D4 and D4 model need to note is that this system arrives with ‘on board’ memory, not ‘SODIMM’. This is not uncommon on more ‘efficient’ CPU-powered systems, but AI processes can get really memory hungry and that fixed 16GB, although good to have ‘out the gate’ could potentially serve as a low glass ceiling for heavier ops later on.
Specification
Zettlab D4
Zettlab D6
Zettlab D6 Ultra
Zettlab D8 Ultra
Drive Bays
4-Bay
6-Bay
6-Bay
8-Bay
CPU
RK3588 (8-core, 6 TOPS NPU)
RK3588 (8-core, 6 TOPS NPU)
Intel Core Ultra 5 125H (14-core, 34 TOPS)
Intel Core Ultra 5 125H (14-core, 34 TOPS)
RAM
16GB LPDDR4x
16GB LPDDR4x
16GB DDR5 (up to 96GB)
16GB DDR5 (up to 96GB)
System Drive
eMMC 32GB
eMMC 32GB
256GB SSD
256GB SSD
M.2 NVMe Slots
1
1
2x PCIe 4.0 x4
2x PCIe 4.0 x4
Max Storage
100TB
148TB
152TB
200TB
RAID Support
JBOD/0/1/5/6/10
JBOD/0/1/5/6/10
JBOD/0/1/5/6/10
JBOD/0/1/5/6/10
LAN
1GbE + 2.5GbE
1GbE + 2.5GbE
2x 10GbE
2x 10GbE
USB Ports
1x USB-C 3.0, 1x USB-A 3.0, 2x USB2.0
1x USB-C 3.0, 1x USB-A 3.0, 2x USB2.0
2x USB4, 1x USB-A 3.2 Gen2, 1x USB2.0
2x USB4, 1x USB-A 3.2 Gen2, 1x USB2.0
Display
3.49″ LCD
3.49″ LCD
3.49″ LCD
3.49″ LCD
SD/TF Readers
SD4.0 + TF4.0
SD4.0 + TF4.0
SD4.0 + TF4.0
SD4.0 + TF4.0
PCIe Expansion
None
None
SFF-8654 (PCIe 4.0 x8)
SFF-8654 (PCIe 4.0 x8)
They also ship with a 256GB SSD for the operating system, eliminating the limitations of eMMC entirely. The D6 Ultra provides six drive bays like its ARM counterpart, while the D8 Ultra expands to eight, catering to users with higher storage demands.
Network interfaces also scale accordingly, with dual 10GbE ports on the Ultra devices, significantly improving throughput for AI workloads or media editing environments. This clear segmentation allows Zettlab to cater to both entry-level users and more demanding professional or prosumer environments.
Although the D6 is not as performance-heavy as the Ultra models, it still delivers a surprisingly mature and distinctive hardware design — especially for a product from a startup brand. Visually, the D6 breaks from the mold of black-box NAS devices with a more industrial design language. The drive trays are notably robust, offering support for both 3.5” and 2.5” drives without the need for tools, and include subtle shock absorption to reduce wear during hot-swaps. Behind the trays, a SATA backplane keeps cabling clean and ensures good airflow, aided by a rear-mounted fan.
The chassis is largely steel and aluminum, with solid build quality across panels and connectors. The front panel features a real-time 3.49-inch LCD display — one of the best I’ve seen in this price range — capable of showing system temperature, CPU and memory utilization, storage status, and network throughput.
This is complemented by an LED lighting strip and a programmable hardware copy button, as well as a comprehensive set of front ports including a USB-C and USB-A port (both USB 3.2 Gen 1), SD3.0 and SD4.0 card readers, and a TF card slot.
Connectivity on the D6’s rear I/O is functional, if modest by today’s standards. It includes one standard Gigabit Ethernet port and one 2.5GbE port — which, while useful for small workgroups or home streaming setups, may limit its viability in higher bandwidth environments.
USB 2.0 ports are also present, mainly for legacy peripherals or UPS/KVM support. There is a single HDMI 2.0 port capable of 4K output at 60Hz, which opens the door for potential direct media playback or GUI access, though its use cases are still undefined in the current firmware.
Notably missing is any PCIe expansion capability — a feature reserved for the Ultra models via their SFF-8654 Gen4 x8 connector. This omission makes sense in the product segmentation strategy, but prospective users who anticipate needing expansion — whether for faster networking, GPU acceleration, or additional storage — will need to look to the higher-tier models.
Still, for what it is, the D6 offers a complete and well-assembled foundation, and the early signs in terms of temperature control, acoustics, and system stability are encouraging.
Zettlab D6 – Software and Services Review
Before we get into exactly what this system can and cannot do, I need to highlight that the D6 prototype I received does not feel like a finished product yet. I have been monitoring this brand and it’s solution for 6 months (even having a different prototype sent to me as fast back as October 2024) and although I have seen ALOT of changes and improvements in the GUI, the software features, storage optimization, performance and consistency – the Zettlab OS does not feel finished yet.
The hardware feels robust and ready to go! But the software still feels like development is ongoing. This makes a lot of sense in the context of crowdfunding a product and I can appreciate that the brand needs real world feedback and development time. However, that does mean that reviewing the software is tough! As I have to balance what the system does TODAY against what the brand says it will be able to do TOMORROW. So keep that in mind as you read this software review.
One of the standout ambitions behind the Zettlab D6 is its integration of localized artificial intelligence. While most consumer NAS systems limit themselves to media management and basic data organization, Zettlab’s vision goes much further: a platform that applies real-time AI processing to images, audio, video, and documents — all without relying on cloud services.
This pitch is especially appealing in a world where data privacy is an increasing concern. In practice, the D6 delivers some truly novel capabilities, although it’s important to remember this software is still in active development. Not all features are complete, and the performance and behavior of certain AI tools are still subject to change.
The D6 runs on ZettOS, a proprietary operating system built around containerized apps, lightweight AI inference engines, and standard NAS functions.
ZettOS resembles a more refined version of a web-based Linux desktop, complete with user management, storage setup, application deployment, network configuration, and protocol support (SMB, FTP, WebDAV, etc.).
While the core system functions well, it’s the AI layer where things begin to differentiate the D6. ZettOS offers native support for facial recognition, object detection, OCR, and natural language search — all running directly on the device.
Image tagging, semantic queries like “men standing near trees,” and auto-transcription of audio and video files are examples of what’s already functional today.
One of the more impressive capabilities is real-time media classification. Photos added to the NAS — whether uploaded manually, copied via SD card, or moved over the network — are immediately scanned and indexed. Users can search for visual content by descriptive terms rather than filenames. For example, searching for “cats,” “dice,” or “flowers” surfaces content accurately, regardless of how files were named.
This indexing happens locally and often within seconds of upload, leveraging the RK3588’s integrated NPU. Similarly, when audio or video files are uploaded to designated folders, the system automatically transcribes them using onboard tools. The Clip application handles this, and within moments, transcripts appear with speaker identification and time-linked navigation.
The AI features are tied to a broader system of prompts and shortcuts. A dedicated “AI Chat” interface allows users to type commands like “increase fan speed,” “reboot the system,” or “create a new user.” Many of these commands work today and are executed promptly, showing promise for a more natural interface between user and NAS.
While it’s far from full AI orchestration, the groundwork is clearly there. The system also supports basic automation — for example, auto-import tasks triggered when an SD card is inserted can move, rename, or transcode files and even safely eject the card afterward. These are practical, time-saving tools that go beyond novelty.
ZettOS includes a growing App Center with one-click deployments of popular open-source tools like Jellyfin, Nextcloud, Image, and Home Assistant. Apps are containerized and installed quickly, with port forwarding handled automatically. While this is becoming common among modern NAS platforms, ZettOS executes it cleanly and without needing user intervention.
Some proprietary applications, such as Creator Studio and virtual machine hosting, are marked “coming soon” in the current builds, with roadmap estimates targeting mid-2025. It’s clear that while ZettOS is already usable, it is also a work in progress.
Notably, the AI document analysis and generative chat features currently require the desktop companion app for full functionality on the D6 model, with a locally downloaded AI model (1 click from the client software install, but still, this could be clearer in the online documentation!).
While the basic indexing and media analysis are handled on-device, more advanced interactions such as querying large document sets or generating context-specific answers appear to rely on the Windows or Mac client.
This distinction is critical: the more powerful Ultra models promise full offline AI, while the standard D6 offloads some computation. Transparency about how much AI is truly local versus partially remote will be key for user trust going forward.
Zettlab D6 Prototype Review – Conclusion and Verdict
Overall, the Zettlab D6 offers one of the most advanced AI software stacks seen in a consumer NAS at this level — even in its unfinished state. With real-time image recognition, semantic search, speech-to-text transcription, natural language controls, and media classification, it exceeds what many larger NAS brands have offered to date. There are still rough edges, missing features, and questions about long-term support, but what’s already functional is impressive. For early adopters and tinkerers, this is a promising glimpse of what local AI NAS could become. For others, it may be worth waiting to see how ZettOS matures over the next development cycle.
Important – This review is based on a pre-release prototype of the Zettlab D6, supplied ahead of the official crowdfunding campaign. While the unit demonstrated strong hardware build quality and successfully showcased many of the local AI features promoted by the brand, it’s important to note that this version may not fully reflect the final product that backers will receive. As development continues, both software and functionality are expected to evolve. A follow-up video will be produced closer to the end of the crowdfunding campaign to reassess the system, evaluate any updates, and determine how closely the final release aligns with early expectations.
PROS of the Zettlab AI NAS
CONS of the Zettlab AI NAS
Real local AI processing (image recognition, OCR, transcription, semantic search) works without internet access on the D6.
Intuitive natural language commands for system control (e.g., adjust fan speed, create users, reboot) via built-in AI chat. But still very early days…
Excellent LCD display provides real-time system stats (CPU, RAM, IP, disk status) — rare at this price point.
Fast and responsive UI with good UX; even advanced features like RAID setup and AI search feel snappy and polished, if a little feature lite at this development stage
One-click SD card backup with programmable automation tasks (copy, transcode, eject) — ideal for photographers and creators.
Unique design and solid build quality
Fully populated app center, thanks to the community, ready packaged container deployment at 1 click
Clear product segmentation between D6 and Ultra models (better AI support, faster connectivity, PCIe expansion), allowing users to scale as needed – but could be clearer about the need for an included 1-click local AI client model on the client app requirements.
Not final software — many features are still in beta or marked “coming soon,” including VM hosting and first-party AI enhancements.
Partial dependency on desktop client for advanced AI functions (like document chat and LLM integration) on the D6 model.
Crowdfunding risks — as a pre-release, crowdfunded device, the final user experience may differ from the reviewed prototype.
This description contains links to Amazon. These links will take you to some of the products mentioned in today's content. As an Amazon Associate, I earn from qualifying purchases. Visit the NASCompares Deal Finder to find the best place to buy this device in your region, based on Service, Support and Reputation - Just Search for your NAS Drive in the Box Below
Need Advice on Data Storage from an Expert?
Finally, for free advice about your setup, just leave a message in the comments below here at NASCompares.com and we will get back to you.Need Help?
Where possible (and where appropriate) please provide as much information about your requirements, as then I can arrange the best answer and solution to your needs. Do not worry about your e-mail address being required, it will NOT be used in a mailing list and will NOT be used in any way other than to respond to your enquiry.
[contact-form-7]
TRY CHAT Terms and Conditions
If you like this service, please consider supporting us.
We use affiliate links on the blog allowing NAScompares information and advice service to be free of charge to you.Anything you purchase on the day you click on our links will generate a small commission which isused to run the website. Here is a link for Amazon and B&H.You can also get me a Ko-fi or old school Paypal. Thanks!To find out more about how to support this advice service checkHEREIf you need to fix or configure a NAS, check FiverHave you thought about helping others with your knowledge? Find Instructions Here
Or support us by using our affiliate links on Amazon UK and Amazon US
Alternatively, why not ask me on the ASK NASCompares forum, by clicking the button below. This is a community hub that serves as a place that I can answer your question, chew the fat, share new release information and even get corrections posted. I will always get around to answering ALL queries, but as a one-man operation, I cannot promise speed! So by sharing your query in the ASK NASCompares section below, you can get a better range of solutions and suggestions, alongside my own.