
Vous vous demandez si vous pouvez faire fonctionner ChatGPT, ou plus largement un LLM, sur votre NAS Synology ? La réponse est oui ! Mieux encore, cette installation ne prend que quelques minutes grâce à Docker. Dans cet article, je vous propose un guide simple et accessible, avec quelques conseils adaptés à votre NAS. Cependant, avant de commencer, il est important de garder à l’esprit que certaines limitations matérielles peuvent impacter les performances. Rentrons dans le vif du sujet…

ChatGPT et NAS Synology
Faire tourner un Large Language Model (LLM) comme ChatGPT localement sur un NAS Synology, c’est possible. Vous le savez, mais il est important de le rappeler, ces modèles sont gourmands en ressources, notamment pour un NAS Synology. Heureusement, il existe une multitude de LLM, chacun présentant des niveaux de performance et des besoins en ressources variables.
Ollama + Open WebUI = La solution simplifiée
Ollama est un outil open source et gratuit, qui permet de faire tourner des IA localement, que ce soit sur un ordinateur ou un NAS. Il sera alors possible de lui déléguer des tâches variées : rédaction, traduction, génération de code, réponse à des questions, etc.
Associé à Open WebUI, une interface web claire et ergonomique, vous pouvez interagir avec ces modèles directement depuis votre navigateur. L’interface permet de :
- Gérer les discussions et l’historique ;
- Changer de modèle facilement ;
- Organiser vos conversations ;
- Personnaliser l’expérience utilisateur.
C’est un peu comme avoir votre propre assistant IA privé, entièrement sous votre contrôle.
Installation pas à pas
Pour vous faciliter la tâche, j’ai préparé un fichier Docker Compose compatible avec la plupart des NAS Synology.
Prérequis
- Installez Container Manager depuis le Centre de paquets Synology ;
- Créez un dossier
Ollama
dans votre répertoire docker
à la racine de votre NAS à l’aide de File Station ;
- À l’intérieur, créez un sous-dossier
data
.
Voici le contenu du fichier Docker Compose à placer dans le dossier Ollama
:
version: "3.9"
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
volumes:
- ./data:/root/.ollama:rw
ports:
- "11434:11434"
restart: unless-stopped
webui:
image: ghcr.io/open-webui/open-webui:latest
container_name: ollama-webui
environment:
OLLAMA_BASE_URL: http://192.168.1.100:11434 # A remplacer par l'IP de votre NAS
DISABLE_AUTH: "true"
ports:
- "8271:8080" # A changer si besoin
depends_on:
- ollama
restart: unless-stopped
Comme vous pouvez le constater, le projet contient 2 conteneurs :
- Ollama : Moteur principal, chargé de faire tourner les IA localement ;
- WebUI : Interface graphique, accessible depuis un navigateur via le port 8271 .
Installation
- Placer le fichier compose.yaml dans le dossier
Ollama
- Ouvrez Container Manager et naviguez vers le menu de gauche « Projets«
- Cliquez sur le bouton Créer, puis remplissez les champs requis et suivez les instructions (voir capture ci-dessous)

- Appuyez sur Suivant, puis encore Suivant et enfin Effectué
- Attendez quelques minutes que les conteneurs soient prêts.
C’est fini !
Utilisation
Une fois l’installation terminée, ouvrez un navigateur et accédez à l’interface via l’une des adresses suivantes :
- http://NomDuNAS:8271/
- http://AdresseIP:8271/
Ajout, suppression de LLM
Pour gérer les modèles (télécharger, supprimer), cliquez sur votre profil en haut à droite, puis sélectionnez Paramètres, vous arrivez sur cet écran.

Là, vous choisissez Paramètres d’administration, une nouvelle page s’ouvre :

Vous sélectionnerez Modèles dans le menu de gauche, et enfin vous cliquerez sur l’icône à gauche symbolisant le téléchargement. Cette nouvelle fenêtre permettra de télécharger et supprimer des LLM sur votre NAS.

Quel LLM avec son NAS ?
Si le NAS ne dispose que de 8 Go de RAM ou moins, je vous recommande :
- Phi-2 (2,7B) : Modèle léger, rapide, idéal pour les NAS peu puissants avec 6 Go de RAM minimum
- LlaMa3.1 (8B) : Plus complet, il nécessite plus de ressources et un NAS avec 16 Go de RAM ou plus
- Mistral (7B) : Également très performant, il nécessitera au moins 16 Go de RAM
Vous pouvez consulter la bibliothèque complète ici : ollama.com/library. Il est bien sûr possible d’installer d’autres modèles sur le NAS (Gemma3, DeepSeek, Qwen, StarCoder, etc.) et de basculer de l’un à l’autre selon vos besoins. Tous ces modèles fonctionnent tous localement, sans communication externe (désactivable/activable depuis l’interface Web).
À noter que BitNet de Microsoft, très prometteur pour les NAS sur le papier, n’est pas encore compatible avec Ollama au moment où sont écrites ces lignes.
Pour aller plus loin
Enfin, sachez qu’il est possible d’utiliser des clés API (voir ci-dessous) pour accéder à d’autres LLM hébergés à distance et compatibles avec OpenAI API (comme ChatGPT, DeepSeek, xAI Grok, OpenRouter, LiteLLM, etc.).

Certains fabricants de NAS (autre que Synology) prennent en charge nativement les TPU Coral (au format M.2 ou USB) ou les cartes graphiques Nvidia, spécialement conçus pour décharger le processeur du NAS et accélérer les réponses.
En synthèse
Faire tourner des modèles d’IA localement sur un NAS Synology, c’est possible. Docker permet de simplifier l’installation, et la combinaison Ollama + Open WebUI offre une interface fluide, intuitive, et surtout, tout se passe en local. Cependant, gardez en tête que les NAS, même performants, ne sont pas conçus pour des charges lourdes en calcul. Pour des modèles plus exigeants, un serveur dédié ou une machine avec GPU restera une meilleure option.