GPT sur un NAS Synology, c’est possible en 5 minutes chrono !

Vous vous demandez si vous pouvez faire fonctionner ChatGPT, ou plus largement un LLM, sur votre NAS Synology ? La réponse est oui ! Mieux encore, cette installation ne prend que quelques minutes grâce à Docker. Dans cet article, je vous propose un guide simple et accessible, avec quelques conseils adaptés à votre NAS. Cependant, avant de commencer, il est important de garder à l’esprit que certaines limitations matérielles peuvent impacter les performances. Rentrons dans le vif du sujet…

ChatGPT sur NAS Synology

ChatGPT et NAS Synology

Faire tourner un Large Language Model (LLM) comme ChatGPT localement sur un NAS Synology, c’est possible. Vous le savez, mais il est important de le rappeler, ces modèles sont gourmands en ressources, notamment pour un NAS Synology. Heureusement, il existe une multitude de LLM, chacun présentant des niveaux de performance et des besoins en ressources variables.

Ollama + Open WebUI = La solution simplifiée

Ollama est un outil open source et gratuit, qui permet de faire tourner des IA localement, que ce soit sur un ordinateur ou un NAS. Il sera alors possible de lui déléguer des tâches variées : rédaction, traduction, génération de code, réponse à des questions, etc.

Associé à Open WebUI, une interface web claire et ergonomique, vous pouvez interagir avec ces modèles directement depuis votre navigateur. L’interface permet de :

  • Gérer les discussions et l’historique ;
  • Changer de modèle facilement ;
  • Organiser vos conversations ;
  • Personnaliser l’expérience utilisateur.

C’est un peu comme avoir votre propre assistant IA privé, entièrement sous votre contrôle.

Installation pas à pas

Pour vous faciliter la tâche, j’ai préparé un fichier Docker Compose compatible avec la plupart des NAS Synology.

Prérequis

  • Installez Container Manager depuis le Centre de paquets Synology ;
  • Créez un dossier Ollama dans votre répertoire docker à la racine de votre NAS à l’aide de File Station ;
  • À l’intérieur, créez un sous-dossier data.

Voici le contenu du fichier Docker Compose à placer dans le dossier Ollama :

version: "3.9"
services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    volumes:
      - ./data:/root/.ollama:rw
    ports:
      - "11434:11434"
    restart: unless-stopped

  webui:
    image: ghcr.io/open-webui/open-webui:latest
    container_name: ollama-webui
    environment:
      OLLAMA_BASE_URL: http://192.168.1.100:11434 # A remplacer par l'IP de votre NAS
      DISABLE_AUTH: "true"
    ports:
      - "8271:8080" # A changer si besoin
    depends_on:
      - ollama
    restart: unless-stopped

Comme vous pouvez le constater, le projet contient 2 conteneurs :

  • Ollama : Moteur principal, chargé de faire tourner les IA localement ;
  • WebUI : Interface graphique, accessible depuis un navigateur via le port 8271 .

Installation

  1. Placer le fichier compose.yaml dans le dossier Ollama
  2. Ouvrez Container Manager et naviguez vers le menu de gauche « Projets« 
  3. Cliquez sur le bouton Créer, puis remplissez les champs requis et suivez les instructions (voir capture ci-dessous)
    projet ollama synology - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !
  4. Appuyez sur Suivant, puis encore Suivant et enfin Effectué
  5. Attendez quelques minutes que les conteneurs soient prêts.

C’est fini !

Utilisation

Une fois l’installation terminée, ouvrez un navigateur et accédez à l’interface via l’une des adresses suivantes :

  • http://NomDuNAS:8271/
  • http://AdresseIP:8271/

Ajout, suppression de LLM

Pour gérer les modèles (télécharger, supprimer), cliquez sur votre profil en haut à droite, puis sélectionnez Paramètres, vous arrivez sur cet écran.

parametres Open WebUI - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !

Là, vous choisissez Paramètres d’administration, une nouvelle page s’ouvre :

parametres Open WebUI 1 - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !

Vous sélectionnerez Modèles dans le menu de gauche, et enfin vous cliquerez sur l’icône à gauche symbolisant le téléchargement. Cette nouvelle fenêtre permettra de télécharger et supprimer des LLM sur votre NAS.

telechargement llm nas synology - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !

Quel LLM avec son NAS ?

Si le NAS ne dispose que de 8 Go de RAM ou moins, je vous recommande :

  • Phi-2 (2,7B) : Modèle léger, rapide, idéal pour les NAS peu puissants avec 6 Go de RAM minimum
  • LlaMa3.1 (8B) : Plus complet, il nécessite plus de ressources et un NAS avec 16 Go de RAM ou plus
  • Mistral (7B) : Également très performant, il nécessitera au moins 16 Go de RAM

Vous pouvez consulter la bibliothèque complète ici : ollama.com/library. Il est bien sûr possible d’installer d’autres modèles sur le NAS (Gemma3, DeepSeek, Qwen, StarCoder, etc.) et de basculer de l’un à l’autre selon vos besoins. Tous ces modèles fonctionnent tous localement, sans communication externe (désactivable/activable depuis l’interface Web).

À noter que BitNet de Microsoft, très prometteur pour les NAS sur le papier, n’est pas encore compatible avec Ollama au moment où sont écrites ces lignes.

Pour aller plus loin

Enfin, sachez qu’il est possible d’utiliser des clés API (voir ci-dessous) pour accéder à d’autres LLM hébergés à distance et compatibles avec OpenAI API (comme ChatGPT, DeepSeek, xAI Grok, OpenRouter, LiteLLM, etc.).

cle openai API - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !

Certains fabricants de NAS (autre que Synology) prennent en charge nativement les TPU Coral (au format M.2 ou USB) ou les cartes graphiques Nvidia, spécialement conçus pour décharger le processeur du NAS et accélérer les réponses.

En synthèse

Faire tourner des modèles d’IA localement sur un NAS Synology, c’est possible. Docker permet de simplifier l’installation, et la combinaison Ollama + Open WebUI offre une interface fluide, intuitive, et surtout, tout se passe en local. Cependant, gardez en tête que les NAS, même performants, ne sont pas conçus pour des charges lourdes en calcul. Pour des modèles plus exigeants, un serveur dédié ou une machine avec GPU restera une meilleure option.

    1. Hello,

      La génération de texte est déjà assez complexe pour nos NAS, ils ne sont pas encore prêts pour des images.
      Mais sinon, tu peux toujours regarder du côté de Stable Diffusion 😉

      1. Hello
        Super article
        Est-il possible d’utiliser l’ia pour nous aider à faire du tri dans nos dossiers, photos, vidéos ?
        par exemple: identife toutes les photos avant 2010 –
        Avez-vous quelques cas d’usage sympa à faire avec l’IA dans un syno ?

        merci bcp

        1. Immich... est l’application qui m’a le plus convaincue sur l’utilisation de l’IA (en local) pour la gestion de photos et de vidéos. Elle propose des fonctionnalités telles que la recherche de visages, le regroupement d’images, détection des doublons, l’exploitation des tags EXIF et la recherche intelligente.

  1. Bonjour, quel niveau de réponse ça peut donner avec si peu de mémoire, quand on entend qu’une requête que ChatGPT consomme un verre d’eau, même si ça semble surestimé ? Est-ce que pour du codage un peu poussé ça peut fonctionner ?
    Si vous avez des tests avec ce genre de machines je suis preneur !

  2. Merci ! et quelle solution utiliser pour mettre en place du RAG sur une base documentaire présente sur le NAS ? QNAP propose bien une solution via Qsirch et sa recherche RAG, mais les résultats sont très décevants.

  3. LA connexion semble ne pas fonctionner pour moi. J’ai suivi les étapes, mais il n’y a aucun modèle à sélectionner 🙁

  4. Merci++ pour le tuto
    Installation bien passée.
    Je suis passé par le reverse proxy du NAS pour accéder à l’application.

    Problème
    A l’étape du choix du modèle, je n’ai pas le même écran.
    Seulement l’URL du NAS apparait, et j’ai un message d’erreur de connexion.
    Je n’ai pas la liste des modèles à télécharger.

    Il y aurait un workaround ?
    Merci!

    1. Je me répond tout seul :), ca peut servir à d’autres.

      Bug trouvé en combinant les informations du post de Marius Hosting.
      -> il faut utiliser OLLAMA_BASE_URL: http://ollama:11434..., et hop tout fonctionne.

      Par contre je me suis appercu que je perds systématiquement les comptes utilisateurs chaque fois que je build le container. Pas top.

      Performances sur une config Syno RS1619 / INTEL Xeon D-1527 2.2 GHz / 64GB DDR / 2x930GB SSD Cache: 2 à 3x plus lent que les versions web. Mémoire utilisée: 16GB
      Ca reste acceptable.

      1. 1h pour répondre à une question avec Mistral sur un 920+ avec 20G de mémoire vive … Faut pas être pressé.
        Y’a moyen d’accélérer le process ?

  5. Merci ça fonctionne bien ! A noté qu’il y a des truc sympa à faire : rajouter ce module à paperless : https://github.com/clusterzx/paperless-ai...

    Ça permet de tagger et changer automatiquement les nom des doc pdf de paperless . Au début il faut mieux tester sur un ou deux doc pour adapter le prompt parce qu’il risque de mettre trop de tag par document. Mais je trouve que ça fonctionne pas si mal pour du local. Par contre ça consomme beaucoup de ram.. j’ai du passer de 16gb à 64 pour éviter que le syno n arrête des docker (bon j’étais en train d importer mon dossier de 1tb de photos dans immich en même temps … ça n’a pas aidé)

  6. Bonjour,
    L’installation est peut-être en 5 min (en corrigeant le bug du fichier config), mais je ne suis pas arrivé à avoir une seule réponse quel que soit le modèle (y compris Phi), ou alors, il faut attendre très très longtemps… Cela ne me semble pas utilisable. Mais peut-être me suis-je trompé quelque part.

  7. Pourquoi mettre en titre « ChatGPT » alors que l’on peut quasiment mettre tous les modèles ouverts, sauf ChatGPT ?
    Pour revenir sur les questions de modèle de création d’images, il faut mieux faire ça en local sur un PC avec une carte RTX ayant assez de RAM (8 à 12 Go selon les modèles), car sur un processeur classique c’est quasiment inutilisable. (les autres LLM aussi d’ailleurs pour des taches un peu compliquée…).

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.