Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

ChatGPT va mettre bien plus de monde au chômage que prévu

ChatGPT va-t-il remplacer des métiers ? L'IA se montre de plus en plus performante et la version 4.5 sortie récemment sera encore meilleure. Voici ce que j'ai pu tester, la performance de l'outil se montre assez redoutable, et fiable !

L’article ChatGPT va mettre bien plus de monde au chômage que prévu est apparu en premier sur Tom’s Hardware.

full

thumbnail

Qwen3 - Un équivalent de o3-mini capable de tourner sur votre PC

Je suis content d’avoir investi dans un Mac Studio pour faire tourner des modèles IA un peu plus balèzes du coup, je surveille un peu ce qui sort en ce moment comme modèles, notamment pour coder, et voilà que la famille de modèles Qwen3 vient d’être officiellement lancée, et franchement, ça a l’air plutôt pas mal ! Surtout si vous aimez jouer avec du LLM sans passer par les API payantes de géants de la tech comme OpenAI.

ChatGPT va bientôt faire du shopping à votre place

– Article invité, rédigé par Vincent Lautier –

OpenAI vient d’annoncer qu’ils allaient ajouter une fonctionnalité shopping à ChatGPT, pour permettre aux utilisateurs de comparer et d’acheter des produits directement depuis l’interface. Une annonce qui place encore plus clairement OpenAI en compétition directe avec Google et Amazon, toujours dans l’idée de réinventer la recherche en ligne.

ChatGPT se lance dans la course au shopping en ligne

ChatGPT propose donc désormais à certains de ses utilisateurs une fonctionnalité inédite : rechercher et acheter des produits sans quitter l’application. Annoncée officiellement par OpenAI, cette nouveauté concerne d’abord quelques catégories comme l’électronique, la mode, la beauté et les articles pour la maison. L’objectif est clair : capter davantage de temps d’utilisation et bousculer les géants historiques de la recherche et de l’e-commerce.

OpenAI veut racheter Chrome - Révolution ou catastrophe ?

Chrome c’est le navigateur dont je ne voudrais même pas sur mon ordinateur tellement il est pourri comparé à Firefox alors imaginez ma surprise quand j’ai appris qu’OpenAI voulait racheter cette bouze ! Et pas n’importe comment !! Ils le veulent uniquement si la justice américaine force Google à s’en séparer suite à ce fameux procès antitrust qui a déclaré Google comme détenteur d’un monopole illégal sur la recherche web.

GPT sur un NAS Synology, c’est possible en 5 minutes chrono !

synology chatgpt - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !

Vous vous demandez si vous pouvez faire fonctionner ChatGPT, ou plus largement un LLM, sur votre NAS Synology ? La réponse est oui ! Mieux encore, cette installation ne prend que quelques minutes grâce à Docker. Dans cet article, je vous propose un guide simple et accessible, avec quelques conseils adaptés à votre NAS. Cependant, avant de commencer, il est important de garder à l’esprit que certaines limitations matérielles peuvent impacter les performances. Rentrons dans le vif du sujet…

ChatGPT sur NAS Synology

ChatGPT et NAS Synology

Faire tourner un Large Language Model (LLM) comme ChatGPT localement sur un NAS Synology, c’est possible. Vous le savez, mais il est important de le rappeler, ces modèles sont gourmands en ressources, notamment pour un NAS Synology. Heureusement, il existe une multitude de LLM, chacun présentant des niveaux de performance et des besoins en ressources variables.

Ollama + Open WebUI = La solution simplifiée

Ollama est un outil open source et gratuit, qui permet de faire tourner des IA localement, que ce soit sur un ordinateur ou un NAS. Il sera alors possible de lui déléguer des tâches variées : rédaction, traduction, génération de code, réponse à des questions, etc.

Associé à Open WebUI, une interface web claire et ergonomique, vous pouvez interagir avec ces modèles directement depuis votre navigateur. L’interface permet de :

  • Gérer les discussions et l’historique ;
  • Changer de modèle facilement ;
  • Organiser vos conversations ;
  • Personnaliser l’expérience utilisateur.

C’est un peu comme avoir votre propre assistant IA privé, entièrement sous votre contrôle.

Installation pas à pas

Pour vous faciliter la tâche, j’ai préparé un fichier Docker Compose compatible avec la plupart des NAS Synology.

Prérequis

  • Installez Container Manager depuis le Centre de paquets Synology ;
  • Créez un dossier Ollama dans votre répertoire docker à la racine de votre NAS à l’aide de File Station ;
  • À l’intérieur, créez un sous-dossier data.

Voici le contenu du fichier Docker Compose à placer dans le dossier Ollama :

version: "3.9"
services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    volumes:
      - ./data:/root/.ollama:rw
    ports:
      - "11434:11434"
    restart: unless-stopped

  webui:
    image: ghcr.io/open-webui/open-webui:latest
    container_name: ollama-webui
    environment:
      OLLAMA_BASE_URL: http://192.168.1.100:11434 # A remplacer par l'IP de votre NAS
      DISABLE_AUTH: "true"
    ports:
      - "8271:8080" # A changer si besoin
    depends_on:
      - ollama
    restart: unless-stopped

Comme vous pouvez le constater, le projet contient 2 conteneurs :

  • Ollama : Moteur principal, chargé de faire tourner les IA localement ;
  • WebUI : Interface graphique, accessible depuis un navigateur via le port 8271 .

Installation

  1. Placer le fichier compose.yaml dans le dossier Ollama
  2. Ouvrez Container Manager et naviguez vers le menu de gauche « Projets« 
  3. Cliquez sur le bouton Créer, puis remplissez les champs requis et suivez les instructions (voir capture ci-dessous)
    projet ollama synology - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !
  4. Appuyez sur Suivant, puis encore Suivant et enfin Effectué
  5. Attendez quelques minutes que les conteneurs soient prêts.

C’est fini !

Utilisation

Une fois l’installation terminée, ouvrez un navigateur et accédez à l’interface via l’une des adresses suivantes :

  • http://NomDuNAS:8271/
  • http://AdresseIP:8271/

Ajout, suppression de LLM

Pour gérer les modèles (télécharger, supprimer), cliquez sur votre profil en haut à droite, puis sélectionnez Paramètres, vous arrivez sur cet écran.

parametres Open WebUI - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !

Là, vous choisissez Paramètres d’administration, une nouvelle page s’ouvre :

parametres Open WebUI 1 - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !

Vous sélectionnerez Modèles dans le menu de gauche, et enfin vous cliquerez sur l’icône à gauche symbolisant le téléchargement. Cette nouvelle fenêtre permettra de télécharger et supprimer des LLM sur votre NAS.

telechargement llm nas synology - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !

Quel LLM avec son NAS ?

Si le NAS ne dispose que de 8 Go de RAM ou moins, je vous recommande :

  • Phi-2 (2,7B) : Modèle léger, rapide, idéal pour les NAS peu puissants avec 6 Go de RAM minimum
  • LlaMa3.1 (8B) : Plus complet, il nécessite plus de ressources et un NAS avec 16 Go de RAM ou plus
  • Mistral (7B) : Également très performant, il nécessitera au moins 16 Go de RAM

Vous pouvez consulter la bibliothèque complète ici : ollama.com/library. Il est bien sûr possible d’installer d’autres modèles sur le NAS (Gemma3, DeepSeek, Qwen, StarCoder, etc.) et de basculer de l’un à l’autre selon vos besoins. Tous ces modèles fonctionnent tous localement, sans communication externe (désactivable/activable depuis l’interface Web).

À noter que BitNet de Microsoft, très prometteur pour les NAS sur le papier, n’est pas encore compatible avec Ollama au moment où sont écrites ces lignes.

Pour aller plus loin

Enfin, sachez qu’il est possible d’utiliser des clés API (voir ci-dessous) pour accéder à d’autres LLM hébergés à distance et compatibles avec OpenAI API (comme ChatGPT, DeepSeek, xAI Grok, OpenRouter, LiteLLM, etc.).

cle openai API - GPT sur un NAS Synology, c'est possible en 5 minutes chrono !

Certains fabricants de NAS (autre que Synology) prennent en charge nativement les TPU Coral (au format M.2 ou USB) ou les cartes graphiques Nvidia, spécialement conçus pour décharger le processeur du NAS et accélérer les réponses.

En synthèse

Faire tourner des modèles d’IA localement sur un NAS Synology, c’est possible. Docker permet de simplifier l’installation, et la combinaison Ollama + Open WebUI offre une interface fluide, intuitive, et surtout, tout se passe en local. Cependant, gardez en tête que les NAS, même performants, ne sont pas conçus pour des charges lourdes en calcul. Pour des modèles plus exigeants, un serveur dédié ou une machine avec GPU restera une meilleure option.

OpenAI préparerait un réseau social dopé à l'IA

S’il y a bien un truc dont je suis sûr, c’est que le monde n’a pas besoin d’un nouveau réseau social. Et pourtant, c’est exactement ce que prépare Sam Altman, le CEO d’OpenAI, dans ce qui ressemble à une nouvelle saison de Game of Thrones version Silicon Valley.

Donc si vous êtes un nerd qui s’intéresse aux stratégies des titans de la tech, vous allez adorer cette nouvelle bataille qui se prépare.

ChatGPT va bientôt enregistrer absolument TOUT ce que vous lui dites

OpenAI a annoncé une mise à jour majeure de son assistant intelligent ChatGPT, qui permet désormais de relire toutes les anciennes conversations pour actualiser sa mémoire. Cette fonctionnalité, présentée par Sam Altman, le PDG d’OpenAI, vise à offrir une expérience utilisateur plus personnalisée. ChatGPT enregistrera absolument tout La nouvelle fonctionnalité permet à ChatGPT de relire […]

L’article ChatGPT va bientôt enregistrer absolument TOUT ce que vous lui dites est apparu en premier sur Tom’s Hardware.

full

thumbnail

Comment distinguer si un texte a été écrit par un humain ou une IA ?

Bon, faut pas se leurrer, on est tous passé à l’IA ou presque. Quand je dis tous, je parle des gens comme moi qui font des trucs sur Internet… J’en vois même qui chient à longueur de journée sur l’IA générative et qui l’utilisent. Ça se sent dans leurs articles. Ou alors c’est parce qu’ils pompent des contenus fais avec de l’IA ? Je ne sais pas.

Mais il faut bien le reconnaitre, c’est le bordel !

❌