Vous en avez marre de jongler avec FileZilla ou de galérer avec les interfaces FTP préhistoriques ? Ça tombe bien car j’ai trouvé LA solution qui va vous simplifier la vie. Ça s’appelle FileGator, et c’est un gestionnaire de fichiers web open source qui permet de transformer n’importe quel serveur en plateforme de partage de fichiers moderne.
Le truc génial avec FileGator, c’est qu’il ne se contente pas de gérer vos fichiers locaux puisqu’il peut se connecter à Amazon S3, Dropbox, Azure Blob, Digital Ocean Spaces et plein d’autres services cloud grâce à Flysystem. Comme ça vous allez pouvoir gérer tous vos espaces de stockage depuis une seule interface web ! C’est cool non ?
L’interface construite avec Vue.js et Bulma, elle est plutôt propre et réactive et toutes les opérations de base sont là : copier, déplacer, renommer, éditer, créer, supprimer, prévisualiser, zipper, dézipper, télécharger et uploader. Il y a même un système d’upload, grâce à Resumable.js, qui vous permet d’uploader des fichiers énormes par chunks, avec une barre de progression, et même mettre en pause et reprendre plus tard. Comme ça, fini les uploads qui plantent après 2 heures !
La gestion multi-utilisateurs est aussi vraiment bien pensée. Vous pouvez créer des admins et des utilisateurs avec différents niveaux d’accès, des rôles personnalisés et des dossiers personnels. Parfait pour partager des documents avec votre équipe, donner accès à des étudiants pour qu’ils déposent leurs devoirs, ou permettre à des collaborateurs terrain d’uploader leurs rapports et photos. Les utilisateurs peuvent être stockés dans un simple fichier JSON, une base de données, ou même utiliser l’authentification WordPress si vous avez déjà un site.
Pour l’installation, c’est d’une simplicité déconcertante avec Docker. Une simple commande et hop, c’est parti :
docker run -p 8080:8080 -d filegator/filegator
Vous accédez ensuite à http://127.0.0.1:8080 et vous vous connectez avec admin/admin123. Si vous préférez une installation classique, il vous faut juste PHP, et vous pointez votre serveur web vers le dossier dist. Pas de base de données requise, tout est géré en fichiers ou via les adaptateurs de votre choix.
Y’a quand même quelques limitations à connaître… Les liens symboliques ne sont pas supportés (limitation de Flysystem), pas de gestion des propriétaires de fichiers (chown), et les performances peuvent se dégrader si vous avez vraiment beaucoup de fichiers dans un même dossier. Mais pour la plupart des usages, c’est largement suffisant.
Ce qui est cool aussi, c’est que le projet a une vraie histoire. À l’origine vendu sur CodeCanyon, il est devenu complètement open source et a été entièrement réécrit from scratch. La version 7 actuelle n’a plus rien à voir avec l’ancienne, et c’est tant mieux puisque le code est propre, bien testé, et l’architecture est extensible.
Pour les sessions, vous avez le choix : fichiers natifs, PDO, Redis, MongoDB, Memcached… Bref, ça s’adapte à votre infrastructure existante. Et si vous voulez contribuer ou personnaliser, le projet est sur GitHub avec une licence MIT, donc vous pouvez faire ce que vous voulez avec.
FileGator est donc parfait pour plein de cas d’usage : remplacer un vieux FTP, créer un cloud privé pour la famille, gérer un CDN avec plusieurs personnes, faire des sauvegardes cloud, ou simplement avoir un endroit centralisé pour gérer tous vos fichiers éparpillés sur différents services. Y’a même des gens qui l’utilisent pour des événements comme des mariages ou des remises de diplômes, où les invités peuvent uploader leurs photos.
Bref, si vous cherchez une alternative moderne au FTP qui ne vous coûtera pas un bras, FileGator est vraiment une excellente option. C’est gratuit, open source, activement maintenu, et ça fait le job avec classe.
Allez jeter un œil à la démo officielle pour vous faire une idée !
Les edge data centers occupent une place importante dans l’infrastructure digitale. Ils sont devenus un soutien essentiel des services cloud, des applis connectées et de la 5G.
Team Group vient de sortir un SSD qui peut littéralement se suicider sur commande en se faisant griller les circuits comme dans Mission Impossible. Et non, je déconne pas car le P250Q, c’est son petit nom, est équipé d’un circuit de destruction indépendant breveté qui peut faire fondre la puce mémoire Flash en envoyant une surtension directement dans ses entrailles.
Alors évidemment, c’est pas le genre de truc qu’on va retrouver dans le PC gaming de Timéo. Non, ce SSD s’adresse plutôt aux secteurs militaires, industriels et à tous ceux qui manipulent des données ultra-sensibles. Mais avouez que l’idée est complètement dingue car en plus du mode “barbecue électronique”, le P250Q propose aussi une destruction logicielle des données qui continue même si quelqu’un coupe l’alimentation.
Cet article a été réalisé en collaboration avec pCloud
À l’heure où les fuites de données sont devenues monnaies courantes, la protection des données personnelles n’a jamais été aussi importante. D’autant plus qu’il existe désormais pléthore d’outils plus puissants les uns que les autres pour accompagner les internautes dans cette tâche.
Cet article a été réalisé en collaboration avec pCloud
Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.
Cet article a été réalisé en collaboration avec pCloud
À l’heure où les fuites de données sont devenues monnaies courantes, la protection des données personnelles n’a jamais été aussi importante. D’autant plus qu’il existe désormais pléthore d’outils plus puissants les uns que les autres pour accompagner les internautes dans cette tâche.
Cet article a été réalisé en collaboration avec pCloud
Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.
Depuis plusieurs années, Synology explore l’intégration de l’intelligence artificielle pour améliorer son service client. Si le fabricant reste discret sur ses outils internes, William Eudes (Technical Support Manager de Synology France) nous a donné un aperçu de SynoGPT, une solution de support assistée par IA utilisée exclusivement en interne…
Une IA en soutien du support, pas un remplaçant
SynoGPT est un outil basé sur les technologies de RAG (Retrieval-Augmented Generation), mêlant génération de texte et recherche dans une base documentaire. Il est utilisé depuis 2 à 3 ans en interne par le support technique de Synology, avec une montée en puissance significative depuis début 2024.
L’outil ne se connecte pas directement aux données des utilisateurs, mais repose sur une base de connaissances support (interne et publique) ainsi qu’un historique des tickets traités par le passé. La finalité est claire : proposer une réponse fiable et rapide aux demandes basiques de niveau 0.
« L’IA ne remplace pas le support, elle l’accompagne », insiste William Eudes.
Niveau 0 : l’IA prend le relais en autonomie
En moyenne, 2 000 tickets sont reçus chaque mois par le support Synology France. Environ un quart de ces tickets (de niveau 0, les demandes simples) sont aujourd’hui pris en charge par SynoGPT. Si un ticket n’est pas pris en charge par un technicien au bout de 30 minutes, l’IA envoie une réponse automatiquement, ce qui est particulièrement utile en dehors des heures ouvrées.
Depuis septembre 2024, l’envoi des réponses est automatisé après validation des suggestions de l’IA. Cela signifie que les réponses proposées par l’IA sont jugées assez fiables pour être envoyées sans relecture systématique, tout en étant toujours disponibles en interne pour évaluation.
Résultat : 60 % des clients ne rouvrent pas leur ticket après une réponse de SynoGPT, un signe fort de la pertinence de l’outil.
Si le client répond au ticket, c’est un humain qui prend la suite… en aucun cas l’IA.
Notée presque comme un humain
Chaque réponse fait l’objet d’un questionnaire de satisfaction. Selon Synology « Les réponses générées par notre IA atteignent également un niveau très proche des performances humaines, ce qui démontre l’efficacité de cette technologie en complément de notre expertise ».
En parallèle, les techniciens notent également la qualité des réponses IA une fois le ticket clôturé. Ce double mécanisme d’évaluation permet à Synology d’améliorer continuellement la pertinence des réponses générées par SynoGPT.
SynoGPT est actuellement réservé aux utilisateurs particuliers et petites structures. Les clients professionnels et grands comptes continuent de bénéficier d’un accompagnement humain complet, notamment pour les projets complexes, comme la migration d’unités de stockage – un service qui reste gratuit chez Synology.
Mon retour d’expérience
J’ai personnellement eu recours au support de Synology un dimanche, en ouvrant un ticket pour un problème technique. 30 minutes plus tard, je recevais une réponse (clairement identifiée comme générée par l’IA). À ma grande surprise, les 5 pistes proposées étaient toutes cohérentes et bien ciblées.
Dans mon cas, le problème venait finalement d’une défaillance matérielle, prise en charge dans le cadre de la garantie. Mais je dois reconnaître que l’IA a su m’aiguiller efficacement. Elle aurait probablement permis de résoudre le souci…
C’est la pertinence de la réponse, combinée au fait qu’elle provenait clairement d’une IA, qui a éveillé ma curiosité et m’a donné envie d’en savoir plus… jusqu’à provoquer ce rendez-vous avec William.
En synthèse
Avec SynoGPT, Synology montre qu’il est possible d’intégrer l’IA dans un processus de support sans déshumaniser la relation client. Loin de remplacer les équipes, l’outil automatise le traitement des demandes simples pour mieux recentrer les techniciens sur les cas complexes.
Et pour l’avoir testé moi-même, je peux confirmer : réactivité, pertinence et clarté sont bien au rendez-vous. Une belle démonstration d’une IA réellement utile…
Alors que les SSD dominent le marché en matière de performance, Seagate continue de miser sur les disques durs mécaniques pour le stockage à froid dans les centres de données. Le constructeur américain vient d’annoncer la livraison des premiers modèles de 40 To, posant les premières briques de sa feuille de route vers 50 To à l’horizon 2028…
Seagate 40 To
Le nouveau EXOS M 40 To repose sur la plateforme Mozaic 4+, évolution du Mozaic 4. Il intègre la technologie HAMR (Heat-Assisted Magnetic Recording), qui consiste à chauffer localement les plateaux à l’aide d’un laser pour augmenter la densité de stockage tout en assurant la stabilité des données. Ce disque regroupe 10 plateaux de 4 To chacun, dans un format 3,5 pouces standard, illustrant la volonté de Seagate de repousser les limites physiques sans bouleverser les formats actuels.
Jolie prouesse, mais quelques retards
En mars 2021, Seagate nous dévoilait sa feuille de route ambitieuse. À l’époque, il annonçait l’arrivée des disques 30 To pour 2023, 40 To pour fin 2024 ou début 2025, 50 To pour 2026… pour atteindre 100 To en 2030. Aujourd’hui, ce planning a été ajusté. L’entreprise ambitionne de proposer un disque de 44 To d’ici 2027, puis 50 To en 2028.
Ce décalage s’explique par la complexité technologique du HAMR, qui allonge les cycles de qualification et de production.
Marché de la très haute densité
À ce jour, le HAMR est la seule technologie industrielle capable de dépasser la barre des 40 To. Les concurrents explorent d’autres pistes :
Western Digital mise sur des solutions hybrides comme OptiNAND ou ePMR ;
Toshiba privilégie le MAMR (Microwave-Assisted Magnetic Recording).
Pour Seagate, ce choix technologique vise un marché spécifique : les fournisseurs de services Cloud, les DataCenters à grande échelle et les infrastructures AI/Big Data, où les volumes colossaux importent plus que la vitesse d’accès.
En synthèse
En livrant ses premiers disques durs de 40 To, Seagate pose la première pierre d’une ère où la densité prime sur la vitesse. Si l’arrivée sur le marché grand public est encore lointaine, l’enjeu stratégique est clair : consolider sa position dans le stockage d’infrastructure et ouvrir la voie à des capacités toujours plus élevées.
Prochaine étape ? Une industrialisation en 2026, suivie d’un passage à 50 To en 2028. Une course où la prudence technique rime avec ambition.
Lors du Computex 2025 à Taipei, plusieurs annonces importantes ont été faites dans l’univers des NAS avec Synology, QNAP et ASUSTOR. Ces 3 fabricants taiwanais ont présenté des solutions allant du NAS domestique aux serveurs de stockage pour les entreprises avec des avancées sur les performances et l’intégration de l’intelligence artificielle.
Synology : Stockage NVMe enterprise et la nouvelle Série DS+
PAS7700 : Un PAS décisif vers le stockage Flash Enterprise
Synology passe à la vitesse supérieure avec le lancement de sa gamme Parallel Active Station (PAS), inaugurée par le modèle PAS7700. Ce système 4U en cluster dual-node, entièrement NVMe, marque un tournant dans la stratégie de la marque vers les solutions de stockage hautes performances pour l’entreprise.
Le PAS7700 affiche des performances impressionnantes annoncées : jusqu’à 2 millions d’IOPS en lecture aléatoire 4K et 30 Go/s en lecture séquentielle 64 KB. Chaque nœud embarque 24 emplacements pour les nouveaux SSD U.3 NVMe conçus en interne par Synology, une première pour le constructeur. L’unité peut être étendue via le PAX224, pour atteindre jusqu’à 8 Po de capacité logique, grâce à une technologie de réduction de données intégrée affichant un ratio moyen de 5:1.
Renouvellement de la série DS+ avec du 2,5 GbE
Synology a également dévoilé 6 nouveaux modèles de sa série DSx25+, incluant les DS225+, DS425+, DS725+, DS925+, DS1525+ et DS1825+. La principale nouveauté réside dans l’arrivé du port réseau 2,5 Gb/s sur l’ensemble de la gamme, répondant enfin aux attentes des utilisateurs.
À noter qu’il se murmure que Synology sortirait ses propres switchs (estampillés Synology) d’ici la fin de l’année.
Politique controversée des disques certifiés
Une décision qui fait débat concerne la nouvelle politique de Synology imposant l’utilisation de disques testés et validés par ses soins. Ivan Lebowski, Sales Team Leader France et Afrique de Synology, justifie cette approche : « nous voyons trop d’utilisateurs venir vers nous parce qu’ils rencontrent des problèmes avec des disques pour lesquels nous ne pouvons pas leur apporter de support ».
QNAP : innovation autour de l’IA et du stockage évolutif
QuTS Mega et stockage à l’échelle du PétaOctet
QNAP a impressionné avec QuTS Mega, son système d’exploitation NAS évolutif (scale-out) conçu pour les déploiements haute capacité. Cette architecture permet à plusieurs nœuds NAS de fonctionner dans un environnement clusterisé unique, supportant une mise à l’échelle linéaire de la capacité et des performances.
Le système supporte jusqu’à 96 nœuds avec une capacité totale utilisable pouvant atteindre 45 PétaOctets. QNAP a démontré cette technologie avec un boîtier JBOD de 60 baies compatibles SAS ou SATA, offrant un débit de 12 Gb/s par lien.
Solutions IA et connectivité Thunderbolt 5
Image NASCompares
On continue avec le TVS-AIh1688ATX. Il s’agit d’un NAS équipé d’un Intel Core Ultra (24 cœurs) accompagné d’unités de traitement neuronal (NPU 13 TOPS). Il est compatible Thunderbolt 5 (en option) destiné aux workflows de travail à destination des créatifs. Ce QNAP dispose de 2 ports USB 4 (par défaut) et 2 ports réseau 10 Gb/s.
QNAP a fait plusieurs démonstrations de la prochaine version de QSirch basée sur l’IA pour retrouver facilement des documents, pouvant également lire le contenu de ces derniers… tout en respectant la confidentialité. En effet, l’IA fonctionne en local et n’a pas besoin d’accès extérieur pour fonctionner.
Nouveaux modèles d’entrée de gamme
Les TS-262A et TS-462A renouvellent l’entrée de gamme avec un processeur Intel N5095 à 2,2 GHz (boost jusqu’à 2,9GHz), avec jusqu’à 16 Go de RAM DDR4 et avec 2 emplacements M.2 NVMe. On notera la présence de 2 ports USB 2.0, 2 ports USB 3.2 Gen 2, ainsi qu’un port 2,5 Gb/s. Ces modèles abandonnent le port HDMI et l’emplacement PCIe présents sur la génération précédente.
ASUSTOR : évolutions mesurées, mais ciblées
Lockerstor Gen2+ : Amélioration de la connectivité
Au Computex 2025, ASUSTOR a dévoilé des mises à jour ciblées de ses NAS, à commencer par le Lockerstor 6 Gen2+ (AS6706T). Ce modèle voit sa connectivité évoluer avec le remplacement des ports 2,5 GbE (rouges) par des ports 5 GbE (bleus), offrant une bande passante doublée tout en restant rétrocompatible avec les réseaux existants.
Solutions rackables professionnelles
Côté entreprises, ASUSTOR renforce sa présence sur le segment professionnel avec les Lockerstor 12R Pro Gen2, déclinés en formats 3U et 4U. Ces NAS rackables embarquent des processeurs AMD Ryzen 7 Pro, 16 Go de mémoire DDR5 ECC et 2 ports réseau 10 Gb/s, visant les infrastructures virtualisées ou les besoins en stockage à haute disponibilité.
En synthèse
Le Computex 2025 confirme la transformation du marché du NAS vers des solutions plus performantes et spécialisées. Synology mise sur le stockage flash enterprise et l’écosystème fermé, QNAP pousse l’innovation vers l’IA et le stockage évolutif, tandis qu’ASUSTOR se concentre sur l’amélioration ciblée de ses produits existants. Ces évolutions répondent aux besoins croissants en performances et en capacité des utilisateurs professionnels, tout en soulevant des questions sur l’ouverture des écosystèmes et la compatibilité des composants tiers.
Depuis plusieurs mois, le marché des NAS connaît un regain d’effervescence. Longtemps dominé par une poignée d’acteurs, ce segment attire désormais des entreprises issues de secteurs connexes, bien décidées à se faire une place. Qu’est-ce qui motive cet intérêt soudain ? Quels enjeux pour les acteurs établis comme Synology ou QNAP ? Décryptage…
Un nouvel appétit pour un marché de niche
Ce que l’on observe actuellement n’est pas l’émergence de start-up, mais plutôt l’arrivée de groupes déjà bien installés sur d’autres segments technologiques. Citons notamment UGREEN, réputé pour ses accessoires, ou encore des spécialistes du Mini-PC comme Minisforum, Beelink, ORICO ou Aoostar. Tous ont récemment investi le marché des NAS avec une stratégie affirmée : concurrencer les leaders traditionnels en s’appuyant sur leurs capacités industrielles existantes.
Un marché restreint, mais en croissance
Le NAS reste un produit de niche, à destination d’un public averti, professionnel ou technophile. Toutefois, il continue d’afficher une croissance régulière (souvent à 2 chiffres). Dans un contexte de diversification nécessaire pour les industriels chinois, ce segment représente un relais de croissance crédible, d’autant plus attractif qu’il ne requiert pas de rupture technologique majeure.
Un contexte favorable à l’entrée de nouveaux acteurs
Historiquement, la conception de NAS impliquait des investissements significatifs (matériel et logiciel). Aujourd’hui, la donne a changé. Des systèmes comme OpenMediaVault, TrueNAS, Unraid ou encore ZimaOS permettent aux utilisateurs de déployer eux-mêmes une infrastructure de stockage avancée, sans expertise pointue.
Par ailleurs, l’essor de Docker facilite la gestion et l’installation d’applications sur les NAS, réduisant encore la nécessité pour les fabricants de développer des interfaces logicielles propriétaires. Une économie de ressources considérable pour les nouveaux entrants.
Résultat : les barrières à l’entrée se sont considérablement abaissées, rendant ce marché bien plus accessible qu’il ne l’était il y a encore quelques années.
Des positions historiques sous pression
Les marques traditionnelles comme Synology, QNAP et Asustor ont longtemps prospéré grâce à la robustesse de leur matériel, à leur écosystème logiciel intégré et à un service après-vente éprouvé. Mais l’arrivée d’acteurs disposant de capacités industrielles comparables (voire supérieures) rebat les cartes.
Une bataille tarifaire en perspective
L’écart de prix entre les 2 marques est notable : les NAS UGREEN sont proposés à des tarifs sensiblement inférieurs à ceux de Synology, pour un nombre de baies équivalent et des composants souvent plus récents. Un positionnement agressif qui n’implique pas nécessairement de compromis sur les performances, lesquelles se révèlent parfois supérieures.
Des consommateurs mieux informés
Autre évolution majeure : les utilisateurs, qu’ils soient professionnels ou particuliers, sont aujourd’hui plus avertis. Ils scrutent les composants, exigent une évolutivité tangible et comparent systématiquement les rapports qualité/prix. Les nouveaux venus pourraient tirer parti de cette exigence accrue, à condition de répondre aux standards attendus.
Vers une transformation du marché ?
Si le cycle de renouvellement des NAS reste relativement lent, les précédents ne manquent pas pour illustrer la rapidité avec laquelle un marché peut se transformer. L’exemple des robots aspirateurs est éclairant : iRobot (Roomba), autrefois leader incontesté, a été rapidement dépassé par des challengers asiatiques comme Roborock, Dreame ou Mova. Le NAS pourrait-il suivre une trajectoire similaire ?
La question reste ouverte. Mais elle mérite d’être posée, tant les conditions semblent réunies pour une recomposition accélérée du secteur.
En synthèse
Le marché du NAS est à l’aube d’une profonde recomposition. Sous l’effet combiné d’une pression concurrentielle accrue, de l’évolution des attentes utilisateurs et de la baisse des barrières technologiques, les lignes sont en train de bouger. Si les leaders historiques disposent encore de solides atouts, ils ne peuvent ignorer la montée en puissance de nouveaux acteurs agiles, bien décidés à redistribuer les cartes.