Vous cherchez une solution performante pour sauvegarder, partager et protéger vos données ? Bonne nouvelle ! Cachem a décidé de faire un jeu concours exceptionnel : un NAS TerraMaster F4-425 est à gagner !
Puissant, compact et ultra-rapide, ce NAS est l’allié parfait pour centraliser vos fichiers, photos et vidéos, que vous soyez un particulier passionné de tech ou un professionnel à la recherche d’un stockage fiable.
Pourquoi choisir le NAS TerraMaster F4-425 ?
Avant de parler du concours, petit zoom sur cette machine signée TerraMaster, une marque connue pour ses solutions de stockage réseau fiables et abordables.
Caractéristiques principales :
Processeur Quad Core Intel Celeron N5095 cadencé à 2,0 GHz (boost à 2,9 GHz) ;
4 Go de RAM (extensible jusqu’à 8 Go) ;
4 baies compatibles HDD/SSD 3,5” et 2,5” (jusqu’à 80 To au total) ;
2 ports RJ45 2,5 Gb/s ;
Système d’exploitation TOS 6.0, simple et intuitif ;
Prise en charge de Jellygin, Time Machine, Docker, et bien plus encore !
En clair : un NAS polyvalent, parfait pour le multimédia, le travail collaboratif ou la sauvegarde automatique de vos appareils.
Comment participer au concours ?
C’est très simple ! Il vous suffit de laisser un commentaire sous cet article en répondant à la question suivante :
Pourquoi aimeriez-vous gagner le NAS TerraMaster F4-425 ?
Vous pouvez aussi partager l’article sur vos réseaux sociaux (partage facultatif mais apprécié )
Dates importantes
Ouverture du concours : 14 novembre 2025
Clôture des participations : 19 novembre 2025 à minuit
Annonce du gagnant : 21 novembre 2025 sur cet article
Le tirage au sort sera réalisé parmi les commentaires valides. Le gagnant sera contacté par e-mail pour l’envoi du lot.
Une seule participation par personne (même nom, même e-mail) ;
Utilisez une adresse e-mail valide ;
Concours ouvert à la France métropolitaine et Belgique.
Vos données sont confidentielles. Elles ne seront ni utilisées par Cachem, ni par un partenaire. Seul le gagnant du concours sera contacté par l’administrateur du site.
C’est l’histoire d’un mec qui a compressé 60 jeux Steam pour économiser 380 GB, et ainsi faire en sorte qu’ils se lancent plus vite qu’avant.
Ce mec a compris que sur un disque dur classique, décompresser en temps réel avec un CPU moderne est parfois plus rapide que de lire des gigaoctets bruts de données à 7200 tours/min. Et pour cela, il a utilisé
CompactGUI
!
On pourrait se dire qu’un fichier compressé, c’est forcément plus lent à ouvrir mais en fait non, car un CPU récent peut décompresser en RAM plus vite qu’un disque dur ne peut lire.
C’est en partant de ce constant que
IridiumIO
a imaginé CompactGUI qui exploite cette anomalie physique. C’est une interface graphique pour compact.exe, une commande Windows que Microsoft a discrètement re-boostée en 2015 avec des algorithmes de compression modernes (XPRESS4K, XPRESS8K, XPRESS16K, LZX), puis totalement oubliée dans un coin de Windows…
En gros, vous faites pointer CompactGUI vers un dossier qui contient vox jeux, vous choisissez un algorithme de compression, vous appuyez sur un bouton, et Windows compresse tous les fichiers de façon transparente. Quand je dis transparente, je veux dire que le jeu continue de tourner normalement quand vous le lancez. Les fichiers restent accessibles comme avant, ils apparaissent dans l’Explorateur Windows sans différence visible, mais ils prennent tout simplement moins de place sur le disque.
Et quand vous lancez un jeu, Windows décompresse les fichiers en RAM à la volée, et vous jouez comme d’habitude. Cette sorcellerie, on la doit aux algorithmes de compression modernes de Windows 10+ et il y en a quatre :
XPRESS4K : Le plus rapide, le plus faible en compression. Ratio moyen 50%. C’est celui par défaut, recommandé pour la plupart des usages.
XPRESS8K : Un cran au-dessus. Meilleur ratio, CPU encore léger. Selon les forums, c’est le meilleur compromis sur un PC récent.
XPRESS16K : Encore plus fort, mais commence à solliciter le CPU. Ratio autour de 57%.
LZX : Le plus puissant. Peut atteindre 66% de compression, mais CPU intensif. À réserver aux machines avec de la puissance à revendre.
Tenez par exemple,
sur un fichier de test
de 46.6 MB, LZX compresse à 15.7 MB, XPRESS16K à 20.1 MB, XPRESS8K à 21.1 MB, et XPRESS4K à 23.0 MB. En comparaison, la vieille compression NTFS classique (LZNT1) ne descend qu’à 26.2 MB. Les nouveaux algorithmes sont donc objectivement meilleurs, mais personne ne les utilise parce qu’il faut taper des commandes dans PowerShell.
Et c’est là que CompactGUI intervient puisqu’il transforme compact.exe en version compatible avec votre syndrome du clickopathe. C’est tout.
Doom 2016 : 67 GB → 51 GB (16 GB) ou même 62 GB → 38 GB (24 GB) selon la version
Tekken 7 : 60 GB → 30 GB (50% de gain)
Team Fortress 2 : 19.4 GB → 11 GB (8.4 GB)
Guild Wars 2 : 26.2 GB → 4.1 GB (22.1 GB !)
Hollow Knight : 9 GB → 1.65 GB avec LZX
Et ce qui est fou, c’est que dans la plupart des cas, l’impact sur les performances est dans la marge d’erreur des benchmarks. Les utilisateurs sur les forums racontent jouer tout à fait normalement, sans ralentissement perceptible. Certains équipés de disques durs plus anciens rapportent même des temps de chargement réduits.
Alors pourquoi ça marche aussi bien de compresser ?
Hé bien parce que les textures et les sons des jeux sont déjà compressés dans des formats spécialisés (DDS, OGG, MP3…etc), mais les assets bruts, eux, (scripts, configs, shaders, données de niveau…etc) sont souvent non compressés. XPRESS et LZX s’attaquent donc à ces fichiers non compressés et permettent ainsi de gagner beaucoup de place.
Et votre CPU dans tout ça ? Hé bien sur un processeur moderne dual ou quad-core, la décompression LZW (l’algo derrière LZX) est tellement légère qu’on ne la sent pas. XPRESS est encore plus rapide et le gain de temps sur la lecture disque compense largement le coût CPU de la décompression.
Mais attention, il y a un piège !!! Et ce piège c’est DirectStorage. Ce truc est une techno de Microsoft pour Windows 11 qui permet aux jeux de charger les assets directement du SSD vers la carte graphique, en contournant le CPU. C’est conçu pour les SSD ultra-rapides (NVMe) et ça réduit beaucoup les temps de chargement sur certains jeux.
Sauf que DirectStorage n’aime pas du tout la compression NTFS et les jeux qui l’utilisent peuvent planter ou avoir des performances dégradées si vous compressez leurs fichiers. Donc si vous êtes sur Windows 11 avec un NVMe récent et que vous jouez à des jeux AAA avec DirectStorage, n’utilisez pas CompactGUI. Mais si vous avez un bon vieux HDD, ou un SSD SATA classique, ou des jeux anciens qui n’utilisent pas la techno de DirectStorage, CompactGUI est une bénédiction.
Comme d’hab, ça dépend de vos jeux, de votre PC…etc. Donc y’a plus qu’à tester pour savoir si ça peut être bénéfique ou pas pour vous.
Pour l’installer, vous téléchargez CompactGUI depuis les
releases GitHub
, ou via Winget avec
winget install CompactGUI
Puis vous lancez l’app, vous sélectionnez un dossier de jeu (par exemple C:\Program Files (x86)\Steam\steamapps\common\Doom), vous choisissez un algorithme (XPRESS8K pour commencer), et vous cliquez sur Compress !
L’app vous affichera alors une barre de progression, le temps estimé, et le ratio de compression en temps réel. Et une fois terminé, votre jeu pèsera de 30 à 60% de moins, et vous pourrez le lancer normalement.
Et si jamais vous voulez décompresser, vous retournez dans CompactGUI et vous cliquez sur Uncompress. Ça restaurera tout à l’état d’origine !
CompactGUI intègre même une fonctionnalité de monitoring en arrière-plan. Vous configurez un dossier à surveiller (genre votre bibliothèque Steam), et CompactGUI compressera automatiquement les nouveaux jeux installés. Comme ça vous êtes tranquille !
Vous pouvez aussi ajouter
CompactGUI
au menu contextuel de l’Explorateur Windows ce qui vous permettra de faire un clic droit sur un dossier → Compress with CompactGUI.
Bref, un grand merci à Microsoft qui a développé des algos de compression dignes de WinRAR, les a intégrés nativement dans Windows 10, et les a laissé moisir dans un outil en ligne de commande que personne n’utilise.
Kingston a lancé son SSD Fury Renegade G5 en version 8 To, un modèle PCIe 5.0 atteignant jusqu’à 14 800 Mo/s en lecture et 14 000 Mo/s en écriture, destiné aux utilisateurs recherchant haute capacité et performances extrêmes.
SK hynix a dévoilé sa feuille de route 2026-2031 : arrivée de la GDDR7-Next, de la DDR6 et des SSD PCIe Gen7. Le fabricant prépare aussi la HBM5 et une NAND 4D à 400 couches pour les futures générations de PC et serveurs.
UmbrelOS est un système open source qui permet de transformer un simple ordinateur ou Raspberry Pi en serveur personnel. Idéal pour l’auto-hébergement, il offre une interface intuitive, un App Store intégré et un large choix d’applications. Découvrons ensemble ses fonctionnalités, ses avantages… et ses limites.
UmbrelOS, c’est quoi ?
UmbrelOS permet de créer un serveur domestique en seulement quelques minutes. Grâce à son interfacesimplifiée et à son App Store intégré, il devient facile d’héberger tout type d’application, notamment :
Stockage et partage de fichiers : Nextcloud, Syncthing
Protection de la vie privée : Pi-hole, AdGuard Home
Streaming multimédia : Jellyfin, Plex
Nœuds Bitcoin et outils liés aux cryptomonnaies
Applications web diverses
À l’heure où nous écrivons ces lignes, umbrelOS propose plus de 255 applications.
Il prend également en charge le partage de fichiers SMB (Samba/CIFS), mais avec des performances limitées… Ce service est géré via un conteneur Docker, ce qui le rend moins efficace. À noter également que Time Machine n’est pas pris en charge.
UmbrelOS : OS ou application ?
Contrairement à certaines alternatives comme CasaOS, umbrelOS n’est pas qu’une simple surcouche logicielle, il est livré avec un système d’exploitation complet basé sur Debian, ce qui facilite grandement son installation. Il se rapproche davantage de ZimaOS, tout en conservant une philosophie propre axée sur la simplicité.
UmbrelOS repose sur Docker pour la gestion de ses conteneurs applicatifs. L’objectif est clair : simplifier l’auto-hébergement tout en restant accessible aux utilisateurs débutants.
Son code source est entièrement ouvert et disponible sur GitHub, garantissant transparence et possibilité de personnalisation avancée.
Les origines de projet umbrelOS
UmbrelOS est un projet indépendant conçu à l’origine pour simplifier le déploiement de nœuds Bitcoin. Rapidement, la communauté l’a fait évoluer vers une plateforme d’auto-hébergement polyvalente, capable d’exécuter un grand nombre de services, bien au-delà de la sphère des cryptomonnaies.
Pourquoi utiliser umbrelOS ?
UmbrelOS s’adresse à celles et ceux qui souhaitent disposer d’un serveur domestique à la fois simple à installer, agréable à administrer et respectueux de la vie privée. Ses principaux avantages :
Avantage
Description
Installation rapide et simplifiée
Un simple script permet d’installer umbrelOS en quelques minutes
Interface conviviale
Une interface web ergonomique et accessible aux débutants
Large compatibilité avec Docker
Intégration d’applications variées via Docker
Sécurité et confidentialité renforcées
Permet de s’affranchir des services cloud tiers
Écosystème en expansion
Un App Store en constante évolution avec de nouvelles applications
Grâce à sa structure ouverte, il est possible d’ajouter des applications manuellement, même en dehors du catalogue officiel.
Est-ce qu’umbrelOS peut fonctionner sur un NAS ?
Oui, à condition que le NAS permette l’installation d’un système Linux alternatif. C’est une excellente option pour redonner vie à un ancien matériel ou optimiser un serveur existant.
En synthèse
UmbrelOS est une solution pratique et accessible pour ceux qui souhaitent héberger leurs propres services sans trop de complexité. Grâce à son interface moderne et son écosystème. Cependant, certaines fonctionnalités avancées manque encore : gestion native du RAID, partage réseau anémique, compatibilité avec certains matériels compliqués…
À tester sans hésiter ! Pour en savoir plus, rendez-vous sur le site officiel : umbrel.com
Chaque année, Pwn2Own rassemble la communauté d’expert en cybersécurité autour de la découverte de vulnérabilités critiques dans des appareils et logiciels du quotidien. Du 21 au 23 octobre dernier, l’édition irlandaise de Pwn2Own à Dublin a réuni des experts et hackers éthiques pour tester la sécurité de nombreux équipements : NAS, routeurs, caméras IP, imprimantes, smartphones… utilisés par les entreprises et les particuliers. Les principaux sponsors de cette édition étaient Meta, Synology et QNAP. Nous ne reviendrons pas sur l’ensemble des failles découvertes (elles sont nombreuses), mais nous allons nous concentrer sur celles touchant Synology et QNAP.
Qu’est-ce que le Pwn2Own ?
Pwn2Own est une compétition internationale de cybersécurité créée par la Zero Day Initiative (ZDI), un programme de recherche en sécurité géré par Trend Micro. Son objectif, c’est d’encourager les chercheurs en sécurité à identifier et exploiter des vulnérabilités dans des logiciels, systèmes d’exploitation ou matériels populaires. Les fabricants fournissent eux-mêmes les appareils à tester, afin de les soumettre à des attaques contrôlées et sécurisées. Les participants tentent de découvrir des failles “zero-day”, c’est-à-dire non documentées et non corrigées. À la clé, des récompenses financières plutôt conséquentes, proportionnelles à la gravité et à l’impact des failles découvertes. Pour cette édition, la cagnotte globale s’élevait à 2 millions de dollars.
Synology
Dès les premières heures, plusieurs produits Synology ont été compromis :
BeeStation Plus : débordement de pile permettant un accès root — gain de 40 000 $
DS925+ : exploitation de deux bugs combinés pour obtenir une exécution de code arbitraire — gain de 40 000 $
DP320 : là encore, deux bugs exploités conjointement — gain de 50 000 $
Caméra IP CC400W : faille déjà connue du fabricant (non corrigée et non documentée à ce jour) — gain de 30 000 $
DS925+ (nouvelle attaque) : exploitation de deux bugs pour contourner l’authentification et exécuter du code en tant que root — gain de 40 000 $
BeeStation Plus (hors scope) : vulnérabilité découverte mais non récompensée, car en dehors du périmètre de la compétition.
QNAP
Les appareils QNAP ont eux aussi été la cible de plusieurs exploits notables au cours de la compétition.
Une équipe est parvenue à compromettre les QHora-322 et TS-453E grâce à la combinaison de huit vulnérabilités, incluant plusieurs injections — gain de 100 000 $.
Une autre équipe a exploité sur le TS-453E un enchaînement d’injections multiples et un bug de chaîne de format, permettant une exécution de code — gain de 40 000 $.
Une faille d’injection de code unique a ensuite permis à des chercheurs de prendre le contrôle du TS-453E — gain de 40 000 $.
Enfin, une autre vulnérabilité, liée à un identifiant codé en dur combiné à une injection, a conduit à une nouvelle compromission du TS-453E — gain de 40 000 $.
Autres fabricants concernés
D’autres marques ont également vu leurs produits compromis :
Canon et Lexmark (imprimantes)
Philips Hue (lampes connectées)
Sonos (enceintes connectées)
Samsung (smartphones Galaxy)
Ubiquiti (systèmes de surveillance AI Pro)
En synthèse
L’édition 2025 de Pwn2Own Dublin a une nouvelle fois démontré la richesse et la pertinence de ce type d’événement pour l’industrie. Il faut saluer les constructeurs qui acceptent d’exposer leurs produits à ce niveau de test (et donc de risque financier). Le fait que QNAP et Synology soient co-sponsors, aux côtés de Meta, illustre clairement leur engagement en faveur de la cybersécurité et leur volonté d’adopter une démarche proactive dans la protection de leurs utilisateurs.
Ce tutoriel explique comment installer et configurer immich, une alternative open source et self-hosted à des services comme Google Photos et iCloud Photos.
Team Group dévoile une nouvelle famille de SSD M.2, les NV10000. Câblées en PCIe 5.0 x4 ces unités promettent des débits capables d’atteindre les 10 000 Mo/s.
L’explosion de la demande liée à l’intelligence artificielle provoque une pénurie mondiale de mémoire et de SSD. Les prix s’envolent pour les particuliers.
Un dicton dit : « Il faut du temps pour bâtir la confiance, un instant pour la détruire ». Synology en fait aujourd’hui l’expérience. Le célèbre fabricant de NAS traverse une période compliquée, marquée par des choix stratégiques qui divisent sa communauté. Parviendra-t-il à regagner la confiance des utilisateurs ? Rien n’est moins sûr…
Des décisions qui fragilisent la fidélité des utilisateurs
Ces derniers mois, Synology a pris plusieurs décisions qui ont surpris et parfois frustré ses utilisateurs :
Arrêt d’applications populaires : Video Station a été supprimée et le transcodage a été retiré de toutes les autres applications du fabricant ;
Retrait de fonctionnalités clés : le transcodage matériel sur les derniers modèles de NAS a été vérouillé, limitant les performances pour le streaming de contenus haute définition… ou encore les données SMART pourtant précieuses pour nos disques ;
Compatibilité restreinte des disques : une certification obligatoire pour les modèles DSx25 rend le choix des utilisateurs plus complexe.
N’oublions pas un choix particulièrement entêté : Synology a décidé de maintenir (jusqu’en 2025) sa stratégie consistant à ne proposer que des connexions réseau 1 Gb/s sur ses la grand majorité des NAS, malgré les critiques et l’évolution des besoins du marché.
Le constructeur est revenu sur certaines de ces restrictions (disques durs et réseau Multi-Gig), mais la confiance des utilisateurs a été profondément ébranlée. Ces décisions cumulées illustrent combien il est fragile de maintenir une relation de confiance dans un secteur où les choix techniques et stratégiques sont scrutés de près.
Une perte de parts de marché sur le segment particulier
Autrefois leader incontesté sur le marché des particuliers, Synology voit désormais sa position remise en cause. Les données de ventes sur des plateformes comme Amazon ou LDLC montrent clairement que la marque n’est plus systématiquement en tête. Ce segment, longtemps considéré comme sa vache à lait*, a été le moteur de sa notoriété et de ses millions d’unités vendues.
Des concurrents comme TerraMaster, le jeune UGREEN, ou encore QNAP et Asustor captent désormais l’attention des utilisateurs particuliers et des entreprises, profitant des hésitations de Synology pour proposer des alternatives performantes et souvent plus accessibles.
Les conséquences pour Synology et ses utilisateurs
Cette situation illustre un paradoxe : la popularité de Synology, construite sur des années de fiabilité et d’innovation, peut s’éroder rapidement dès lors que la marque prend des décisions impopulaires. Les utilisateurs (autrefois fidèles) se tournent désormais vers des alternatives offrant un meilleur rapport fonctionnalités/prix et une compatibilité plus ouverte.
Pour Synology, la leçon est claire : la confiance des utilisateurs ne se reconstruit pas en un jour. La marque doit réévaluer sa stratégie produit et son approche commerciale pour retrouver son leadership, sous peine de perdre durablement des parts de marché dans un secteur où la concurrence s’intensifie.
* Le terme « vache à lait » est une expression employée en marketing
Et encore un article un peu technique pour finir la journée en beauté ! Si je vous disais que votre serveur Linux pouvait gérer 10 exaoctets de données sans broncher ? Vous ne me croiriez pas je pense… D’ailleurs c’est quoi 10 exaoctets ?? Et bien ça correspond à 10 millions de To. C’est pas mal hein ?
Hé bien c’est exactement ce que permet de gérer TernFS, le système de fichiers qu’XTX Markets vient de libérer après trois ans d’utilisation intensive. XTX Markets est une boîte d’algo-trading qui brasse 250 milliards de dollars par jour et j’avoue que c’est un joli cadeau de presque-Noël qu’elle vient de nous faire…
D’après ce qu’ils expliquent sur leur site
, NFS et les autres solutions classiques ne tenaient plus la charge face à leurs 650 pétaoctets de données utilisées leur machine learning. Alors ils ont fait ce que font les vrais geeks, ils ont codé leur propre solution… et après trois ans de production sans perdre “un seul octet”, ils ont tout balancé en en open source sur
GitHub
.
Le truc génial avec TernFS, c’est qu’il a été pensé pour les fichiers immuables, vous savez, ces gros datasets de plusieurs gigaoctets qu’on écrit une fois et qu’on relit des milliers de fois pour entraîner des modèles. Pas de modification après création, pas de prise de tête avec les locks et la cohérence. C’est simple et efficace.
L’architecture repose sur quatre composants principaux qui bossent ensemble : les metadata shards (256 shards logiques pour gérer les métadonnées), le CDC (Cross-Directory Coordinator) pour les opérations entre répertoires, les block services pour stocker les données, et un registry pour orchestrer tout ce petit monde. Le tout communique en UDP/TCP avec du Reed-Solomon pour l’erasure coding et du CRC32-C pour vérifier l’intégrité. Bref, ça semble être du solide.
Et les chiffres qu’ils donnent sur leur production sont assez dingues. Ils parlent de 500+ pétaoctets répartis sur 30 000 disques durs et 10 000 SSD, dans 3 datacenters différents, avec des débits qui montent à plusieurs téraoctets par seconde en vitesse de pointe. Et leur système gère ça tranquille, avec du multi-région natif et une tolérance aux pannes qui ferait pâlir d’envie n’importe quel admin sys.
Si ça vous chauffe, pour installer TernFS, c’est du classique. Vous clonez le repo, vous lancez ./build.sh alpine ou ./build.sh ubuntu selon votre distrib, et c’est parti. Il y a un module kernel Linux pour gratter les perfs maximales et toucher les étoiles, mais vous pouvez aussi utiliser FUSE si vous préférez rester en userspace. Ils ont même implémenté une API S3 pour ceux qui veulent migrer depuis AWS sans tout réécrire.
git clone https://github.com/XTXMarkets/ternfs
cd ternfs
./build.sh alpine
# Et pour tester en local
./scripts/ternrun
Par contre, attention aux limitations ! Car TernFS n’est pas du tout fait pour les petits fichiers (genre les millions de fichiers de 1KB d’un projet Node.js). C’est vraiment optimisé pour du gros volume du style datasets ML, logs d’applications, archives, ce genre de trucs. Et y’a pas de système de permissions intégré non plus, car ils ont préféré garder ça basique et laisser chacun implémenter sa propre couche de sécurité.
Ils ont mis au point également un système de “block proofs” où chaque bloc de data a une preuve cryptographique qui permet de vérifier que le client n’a pas corrompu les données avant de les écrire. Ça évite qu’un client bugué ou malveillant ne pourrisse tout le filesystem. Ils ont aussi un système de “scrubbing” automatique qui détecte et remplace les secteurs défaillants sur les disques.
Chouette non ?
D’après Bloomberg
, XTX Markets investit actuellement 1 milliard d’euros dans de nouveaux datacenters en Finlande. Avec leurs 25 000 GPUs (dont 10 000 A100 et 10 000 V100) et maintenant TernFS en open source, ils montrent surtout qu’ils ne rigolent pas avec l’infrastructure. C’est pas pour rien qu’ils arrivent à traiter un trillion d’enregistrements par jour pour leurs algos de trading.
Leur code est disponible sous double licence à savoir GPLv2+ pour le core et Apache 2.0 avec exception LLVM pour les bibliothèques client et les définitions de protocole. Ça permet d’intégrer TernFS dans à peu près n’importe quel projet, commercial ou non.
Bref, si vous gérez des pétaoctets de données et que ZFS commence à tirer la langue, TernFS vaut vraiment le coup d’œil. Reste à voir si d’autres géants du big data vont l’adopter ou si ça restera un outil de niche pour les vraiment gros volumes, mais avec l’explosion du Machine Learning et des LLMs, je parie qu’on va en entendre parler de plus en plus…
Plusieurs d’entre vous nous ont récemment alerté au sujet d’un commentaire publié sous une vidéo YouTube. Celui-ci, signé par Synology Europe (en réalité plutôt Synology Allemagne), a suscité beaucoup de réactions puisqu’il évoque l’avenir de la compatibilité des disques durs tiers avec les NAS de la marque. Cependant, certains ont cru (à tort) que Synology faisait machine arrière. Ce n’est pas le cas…
Changement de politique initié par Synology
Comme nous l’avions déjà expliqué, Synology a inversé sa logique de compatibilité. Désormais, ce n’est plus uniquement l’entreprise qui teste et valide les disques (HDD et SSD) pour ses NAS. En effet, cela représente un énorme travail, aussi bien en temps qu’en coûts financiers. D’autant plus que les fabricants de disques modifient régulièrement leurs firmwares, ou changent certains composants matériels, sans toujours communiquer sur les impacts potentiels pour les NAS.
Pour réduire cette charge, le constructeur taïwanais a mis en place un cahier des charges très strict à destination des fabricants de disques. Ces derniers doivent désormais certifier eux-mêmes leurs produits afin de garantir leur compatibilité avec les nouveaux modèles, comme la gamme DSx25+. On peut raisonnablement supposer que d’autres engagements sont exigés et que Synology procèdera ensuite à certains contrôles complémentaires. Depuis le début, Synology nous a toujours affirmé être en discussion avec plusieurs fabricants, mais sans donner plus de détails.
Le commentaire de Synology
Sous la vidéo YouTube en question, on peut lire ce commentaire (en allemand) :
« Wir wissen, dass sich viele User mehr Flexibilität bei den HDDs wünschen. Derzeit führen wir Gespräche mit Herstellern, damit in Zukunft auch wieder Drittanbieter-Festplatten offiziell unterstützt werden. Das ist aber ein Prozess, der nicht von heute auf morgen abgeschlossen ist. »
Et voici une traduction faite avec DeepL :
« Nous savons que de nombreux utilisateurs souhaitent davantage de flexibilité en matière de disques durs. Nous sommes actuellement en pourparlers avec les fabricants afin que les disques durs tiers soient à nouveau officiellement pris en charge à l’avenir. Mais il s’agit d’un processus qui ne se fera pas du jour au lendemain. »
Ce commentaire confirme donc que Synology est bien toujours en discussion avec les constructeurs de disques pour rouvrir la compatibilité. Toutefois, rien n’indique un quelconque rétropédalage de la part Synology comme nous avons pu le lire…
La réponse de Synology France
Afin d’éviter toute interprétation hasardeuse, nous avons contacté directement Synology France. Ivan Lebowski (Sales Team Leader) nous a confirmé :
« La situation n’a pas vraiment changé. Nous sommes en discussion avec les fabricants de disques afin qu’ils puissent certifier leurs disques sur nos NAS. »
En clair, Synology confirme les discussions, mais ne s’avance pas davantage. Pas de calendrier, pas d’annonce officielle, seulement une confirmation que le processus est en cours.
Le Terramaster D1 SSD Plus est un boîtier externe pour SSD NVMe pensé pour les utilisateurs exigeants : vidéastes, photographes… ou simplement passionnés de haute performance. Compatible USB4 et Thunderbolt 4/5, il promet des débits supérieurs à la majorité des solutions grand public, tout en offrant une excellente dissipation thermique. Nous l’avons testé avec un Samsung 990 Pro sur un iMac 2024 Thunderbolt 4. Voici notre verdict…
Terrasmaster D1 SSD Plus
Design et qualité de fabrication
Le Terramaster D1 SSD Plus inspire immédiatement confiance. Sa construction en aluminium inspire confiance… on est loin des boîtiers en plastique que l’on voit habituellement. Il mesure 112,5 × 60 × 33 mm pour environ 246 g. Oui, il est relativement lourd pour ses dimensions, mais il reste portable !
Le design n’est pas qu’esthétique, car l’aluminium joue un rôle de dissipation thermique passive. Le boîtier reste frais (ainsi que le SSD), même lors de transferts prolongés. Aucun ventilateur n’est nécessaire, ce qui le rend totalement silencieux.
À l’intérieur de la boîte, on retrouve un câble USB-C, un étui de transport, un petit tournevis et une pâte thermique supplémentaire. Terramaster propose un ensemble complet et cohérent, dont le design ne laisse pas indifférent.
Compatibilité et fonctionnalités
Le D1 SSD Plus est conçu pour une large gamme d’usages :
Interfaces prises en charge : USB4, Thunderbolt 5/4/3 et USB 3.x
Cette compatibilité élargie en fait une solution pérenne, capable de suivre l’évolution de vos machines, qu’il s’agisse d’un PC, d’un Mac ou même d’une console.
Performances
Pour ce test, nous avons installé un Samsung 990 Pro, l’un des SSD NVMe les plus rapides du marché. Nous avons connecté le D1 SSD Plus à un iMac 2024 équipé de ports USB 4 / Thunderbolt 4 (jusqu’à 40 Gbit/s).
Voici les résultats que nous avons obtenus avec le logiciel AJA System Test :
Lecture : ~3161 Mo/s
Écriture : ~3082 Mo/s
Ensuite, nous avons utilisé Disk Speed Test :
Lecture : ~3142 Mo/s
Écriture : ~3170 Mo/s
Ces vitesses réelles sont légèrement inférieures aux valeurs maximales possibles avec le boitier en Thunderbolt 5, mais elles restent largement suffisantes pour du montage vidéo 4K/8K en direct ou la manipulation de fichiers très volumineux.
Le Terramaster D1 SSD Plus se distingue des boîtiers externes NVMe classiques. Il mise sur la performance, la fiabilité et le silence. Associé à un Samsung 990 Pro, il devient une véritable extension de stockage externe, capable de gérer sans peine les workflows professionnels les plus exigeants.
À environ 120 €, il n’est pas le plus abordable du marché, mais si vos besoins dépassent les 3 Go/s, c’est l’un des meilleurs choix actuels.