Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

SHAI - Le développeur qui vit dans votre terminal

Par : Korben
12 septembre 2025 à 11:11

Shai, c’est un collègue développeur qui ne dort jamais, qui ne râle jamais quand vous lui demandez de déboguer votre code à 3h du matin, et qui vit littéralement dans votre terminal. C’est un outil qui s’inscrit dans la même lignée que Codex ou Claude Code et qui est 100% français puisque proposé par OVHcloud.

Terminé donc les outils qui nécessitent des interfaces graphiques lourdes ou des plugins IDE complexes puisqu’ici, tout se passe dans le terminal.

L’installation tient en une seule ligne :

curl -fsSL https://raw.githubusercontent.com/ovh/shai/main/install.sh | sh

Et en quelques secondes, vous avez un assistant IA fonctionnel, prêt à vous épauler dans vos tâches quotidiennes. Pas de configuration complexe, pas de dépendances infernales à gérer. Bien sûr, comme pour tout script téléchargé, pensez à vérifier le contenu avant exécution.

Vous l’aurez compris, SHAI ne se contente pas d’être un simple chatbot qui répond à vos questions. Il peut véritablement prendre le contrôle et exécuter des commandes, créer des fichiers, déboguer votre code, et même automatiser des workflows complets. Vous pouvez lui demander de créer un site web complet, de convertir des fichiers d’un format à l’autre, ou de corriger cette commande shell que vous n’arrivez jamais à mémoriser correctement.

La philosophie “written in Rust with love” inscrite dans le code du projet n’est pas non plus qu’une simple formule marketing car le choix de Rust garantit des performances exceptionnelles et une sécurité mémoire à toute épreuve. Avec 99,2% du code en Rust, les développeurs d’OVHcloud ont clairement misé sur la robustesse et la rapidité d’exécution. Je tiens quand même à dire qu’au cours de mes tests, j’ai quand même eu quelques plantages de l’application. Mais elle est encore jeune, donc j’espère que ça va s’améliorer.

Ce qui distingue vraiment SHAI des autres assistants IA, c’est sa capacité à fonctionner en mode “headless”. Vous pouvez simplement lui envoyer des prompts via un pipe Unix : echo "crée-moi un hello world en Python" | shai. Et rien que cette fonctionnalité ouvre des possibilités infinies pour l’automatisation et l’intégration dans des pipelines CI/CD existants.

Plus impressionnant encore, le mode “shell assistant” transforme SHAI en véritable garde du corps de votre terminal. Une fois activé, chaque fois qu’une commande échoue, SHAI intervient automatiquement pour vous proposer une correction. Plus besoin de chercher sur Stack Overflow pourquoi votre commande tar ne fonctionne pas comme prévu.

Pour réussir tout ça, il utilise par défaut Qwen3-32B mais rassurez vous, y’a moyen de changer de provider. L’aspect multi-provider est donc crucial et heureusement SHAI n’est pas verrouillé sur un seul modèle d’IA. Vous pouvez donc configurer différents providers selon vos besoins, vos préférences ou vos contraintes de confidentialité. Mais par défaut, OVHcloud propose un accès anonyme (avec limitation de débit) pour que tout le monde puisse tester l’outil sans engagement. Perso, j’ai éclaté la limite au bout de quelques minutes d’utilisation. Snif.

Lors de mes tests, j’ai aussi constaté que les commandes qu’on appelle normalement avec le “/” n’ont pas fonctionné chez moi et concernant le thème de l’interface de Shai, en fonction des couleurs de votre terminal, ça peut vite être illisible. C’est dommage mais j’imagine que ça va se bonifier avec le temps…

Voilà, avec Shai , OVHcloud mise clairement sur cette approche minimaliste mais puissante pour séduire les développeurs qui veulent de l’IA sans les complications habituelles et surtout qui tourne sur le sol français, dans le respect de vos données personnelles.

Je leur souhaite plein de succès !

Source

VMScape : Linux se protège de la nouvelle vulnérabilité ciblant les CPU Intel et AMD

12 septembre 2025 à 09:39

VMScape (CVE-2025-40300) : une faille de sécurité affecte certains processeurs AMD et Intel, et menace les environnements Cloud avec KVM et QEMU.

The post VMScape : Linux se protège de la nouvelle vulnérabilité ciblant les CPU Intel et AMD first appeared on IT-Connect.

TailGuard - La solution Docker qui marie WireGuard et Tailscale pour du VPN surpuissant

Par : Korben
10 septembre 2025 à 12:19

Vous en avez marre de jongler entre différents clients VPN selon vos appareils ?

Alors ça tombe bien puisque je viens de tomber sur TailGuard , un projet open source qui est une application Docker, mise au point par un certain Juho Vähä-Herttua qui sert de passerelle entre WireGuard et Tailscale .

Si vous n’avez jamais entendu parler de ces deux technologies, laissez-moi vous faire un petit récap rapide… WireGuard, c’est LE protocole VPN moderne ultra-rapide dans le vent, et Tailscale, c’est LA solution mesh VPN qui fait un carton en ce moment.

Et le truc chouette avec TailGuard, c’est qu’il résout ce casse-tête des appareils qui ne peuvent pas faire tourner Tailscale nativement. Vous savez, ces vieux routeurs, ces IoT un peu bizarres ou ces environnements restreints où installer un client VPN moderne c’est plus compliqué que d’avoir un Premier Ministre décent. Mais avec TailGuard, vous créez ainsi un pont entre votre infrastructure WireGuard existante et le réseau mesh de Tailscale. Pas besoin de tout refaire de zéro, c’est plutôt bien pensé.

Alors, comment ça marche ?

Et bien en gros, vous avez un serveur WireGuard qui tourne quelque part, avec ses configurations et ses clés et TailGuard, lui, vient se greffer dessus via Docker et expose automatiquement vos sous-réseaux WireGuard sur Tailscale. Du coup, tous vos appareils Tailscale peuvent accéder à vos ressources WireGuard, et inversement. C’est du routage bidirectionnel automatique, avec support IPv4 et IPv6.

Pour l’installation, c’est un jeu d’enfant. Vous téléchargez votre config WireGuard client, vous la sauvegardez en wg0.conf, vous créez un réseau IPv6 Docker et vous lancez le container avec les bons volumes.

docker network create --ipv6 ip6net
docker run -it \
 -v ./wg0.conf:/etc/wireguard/wg0.conf -v ./state:/tailguard/state \
 --cap-add NET_ADMIN --device /dev/net/tun \
 --sysctl net.ipv4.ip_forward=1 --sysctl net.ipv6.conf.all.forwarding=1 \
 --sysctl net.ipv4.conf.all.src_valid_mark=1 \
 --network ip6net -p 41641:41641/udp \
 --name tailguard juhovh/tailguard:latest

Et en quelques minutes, votre passerelle est opérationnelle. Et le petit plus, c’est que vous pouvez personnaliser pas mal de paramètres via des variables d’environnement : nom des interfaces, clé d’authentification Tailscale, routes spécifiques, hostname, etc.

L’un des gros avantages de cette approche, c’est la centralisation de la gestion des clés. Plus besoin de distribuer des configs WireGuard à tous vos appareils. Tailscale gère l’authentification avec votre provider d’identité préféré (Okta, Google, GitHub, etc.) et TailGuard fait le lien avec votre infra WireGuard. Cette architecture mesh a aussi le gros avantage d’éliminer les points de défaillance uniques des VPN traditionnels.

Et en termes de sécurité, on est sur du solide car chaque connexion reste chiffrée de bout en bout avec WireGuard, réputé pour sa robustesse cryptographique. Et Tailscale ajoute sa couche de zero-trust avec authentification continue et politiques d’accès basées sur l’identité. Comme ça, plus besoin de faire confiance au réseau, puisque chaque requête est vérifiée.

Et pour ceux qui ont des besoins plus spécifiques, TailGuard offre la possibilité de créer des architectures plus complexes. Vous pouvez par exemple router certains sous-réseaux spécifiques, gérer plusieurs tunnels WireGuard, ou même créer des passerelles redondantes pour la haute disponibilité.

Un truc que j’ai trouvé pas mal du tout en testant, c’est la possibilité de faire du SSO (Single Sign-On) sur des équipements qui normalement ne le supportent pas. Votre vieux serveur Linux avec WireGuard devient soudainement accessible via votre compte Google ou Microsoft, grâce à la magie de Tailscale. Pratique pour les équipes qui souhaitent standardiser leurs accès sans tout migrer.

Et si vous vous demandez pourquoi ne pas utiliser directement Tailscale partout, la réponse est simple : Parfois, c’est juste impossible ou trop compliqué. Certains environnements embedded, certains OS propriétaires ou certaines architectures exotiques ne peuvent pas faire tourner le client Tailscale.

TailGuard vient donc combler ce gap en utilisant WireGuard comme protocole universel de base.

Voilà, c’est encore une fois un projet sous licence MIT qui est activement maintenu sur GitHub. Bref, si vous cherchez une solution pour unifier vos VPN sans tout casser, TailGuard mérite vraiment le coup d’œil !

C'est fou ! 48 000 sites de phishing hébergés tranquillement chez Google et Cloudflare durant 3 ans

Par : Korben
5 septembre 2025 à 18:32

Si comme moi, vous payez rubis sur l’ongle Google Cloud ou Cloudflare pour héberger vos services parfaitement légaux, et bien sachez que pendant que vous respectiez scrupuleusement leurs conditions d’utilisation tordues, une opération de phishing monumentale utilisait tranquillement leurs infrastructures pour cloner des sites du Fortune 500. Ça a duré trois ans sans que personne ne soit inquiété et cela malgré 265 signalements publics…

Ce sont les chercheurs de Deep Specter Research qui ont découvert un empire du phishing qui ferait passer les arnaqueurs nigérians pour des amateurs. Je vous parle de 48 000 hosts virtuels répartis sur plus de 80 clusters, tous bien au chaud sur l’infrastructure premium de Google Cloud à Hong Kong et à Taiwan. Le tout géré évidemment comme une vraie plateforme phishing-as-a-service, avec sept évolutions techniques majeures sur la période.

Les criminels utilisaient HTTrack Website Copier , un vieiiiil outil parfaitement légal de scraping web, pour créer des clones parfait au pixel près de +200 grandes entreprises. Lockheed Martin, le géant de la défense américaine , s’est notamment retrouvé avec un jumeau malveillant hébergé sur le domaine militaryfighterjet.com. C’est un site qui parlait initialement d’avions de chasse et qui s’est transformé en casino en ligne tout en servant de façade pour du phishing ciblé.

La technique était redoutablement efficace. Les attaquants récupéraient des domaines expirés qui appartenaient à des organisations légitimes. Ces domaines gardaient ainsi leur réputation, leurs backlinks, parfois même leurs communautés sur les réseaux sociaux.

Et pour éviter la détection, le système de cloaking analysait en temps réel les headers HTTP, les user agents et la géolocalisation IP. Donc si vous étiez un bot de Google ou un chercheur en sécurité, vous voyiez un site normal. Mais si vous étiez une vraie victime potentielle, c’était bienvenue dans la matrice. Cette technique sophistiquée a permis aux sites malveillants de maintenir d’excellents rankings SEO tout en servant leur contenu frauduleux aux bonnes personnes.

L’infrastructure comptait 86 adresses IP physiques côté Google Cloud, mais le réseau virtuel était bien plus vaste avec 44 000 adresses IP virtuelles chez Google et 4 000 chez d’autres hébergeurs. En mars 2025, l’opération a d’ailleurs atteint son pic avec 33 890 observations actives selon les données de Deep Specter. Sur l’année 2025 seule, on comptait 2 791 hosts avec 56 075 observations au total.

Mais voilà le scandale dans le scandale… malgré 265 détections publiques par des chercheurs et des outils de threat intelligence, ni Google ni Cloudflare n’ont suspendu les comptes concernés. Les signalements incluaient des domaines malveillants, des adresses IP compromises et des certificats SSL frauduleux.

Mais aucune réponse des géants du cloud… Rien. Nada. Que dalle.

Cette passivité a fait passer ces entreprises, de, je cite “neutral intermediaries” en “de facto enablers of illicit activity”. Traduction, au lieu d’être des hébergeurs neutres, ils sont de par leur inaction, devenus des complices.

Les conséquences pour les entreprises clonées sont également désastreuses car au-delà des pertes de trafic organique qui se traduisent directement en manque à gagner, elles font face à des risques légaux majeurs. Violations potentielles du RGPD si des données européennes sont compromises, problèmes DMCA pour le contenu copié, scrutin de la FTC américaine, obligations de divulgation SEC… Sans compter les frais juridiques pour tenter de faire fermer ces clones.

Visiblement, il y a des problèmes de gouvernance majeurs chez les géants du cloud… Les providers ont les moyens techniques de détecter ces abus, mais apparemment, tant que les factures sont payées, la motivation pour agir reste limitée…

Les chercheurs appellent donc Google, Cloudflare et les marques affectées à renforcer leurs mécanismes de détection, fermer les boucles de monitoring et appliquer des politiques strictes de résiliation de comptes.

Je suis pas sûr que le message passe mais bon, après ça les expose à des risques juridiques, alors ils seront peut-être plus sérieux la prochaine fois…

Source

L’une des cyberattaques les plus ambitieuses de tous les temps a eu lieu cet été (et c’est un échec)

3 septembre 2025 à 10:58

Le 1er septembre 2025, Cloudflare a annoncé sur son compte X avoir déjoué une cyberattaque d’une ampleur inédite. Survenue durant l’été, cette attaque par déni de service distribué (DDoS) aurait atteint un pic de 11,5 térabits par seconde, établissant ainsi un nouveau record mondial selon l’entreprise américaine spécialisée dans les solutions de sécurité cloud.

35 secondes de folie - Comment Cloudflare a encaissé une nouvelle attaque DDoS record !

Par : Korben
2 septembre 2025 à 18:26

35 secondes… C’est même pas le temps qu’il vous faut pour réchauffer votre café au micro-ondes. Par contre, c’est pile poil le temps qu’il a fallu à des attaquant pour balancer 11,5 térabits par seconde sur les serveurs protégés par Cloudflare. Pour vous donner une idée, c’est comme si quelqu’un vous envoyait 10 000 films HD d’un coup, direct dans la tronche.

Cette attaque monumentale s’inscrit dans une série d’assauts qui deviennent de plus en plus violents. Par exemple, au premier trimestre de cette année, Cloudflare a bloqué 20,5 millions d’attaques DDoS. C’est quand même une augmentation de 358% par rapport à l’année dernière. Visiblement, quelqu’un s’amuse à tester les limites de l’infrastructure Internet mondiale… Mais le plus bizarre dans cette histoire, c’est l’origine de l’attaque.

Apparemment, la majorité du trafic malveillant provenait de ressources compromises sur Google Cloud Platform, donc de serveurs légitimes, payés rubis sur l’ongle par des entreprises lambda, transformés en armes de destruction massive de réseau. Le modèle pay-as-you-go du cloud est devenu une aubaine pour les attaquants qui peuvent louer une gigantesque puissance de feu quasi illimitée juste le temps de leur méfait.

L’attaque dont on parle aujourd’hui a utilisé la technique du UDP flood. Celle-ci est un peu vicieuse car contrairement au protocole TCP qui établit une connexion avant d’envoyer des données, l’UDP balance tout sans prévenir. Ainsi, chaque paquet UDP force le serveur victime à allouer des ressources pour le traiter, jusqu’à ce qu’il ne puisse plus répondre aux requêtes légitimes.

Et ce qui est impressionnant, c’est la rapidité de montée en puissance car les systèmes de Cloudflare ont détecté une progression de zéro à 11 térabits en moins de 10 secondes. C’est plus rapide qu’une Tesla qui passe de 0 à 100 et les défenses automatisées ont immédiatement appliqué des règles de limitation et du filtrage par IP pour étouffer l’attaque avant qu’elle ne fasse des dégâts.

Le rapport Q1 2025 de Cloudflare révèle que Google Cloud (AS396982) figure parmi les principaux réseaux sources d’attaques DDoS HTTP et la plupart des réseaux dans ce classement sont des fournisseurs cloud ou d’hébergement connus. D’ailleurs, pour aider ces fournisseurs à identifier et neutraliser les comptes abusifs, Cloudflare propose gratuitement un flux des botnet qui font des attaques DDoS afin que tout le monde puisse rapidement les bloquer. C’est leur façon de dire “on est tous dans le même bateau, entraidons-nous”.

En tout cas, cette attaque de 11,5 Tbps pulvérise totalement le précédent record établi en juin dernier, qui plafonnait à 7,3 Tbps. À ce rythme, on se demande où ça va s’arrêter, d’autant plus que ce n’est pas un cas isolé. Cloudflare rapporte en effet avoir bloqué des centaines d’attaques dépassant 1 Tbps ces dernières semaines, incluant une attaque UDP distincte qui a atteint 5,1 milliards de paquets par seconde. Pour contextualiser, c’est comme si chaque être humain adulte sur Terre vous envoyait un SMS.

Évidemment, l’industrie s’inquiète de cette escalade et sans protection de type Cloudflare, une attaque de cette ampleur mettrait n’importe quel site hors ligne instantanément. Même avec toute la bonne volonté du monde, votre FAI ne pourrait pas absorber 11,5 térabits de trafic malveillant… En tout cas, j’ai hâte de lire le rapport de Cloudflare qui devrait arriver bientôt…

Je me demande comment on pourrait se passer de Cloudflare maintenant… Ils sont devenus tellement incontournables… Ils sont un bouclier incroyable mais également un point de centralisation dramatique pour le net.

En attendant, une chose est sûre, les attaques DDoS ne sont plus ce qu’elles étaient. On est passé du petit script kiddie qui s’amuse à faire tomber le site de son lycée avec LOIC à des opérations massives capables de mettre à genoux des infrastructures entières… Et avec l’évolution du cloud et de l’IA, on n’a probablement encore rien vu.

Source

Windows : Word va automatiquement sauvegarder vos documents dans le cloud OneDrive

2 septembre 2025 à 06:55

Microsoft Word change sur Windows : vos documents seront sauvegardés dans le cloud OneDrive, sans action de votre part, grâce à la sauvegarde automatique.

The post Windows : Word va automatiquement sauvegarder vos documents dans le cloud OneDrive first appeared on IT-Connect.

Découvrez Sync-in : une alternative à nextCloud, open source et française

28 août 2025 à 18:00

Nous avons testé Sync-in, une plateforme collaborative open source et française, conçue pour protéger vos données : fonctionnalités, installation, etc.

The post Découvrez Sync-in : une alternative à nextCloud, open source et française first appeared on IT-Connect.

SwissTransfer : envoyer gratuitement jusqu’à 50 Go de fichiers

Par : Fx
27 août 2025 à 07:00
SwissTransfer - SwissTransfer : envoyer gratuitement jusqu’à 50 Go de fichiers

Parfois, il m’arrive d’utiliser SwissTransfer à titre personnel, mais je n’en avais encore jamais parlé ici… à tort. En tant qu’adepte de l’auto-hébergement avec mon NAS, j’essaie habituellement de gérer mes besoins de partage de fichiers avec mes propres outils. Mais il faut reconnaître qu’il y a quelques limites dès qu’il s’agit d’envoyer ponctuellement de très gros volumes à des contacts externes : bande passante restreinte, accès au NAS limité ou disponibilité variable, etc. C’est précisément pour répondre à ces situations qu’Infomaniak propose ce service gratuit qui permet d’envoyer jusqu’à 50 Go en une seule fois, simplement et sans publicité…

SwissTransfer - SwissTransfer : envoyer gratuitement jusqu’à 50 Go de fichiers

Comment fonctionne SwissTransfer ?

SwissTransfer mise avant tout sur la simplicité d’utilisation de son service :

  • jusqu’à 50 Go par envoi, sans inscription ni publicité ;
  • partage par e-mail ou via un lien direct ;
  • durée de validité modulable jusqu’à 30 jours, avec possibilité de personnaliser la date d’expiration ;
  • nombre de téléchargements limité, jusqu’à 500 transferts par jour ;
  • option de mot de passe pour sécuriser les fichiers.

L’expérience utilisateur est volontairement minimaliste : pas de compte à créer, pas de publicité, pas de fonctionnalités superflues. Franchement, c’est très appréciable 🙂

Confidentialité

Tous les fichiers sont stockés dans les centres de données d’Infomaniak, situés exclusivement en Suisse. À l’expiration définie par l’utilisateur, ils sont automatiquement supprimés. Contrairement à certains services extra-européens, les fichiers ne sont pas utilisés pour l’entraînement de modèles d’IA ni exploités à des fins publicitaires. L’exemple récent de WeTransfer, qui avait annoncé vouloir entraîner ses IA avec les fichiers déposés avant de faire machine arrière, illustre bien pourquoi la question de la confiance est centrale.

Points forts et limites

SwissTransfer présente plusieurs avantages : la possibilité d’envoyer gratuitement de très gros fichiers (jusqu’à 50 Go), l’absence de publicité, une interface simple et l’assurance que les données restent stockées en Suisse. En revanche, il faut garder en tête que le service se concentre uniquement sur le transfert. Il n’offre pas de stockage permanent ni d’outils collaboratifs. Pour l’archivage ou le travail en équipe, Infomaniak propose d’autres services payants 😉

En synthèse

SwissTransfer s’est rapidement imposé comme une alternative à des services dominés par les géants américains. Simple, gratuit et transparent, le service permet de partager de gros fichiers en toute sécurité, sans conditions cachées.

Et vous, utilisez-vous un service pour envoyer de gros fichiers ? Si oui, lequel et pourquoi ?

Syncthing 2.0 : Synchronisation sécurisée sur NAS et PC

Par : Fx
25 août 2025 à 07:00
cloud securiser cadenas - Syncthing 2.0 : Synchronisation sécurisée sur NAS et PC

Syncthing est un logiciel open source qui permet de synchroniser des fichiers entre plusieurs appareils (ordinateurs, NAS, smartphones, etc.). Contrairement aux Clouds propriétaires, les données restent stockées sur vos propres appareils. La sortie de Syncthing 2.0 marque une étape importante et apporte de nombreuses améliorations… aussi bien pour les particuliers que pour les administrateurs de NAS.

Syncthing 2.0

Quoi de neuf dans Syncthing 2.0 ?

Pour rappel, Syncthing est particulièrement intéressant pour ceux qui possèdent un NAS. En effet, le logiciel offre une synchronisation chiffrée, sécurisée et automatique… avec un contrôle total des données. C’est une solution idéale pour les particuliers et professionnels qui veulent bénéficier du confort du Cloud sans dépendre d’un fournisseur externe.

La sortie de Syncthing 2.0 marque un tournant technique, tout en maintenant la compatibilité protocolaire avec la branche 1.x. Voici les principaux changements :

  • Migration vers SQLite : la base de données interne passe de LevelDB à SQLite, gage de fiabilité et de maintenance simplifiée.
  • Journalisation améliorée : logs structurés, nouveau niveau de sévérité WARNING et configuration plus fine par paquet.
  • Performances réseau optimisées : ouverture de plusieurs connexions simultanées entre pairs, réduisant les blocages lors des transferts volumineux.
  • Gestion des fichiers supprimés : rétention par défaut limitée à 15 mois, avec possibilité d’ajustement.
  • Évolutions pratiques : suppression du dossier par défaut au premier démarrage, rationalisation des options en ligne de commande, fin de la prise en charge de certaines plateformes mineures.

Syncthing 2.0.3 : la version actuelle

Au moment d’écrire ces lignes, la version la plus récente est Syncthing 2.0.3. Elle corrige plusieurs points de jeunesse :

  • retour de l’option –version,
  • amélioration de la migration des bases volumineuses,
  • nettoyage automatique d’anciens dossiers au démarrage.

Faut-il mettre à jour vers Syncthing 2.0 ?

La réponse est oui, mais avec précaution. Avant de migrer, il est recommandé de sauvegarder le répertoire de configuration et de prévoir un temps au système… surtout si votre base de données est importante. La compatibilité avec la version 1.x permet une transition progressive, appareil par appareil.

En synthèse

Avec Syncthing 2.0, l’outil gagne en fiabilité et en performances sans remettre en cause ses fondamentaux : une synchronisation sécurisée, décentralisée et respectueuse de la vie privée. Pour les utilisateurs de NAS comme pour les adeptes de l’auto-hébergement, cette mise à jour constitue une évolution solide et durable.

Datacenters et consommation d'eau - Faut-il supprimer vos emails ?

Par : Korben
13 août 2025 à 18:15

J’sais pas si vous avez vu ça, mais le gouvernement britannique conseille à ses citoyens de supprimer leurs emails et leurs photos pour économiser l’eau. Oui, oui vous avez bien lu… Faut vider sa boîte mail pour éviter la sécheresse !

Cette recommandation révèle surtout une incompréhension totale de ce qui se passe réellement dans les datacenters. Parce que derrière ces conseils se cache une confusion énorme sur ce qu’on appelle la “consommation” d’eau des centres de données. Allez, je vous spoile tout de suite : Vos emails et vos photos ne consomment pratiquement rien une fois stockés.

Le vrai problème, c’est qu’on mélange tout. Car quand on parle de consommation d’eau des datacenters, on fait l’amalgame entre l’eau qui disparaît réellement et celle qui est simplement réchauffée puis rejetée (+5° à +10°). Selon les discussions techniques que j’ai pu lire sur LaFibre.info, la nuance est pourtant capitale !

Prenons Microsoft aux Pays-Bas. Ils ont consommé 84 millions de litres d’eau en 2021, soit 4 à 7 fois plus que prévu. C’est un chiffre impressionnant, mais qu’est-ce qui se passe concrètement avec cette eau ?

Et bien, Jamy, dans un système de refroidissement classique par évaporation, l’eau est littéralement “perdue”. C’est à dire qu’elle s’évapore dans l’atmosphère comme les jours fériés en France. Mais avec le refroidissement adiabatique, utilisé par Microsoft pour ses data centers, seule une petite partie s’évapore. L’essentiel de l’eau traverse le système, se réchauffe de quelques degrés, puis est rejetée. Elle n’est donc pas “consommée” au sens strict, mais juste réchauffée.

Le problème devient plus complexe avec le traitement de l’eau car pour éviter le calcaire et les bactéries, les datacenters utilisent des systèmes d’osmose inverse. Et là, aïe aïe aïe, c’est du gaspillage pur car pour 1 litre d’eau purifiée, il y aurait 2 ou 3 litres qui partent dans les égouts avec des tas d’impuretés concentrées. Sans oublier les produits chimiques pour la désinfection.

Et bien sûr, maintenant, l’IA complique tout car comme vous le savez, chaque session de discussion avec ChatGPT (5 à 50 messages) consomme l’équivalent dans un data center d’une bouteille de 500ml. Et une image générée par IA ? Jusqu’à 5 litres d’eau, ce qui reste est moins que votre chasse d’eau mais quand même c’est énorme. Et ces chiffres explosent avec l’usage massif de ces outils.

Cocorico, Mistral AI s’en sort mieux que ses concurrents niveau efficacité environnementale, mais même optimisée, l’IA reste gourmande.

Mais contrairement aux chasseurs 🍷, il y a des bons et des mauvais datacenters. Les bons datacenters sont à 1.1L/kWh, les mauvais à 1.8L/kWh ou plus… Cela dépend simplement des technologies de refroidissement qu’ils utilisent. Un datacenter moyen, pour vous situer, c’est quasiment la même consommation d’eau qu’un terrain de golf.

Il y a par exemple, le refroidissement par immersion qui consiste à plonger les serveurs dans un bain d’huile diélectrique, comme ça pas d’évaporation, mais juste de la circulation d’huile. Peu de datacenters utilisent cette technologie car c’est assez coûteux et complexe à mettre en place. Et il existe aussi le refroidissement liquide direct qui amène l’eau au plus près des processeurs via des plaques froides. C’est plus efficace, et y’a moins de gaspillage.

Certains datacenters utilisent même l’eau de mer ou des eaux usées recyclées. D’autres récupèrent la chaleur pour chauffer des bâtiments. Bref, l’eau n’est alors plus “perdue” mais valorisée.

Et puis, il y a le free cooling utilisé quand l’air extérieur est assez froid, ce qui permet d’éviter complètement l’utilisation d’eau. Intel annonce même que ses processeurs post-2025 ne seront plus compatibles avec le refroidissement à air classique (les clims), donc ça va dans le bon sens.

Google pour ses datacenters utilise de l’eau de mer en Finlande, du free cooling, du recyclage d’eaux usées et valorise la chaleur.

OVH quant à eux sont en refroidissement liquide direct avec un système en boucle fermée et ils récupèrent aussi la chaleur. Chez O2Switch, c’est free cooling, c’est à dire l’utilisation du froid extérieur pour refroidir leurs infrastructures (L’Auvergne baby !) et ils ventilent et régulent au plus juste la température de leurs salles. Chez Infomaniak, pas de clim mais du free cooling, donc très peu d’eau consommée également.

Chez Microsoft, c’est du refroidissement adiabatique mais depuis 2024, ils sont dans certains datacenters en boucle fermée avec zéro évaporation. Quant à AWS, ce sont les vilains petits canards puisqu’en gros, quand il fait froid, ils ouvrent les fenêtres et quand il fait chaud, ils font tourner des clims à évaporation… Mais visiblement, ils recyclent l’eau et se sont donnés jusqu’à 2030 pour être “water positive”, c’est à dire rendre plus d’eau qu’il n’en consomme. C’est pas magique, c’est de la compensation financière dans des projets de rechargement de nappes phréatiques ou de purification d’eau polluée.

Au global, même si tous ces acteurs mettent le paquet sur la préservation de l’eau, Google, notamment sur ses sites en Iowa et Oregon est le plus gourmand et sa consommation d’eau pèse lourd sur les ressources locales. ET ensuite, c’est Amazon et Microsoft surtout dans les zones arides des États-Unis où ils sont implantés (Virginie, Arizona…etc)

Alors, faut-il supprimer ses emails ? Franchement, sur cet usage précis, l’impact est microscopique, surtout qu’en allant supprimer ces données inertes qui ne consomme rien en énergie, vous allez re-consommer de l’eau… C’est couillon. Je ne serai pas surpris si supprimer 20 000 emails consomme plus d’eau qu’une seule requête ChatGPT ?

Le vrai défi, c’est surtout l’explosion de l’IA car d’ici 2027, l’IA consommera autant d’eau que la moitié du Royaume-Uni. C’est un changement d’échelle majeur.

La solution n’est donc pas dans la suppression de vos emails, mais dans le choix des technologies. Immersion cooling, récupération de chaleur, utilisation d’eaux non potables, free cooling… Les alternatives existent. Il faut juste arrêter de faire de la com’ facile sur le dos des utilisateurs.

Source

File & Image Uploader de Zoom - Le logiciel d'upload qui résiste à 16 ans d'évolution du web

Par : Korben
8 août 2025 à 15:20

Un logiciel qui survit depuis plus de 16 ans, c’est assez rare. Surtout quand c’est maintenu par un seul développeur qui depuis tout ce temps refuse catégoriquement d’ajouter de la pub et qui continue de faire évoluer son outil mois après mois. Ce logiciel c’est File & Image Uploader développé par Zoom et qui me rappelle cette époque bénie où les développeurs créaient des outils juste parce qu’ils en avaient besoin, et pas pour lever des millions en série A.

Ce qui m’a d’abord plu sur ce site d’une autre époque, c’est ce petit message tout en bas qui dit : “If you don’t like it, don’t use it.” C’est cool de voir un dev qui assume complètement son projet et qui ne cherche pas à plaire à tout le monde. Et vous savez quoi ? Ça marche puisque le logiciel supporte aujourd’hui plus de 700 services différents, de Google Drive à des hébergeurs dont vous n’avez probablement jamais entendu parler comme filearn.top ou tubearn.top.

Pendant que WeTransfer fait polémique avec ses nouvelles conditions d’utilisation autorisant l’exploitation des fichiers par IA (avant de faire marche arrière face au tollé), et pendant que Gofile limite toujours ses options gratuites, zoo_m continue tranquillement son chemin. Le développeur ne demande rien, ne collecte rien, ne revend rien. Il code, il publie, point.

Le truc vraiment intéressant c’est le support des uploads resumables. Zoom le fait depuis des années pour ses 700 services différents comme ça si votre connexion plante au milieu d’un upload de 10 GB vers Dropbox, pas de panique, vous reprenez exactement où vous en étiez. Et contrairement aux interfaces web qui rament avec plusieurs fichiers, ici vous pouvez lancer des uploads parallèles vers différents services simultanément. C’est un peu l’opposé à JDownloader.

Il existe plein de services web qui font pareil, mais j’aime bien l’idée d’avoir un vrai logiciel qui transforme votre PC en centrale d’upload, comme un point de repère, un phare bravant l’océan du cloud (oui, je suis d’humeur poète). Et sur lequel vous pouvez glisser vos fichiers, choisir vos destinations (oui, au pluriel), et qui se débrouille comme un chef. Pas de limite artificielle, pas de restrictions de format, pas de serveur surchargé. D’après le site officiel, c’est généralement bien plus rapide que les interfaces web parce que le logiciel optimise les connexions et évite tout le JavaScript inutile qui plombe les navigateurs.

Alors oui, l’interface n’est pas aussi léchée qu’un produit Adobe, oui, il faut lire la documentation (quelle idée bizarre en 2025 ^^), mais si vous cherchez un outil qui fait exactement ce qu’il promet sans arrière-pensées commerciales, sans tracking, sans ces formules creuses qu’on voit partout, File & Image Uploader est probablement ce qui se rapproche le plus de l’idéal du freeware tel qu’on l’imaginait dans les années 2000.

Le développeur précise d’ailleurs qu’il accepte les suggestions et peut ajouter de nouveaux services sur demande. Pas via un formulaire Google qui finira dans les limbes, mais directement via le menu Help du logiciel.

Voilà, pour ceux que ça intéresse, le logiciel est dispo en version portable (pas d’installation requise) et tourne sur Windows. Il existe des versions 32 et 64 bits, et apparemment ça fonctionne aussi sous Wine pour les linuxiens motivés. Cependant pas de version Mac et vu la philosophie du projet, je doute que ce soit dans les priorités.

Vous n’avez plus que quelques jours pour profiter de cette offre pCloud à moins 70 % [Sponso]

Par : humanoid xp
12 juillet 2025 à 06:33

Cet article a été réalisé en collaboration avec pCloud

À l’heure où les fuites de données sont devenues monnaies courantes, la protection des données personnelles n’a jamais été aussi importante. D’autant plus qu’il existe désormais pléthore d’outils plus puissants les uns que les autres pour accompagner les internautes dans cette tâche.

Cet article a été réalisé en collaboration avec pCloud

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

Cette offre pCloud 2-en-1 est parfaite pour assurer la sécurité de vos données personnelles [Sponso]

Par : humanoid xp
3 juillet 2025 à 07:52

Cet article a été réalisé en collaboration avec pCloud

À l’heure où les fuites de données sont devenues monnaies courantes, la protection des données personnelles n’a jamais été aussi importante. D’autant plus qu’il existe désormais pléthore d’outils plus puissants les uns que les autres pour accompagner les internautes dans cette tâche.

Cet article a été réalisé en collaboration avec pCloud

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

Offre pCloud : Stockage cloud à vie + gestionnaire de mots de passe(-70 %)

Par : Fx
2 juillet 2025 à 07:00
offre 2025 pCloud - Offre pCloud : Stockage cloud à vie + gestionnaire de mots de passe(-70 %)

À l’occasion de la fête nationale, pCloud propose une offre exceptionnelle à durée limitée : jusqu’à 70 % de réduction sur ses plans de stockage à vie avec pCloud Pass Premium inclus (gestionnaire de mots de passe sécurisé). L’offre est valable du 2 au 15 juillet 2025…

offre 2025 pCloud - Offre pCloud : Stockage cloud à vie + gestionnaire de mots de passe(-70 %)

Stockage cloud à vie, sans abonnement

La grande force de pCloud, c’est son paiement unique pour un accès à vie. Plus besoin de payer tous les mois, vos fichiers sont hébergés de manière sécurisée, définitivement. Voici les offres disponibles pendant la promotion :

  • 1 To + pCloud Pass Premium gratuit – 199€ (au lieu de 674 €)
  • 2 To + pCloud Pass Premium gratuit – 279€ (au lieu de 838 €)
  • 10 To + pCloud Pass Premium gratuit – 799€ (au lieu de 2129 €)

Vous pouvez découvrir les offres en suivant ce lien

La sécurité au service de vos données

Basé en Suisse, pCloud bénéficie d’une législation stricte sur la confidentialité. Vos données sont stockées dans l’UE (au Luxembourg) et le service respecte le RGPD.

pcloud 2025 - Offre pCloud : Stockage cloud à vie + gestionnaire de mots de passe(-70 %)

L’offre pCloud propose de nombreuses fonctionnalités pensées pour un usage quotidien aussi bien personnel que professionnel. Son application est disponible sur Windows, macOS, Linux, Android et iOS, permettant un accès fluide aux fichiers où que vous soyez. Grâce à la synchronisation en temps réel, chaque modification effectuée sur un appareil est instantanément disponible sur les autres, garantissant une continuité de travail sans friction. La fonction pCloud Drive crée un disque virtuel sur votre ordinateur, libérant de l’espace physique tout en maintenant vos fichiers disponibles à tout moment. Le service intègre également un système de sauvegarde automatique pCloud Backup pour protéger vos dossiers critiques. Côté partage, pCloud facilite les échanges avec des liens personnalisés, des invitations à des dossiers ou encore des demandes de fichiers. Enfin, un lecteur multimédia intégré vous permet de lire directement vos fichiers audio et vidéo depuis l’interface, sans téléchargement préalable, ce qui en fait une solution idéale pour les créateurs de contenu ou les utilisateurs intensifs.

pCloud Pass Premium : vos mots de passe, protégés à vie

L’offre inclut également pCloud Pass Premium, un gestionnaire de mots de passe sécurisé et simple d’utilisation.
Ses atouts :

  • Stockage chiffré de vos identifiants
  • Remplissage automatique des formulaires
  • Générateur de mots de passe complexes
  • Compatibilité tous les appareils et navigateurs
  • Synchronisation sécurisée sur tous vos supports

Et tout cela, comme pour le stockage : un paiement unique et un accès à vie, sans souscription mensuelle.

En synthèse

Choisir pCloud en 2025, c’est opter pour une solution simple, sécurisée et économique pour stocker vos fichiers et gérer vos mots de passe. Vous payez une seule fois et vous bénéficiez à vie d’un espace de stockage en ligne fiable, accessible partout, sans abonnement ni frais cachés. Avec des serveurs basés en Europe, une sécurité de niveau suisse et une interface facile à utiliser, pCloud convient aussi bien aux débutants qu’aux utilisateurs plus avancés. En plus du stockage, vous profitez de pCloud Pass Premium, un outil qui vous permet de sauvegarder tous vos mots de passe en toute sécurité, sans avoir à les retenir. C’est une solution tout-en-un, idéale pour garder le contrôle sur vos données personnelles. Et avec jusqu’à 70 % de réduction jusqu’au 15 juillet 2025, c’est le bon moment pour investir une bonne fois pour toutes dans votre tranquillité numérique.

Il ne vous reste plus qu’à sauter le pas

article sponsorisé

OneDrive : Microsoft verrouille son compte, il perd l’accès à 30 ans de fichiers personnels !

25 juin 2025 à 13:24

Microsoft bloque un compte OneDrive : un utilisateur perd l'accès à 30 ans de données personnelles. Voici les détails de cette affaire surréaliste.

The post OneDrive : Microsoft verrouille son compte, il perd l’accès à 30 ans de fichiers personnels ! first appeared on IT-Connect.

❌
❌