Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 9 avril 2026Flux principal

Un développeur a réussi à faire tourner Mac OS X sur une Nintendo Wii

Par : Korben
9 avril 2026 à 15:14

Bryan Keller vient de publier le résultat d'un projet un peu fou : il a porté Mac OS X 10.0 Cheetah sur la Nintendo Wii. La console de 2006 démarre sur le bureau Aqua avec clavier et souris USB. C'est lent, c'est limité, mais ça marche.

Pourquoi c'est possible

La Wii utilise un processeur PowerPC 750CL, un descendant direct du PowerPC 750CXe qui équipait les iBook G3 et certains iMac G3 au début des années 2000. C'est la même famille de processeurs, ce qui rend le portage techniquement envisageable.

La Wii dispose de 88 Mo de RAM (24 Mo de SRAM rapide et 64 Mo de GDDR3), ce qui est juste suffisant pour Mac OS X 10.0, dont les exigences minimales étaient de 128 Mo. Il a fallu jongler un peu.

Le noyau de Mac OS X, XNU, est open source via le projet Darwin. C'est ce qui a rendu le portage possible : sans accès au code source du noyau et du modèle de drivers IOKit, le projet n'aurait pas pu aboutir.

Comment il a fait

Keller a écrit un bootloader sur mesure qui charge le noyau depuis une carte SD et crée un "device tree" qui décrit le matériel de la Wii au système. Il a aussi patché le noyau pour l'adapter au hardware spécifique de la console, avec des corrections sur la gestion de la mémoire et le framebuffer.

Côté drivers, il a développé un driver pour le SoC Hollywood de la Wii, un driver de carte SD (qui communique avec le coprocesseur ARM Starlet de la console), un driver d'affichage qui convertit le signal RGB en YUV pour la sortie vidéo, et un driver USB pour le clavier et la souris. Le projet, baptisé "wiiMac", est disponible sur GitHub.

Ce qui marche et ce qui ne marche pas

Mac OS X démarre jusqu'au bureau Aqua. On peut installer le système et l'utiliser avec un clavier et une souris USB. La carte SD est accessible. Par contre, il n'y a ni Wi-Fi, ni Bluetooth, et le GPU de la Wii n'est pas exploité.

Les performances sont très limitées. Le projet avait démarré en 2013, mais Keller l'a repris sérieusement en 2025 après avoir vu le portage de Windows NT sur Wii.

Mac OS X sur une Wii, ça n'a aucune utilité pratique. Mais c'est quand même un joli tour de force technique. 

Source : Bryan Keller

À partir d’avant-hierFlux principal

YOR - Le robot open source à 10 000 dollars à monter soi-même

Par : Korben
5 avril 2026 à 07:28

Quand je vois tout le taf que j'ai à la maison, je vous avoue que je rêve d'un robot qui vide le lave-vaisselle, arrose les plantes et ramasse le linge pendant que moi je glandouille sur le canapé (ou que je bosse parce que je glandouille jamais en fait...Argh...). Hé bien bonne nouvelle, une équipe de chercheurs de NYU vient de publier les plans complets pour en construire un et tout ça en open source pour environ 9 200 dollars !

YOR, pour " Your Own Robot ", c'est un robot mobile avec deux bras articulés, une base sur roues qui se déplace dans tous les sens, et un lift télescopique qui est tout simplement... un vérin de bureau debout. Du coup le robot peut descendre à 60 cm du sol pour ramasser vos chaussettes et monter à 1,24 m pour atteindre un placard en hauteur. Et le vérin se verrouille tout seul en cas de coupure de courant (comme ça, pas de bras qui s'écrasent au sol...).

Le coût total des composants revient comme je vous le disais à environ 9 200 dollars. Les deux bras représentent à eux seuls plus de la moitié du budget (5 000 dollars), la base roulante un bon quart (2 700 dollars). Le reste, c'est de l'électronique grand public et des profilés alu et le cerveau, c'est un Raspberry Pi 5 avec 16 Go de RAM. Quand on sait qu'un Mobile ALOHA (le robot de Stanford) revient à environ 32 000 dollars et que les plateformes commerciales dépassent les 100 000... y'a pas photo !

YOR et ses deux bras articulés sur base omnidirectionnelle

Un truc original dans ce robot, ce sont les pinces. L'équipe a d'ailleurs conçu des grippers custom capables de manipuler des objets délicats ou de serrer fort ce qui est bien utile et y'a aussi une caméra stéréo sur la tête pour que le robot cartographie son environnement et se repère tout seul dans une pièce.

Pour le piloter, pas besoin de matériel exotique puisque des manettes Meta Quest 3 suffisent. Vous restez debout derrière le robot et vous contrôlez tout, les bras, la base, la hauteur. Et le truc cool, c'est que quand vous déplacez la base, les pinces restent stables sur l'objet qu'elles tiennent. Cela lui permet par exemple d'attraper une assiette et de se déplacer vers le lave-vaisselle sans tout faire valdinguer.

YOR en action : lave-vaisselle, arrosage et ramassage

Côté recherche, l'équipe est même allée encore plus loin. En pilotant le robot à la main une centaine de fois (avec des iPhones fixés sur les pinces comme caméras supplémentaires), ils ont entraîné une IA capable de reproduire les gestes toute seule. Résultat, 9 réussites sur 10 dans un test de tri des déchets en autonomie (la poubelle JAUNE !!!!), du genre donc attraper un carton avec les deux bras, le soulever, contourner un obstacle, le déposer dans la poubelle de tri... et tout ça sans intervention humaine. Et bien sûr, si vous voulez tester vos propres algos avant de risquer du vrai matos, y'a un simulateur pour ça.

L'empreinte au sol de cette bestiole fait 43 × 34,5 cm. En gros, la taille d'un carton à pizza. Le projet est porté par une équipe de NYU et UC Berkeley et parmi les auteurs, on retrouve Soumith Chintala (NYU), le co-créateur de PyTorch. Toute la doc de construction est dispo sur build.yourownrobot.ai , avec la liste complète des composants en Google Sheets, les modèles CAD et le code Python sous licence MIT sur GitHub .

YOR face à la concurrence : petit, pas cher, open source

J'ai rarement vu un projet aussi bien documenté pour ce niveau de complexité mais attention quand même, ça reste un projet de recherche, et pas un kit Lego. Faut savoir souder, câbler des batteries, et être à l'aise avec Python et Git. C'est donc un sacré projet de plusieurs week-ends (comptez plutôt des mois si vous débutez). Mais c'est aussi ça qui est cool, puisque vous construisez VOTRE robot, et pas celui d'un constructeur chinois que vous avez payé une couille en dropshipping.

Si les robots open source vous branchent, le ToddlerBot à 4 300 dollars propose également une approche bipède imprimable en 3D, et si vous voulez voir ce que la coordination bimanuelle donne à l'échelle industrielle ... y'a du choix.

Bref, 9 200 dollars, licence MIT, la liste complète des composants, ça fait grave envie !! En tout cas, c'est le genre de projet à suivre de prêt...

Pour la partie impression 3D du châssis, si vous n'avez pas encore d'imprimante, une Creality Ender-3 V3 fera l'affaire pour les pièces structurelles, et un Raspberry Pi 5 est au cœur du projet. (liens affiliés)

Source

La NES-SY2.0 est un synthétiseur qui lit aussi les cartouches Nintendo

Par : Korben
2 avril 2026 à 10:22

Le designer suédois Love Hultén vient de dévoiler la NES-SY2.0, un synthétiseur fait main qui rend hommage à la NES tout en servant de véritable console de jeu. L'objet accepte les cartouches originales et produit de la musique chiptune.

Un objet entre console et instrument

La NES-SY2.0 reprend les codes visuels de la NES originale, avec son slot de cartouche et ses ports manette en façade, le tout habillé dans un boîtier en bois qui lui donne un côté objet d'art.

Le format s'inspire des ordinateurs portables des années 80 : l'appareil s'ouvre comme une valise et révèle un écran, un clavier MIDI Keystep et toute une rangée de boutons et molettes rouges pour manipuler le son en temps réel.

C'est la deuxième version de ce concept. La première, la NES SY37, datait de 2022. Love Hultén est connu pour ses créations artisanales qui mélangent technologie et design rétro, et la NES-SY2.0 est visiblement son projet le plus abouti.

Ce qu'il y a sous le capot

Le moteur sonore est un NES Poly, un synthétiseur polyphonique à 4 voix développé par Arcano Systems. Il émule les sons caractéristiques de la puce audio de la NES avec deux oscillateurs par voix, du vibrato, et la possibilité de basculer entre les formes d'onde en temps réel. Seize paramètres sont contrôlables via des messages MIDI CC.

L'ensemble intègre aussi un module d'effets FS22 avec delay et réverbération, et un visualiseur MIDI créé par l'artiste numérique p1xelfool. Et oui, on peut brancher une manette NES et lancer une cartouche pour jouer à ses classiques 8-bit directement dessus.

Pas de prix, mais beaucoup d'envie

Comme souvent avec les créations de Love Hultén, la NES-SY2.0 est une pièce artisanale en série très limitée. Aucun prix n'a été communiqué, ce qui laisse penser que c'est le genre d'objet qu'on ne trouve pas en rayon chez Fnac. Les précédentes créations du designer suédois se négociaient à plusieurs milliers d'euros.

C'est le genre d'objet qui fait rêver les fans de retrogaming et de musique électronique en même temps. Un synthé polyphonique qui crache du chiptune et qui en plus lit les cartouches NES originales, c'est quand même un sacré programme.

Source : Tom's Hardware

Il installe un ordinateur de 1970 dans un bureau IKEA

Par : Korben
31 mars 2026 à 10:15

Un YouTubeur de la chaîne Usagi Electric vient d'installer un PDP-11 dans un bureau IKEA. Ce mini-ordinateur mythique de Digital Equipment Corporation, qui date des années 70, servait à piloter un spectromètre infrarouge en laboratoire. Plus de cinquante ans après sa fabrication, la machine tourne encore. Et c'est assez beau à voir.

Le PDP-11, un monument

Le PDP-11, c'est un gros morceau d'histoire informatique. Fabriqué par Digital Equipment Corporation à partir de 1970, ce mini-ordinateur 16 bits s'est vendu à environ 600 000 exemplaires dans le monde et a été décliné dans à peu près tous les formats possibles, du rack de laboratoire à la puce en passant par la station de bureau avec ses rangées de voyants clignotants.

C'est sur un PDP-11 que les premières versions diffusées d'Unix ont été développées au début des années 70, après un premier portage sur le PDP-7 qui l'a précédé. Et son architecture a influencé celle du Motorola 68000, et de façon plus indirecte celle du x86 d'Intel. Bref, sans cette machine, vos Mac et vos PC n'auraient pas tout à fait la même tête.

Du laboratoire au bureau IKEA

Dave, le bricoleur derrière la chaîne YouTube Usagi Electric, a récupéré ce PDP-11 qui servait de contrôleur pour un spectromètre infrarouge à transformée de Fourier dans un labo. La machine lui est arrivée en pièces détachées, le bureau d'origine n'ayant pas survécu aux décennies.

Après l'avoir remise en état de marche, Dave a mis des années avant de lui trouver un logement correct. C'est lors d'un réaménagement de son atelier qu'il a fini par construire un bureau sur mesure, à base de contreplaqué de récupération et de ferrures de surplus. Le spectromètre est posé sur la gauche, le PDP-11 est logé à l'intérieur. Niveau esthétique, on repassera, mais ça marche.

60 degrés au repos, quand même

La machine embarque une unité de traitement vectoriel haute performance qui servait à l'analyse spectrale. Le processeur tourne à environ 60 °C au repos, ce qui a poussé Dave à installer deux ventilateurs 120V pour éviter que le tout ne surchauffe.

Autre compromis : l'alimentation linéaire d'origine, bien trop volumineuse pour rentrer dans le bureau, a été remplacée par des alimentations à découpage modernes. C'est le seul écart avec le matériel d'époque, tout le reste de la configuration est d'origine.

Le PDP-11 a plus de 50 ans, il tourne encore, et il est logé dans un meuble qui vaut probablement moins cher que le moindre de ses composants, et j'ai un peu de mal à imaginer mon MacBook dans le même état en 2076.

Source : Hackaday

Faire du Hackintosh comme en 1988

Par : Korben
31 mars 2026 à 09:02

Vous pensiez que le hackintosh, c'était un truc des années 2000, quand Apple est passé sur Intel ? Raté les amis ! Hé oui, dès 1988, des bidouilleurs assemblaient des Mac-compatibles avec des pièces de PC, bien moins chères que le matos Apple officiel.

Et un youtubeur vient justement d'en recréer un de A à Z !

Le gars de la chaîne This Does Not Compute avait récupéré un Macintosh SE dont la carte mère originale avait été remplacée par un accélérateur CPU pour une autre vidéo. Du coup, comme la carte mère d'origine traînait dans un tiroir, il s'est dit que ce serait cool de s'en servir pour explorer la scène du clone Mac DIY de la fin des années 80.

Parce qu'à l'époque, un Macintosh SE neuf coûtait dans les 2 500 dollars. Et la carte mère avec son processeur Motorola 68000, c'était le seul composant vraiment indispensable pour faire tourner System 6. Tout le reste, boîtier, alimentation, lecteur de disquette, moniteur, pouvait venir de fournisseurs tiers. Des revues spécialisées publiaient carrément des guides pour construire sa propre machine compatible... Donc il fallait juste une carte mère Apple + des composants PC à trois francs six sous, et vous aviez un Mac fonctionnel pour une fraction du prix officiel !

Le youtubeur a donc repris ce concept... version 2026. Le boîtier est imprimé en 3D avec du PLA beige (obligatoire pour le look années 80, faut pas déconner). Côté modernisation, il a ajouté une carte de sortie VGA, un BlueScsi qui émule un disque dur SCSI avec une simple carte SD de 32 Go (parce que bonne chance pour trouver un disque SCSI 50 broches fonctionnel en 2026), et une alimentation compacte qui ne prend pas la moitié du boîtier. Le lecteur de disquette 3,5 pouces, par contre, est bien d'époque.

Sans oublier évidemment une carte mère Apple d'origine pour que ça fonctionne. Pas moyen de tricher avec un clone chinois, désolé ! Mais ça permet de garder l'âme du truc !

D'ailleurs, le mot "hackintosh" a pas mal changé de définition au fil des décennies. Dans les années 80, ça désignait ces machines bricolées à partir de composants Apple et PC, puis Apple est passé sur PowerPC en 1994, et le concept s'est un peu perdu. Quand les premiers Macs Intel sont alors sortis en 2006, le terme a été recyclé pour désigner les PC faisant tourner macOS en douce. Et maintenant qu'Apple est sur ARM avec ses puces M1/M2/M3... le hackintosh Intel est quasiment mort car on ne peut pas facilement émuler l'architecture ARM sur du x86 grand public.

Alors revenir à cette définition originelle, c'est pas juste de la nostalgie, c'est presque un hommage.

Perso, ce qui me plaît dans ce projet, c'est que ça nous rappelle que la bidouille a toujours existé. Bien avant les forums tonymacx86 et les tutos OpenCore, y'avait déjà des gens qui refusaient de payer le prix Apple et qui se débrouillaient autrement. C'est exactement dans le même esprit que ceux qui reconstruisent des Brewintosh en impression 3D ou qui fabriquent le plus petit hackintosh du monde .

Voilà, si le rétro-computing et la bidouille Mac vous parlent, foncez voir la vidéo sur This Does Not Compute !

Source

Ce capteur photo est capable de se réparer tout seul pour survivre aux radiations de Jupiter

Par : Korben
30 mars 2026 à 10:39

Des chercheurs ont mis au point une puce CMOS qui détecte ses pixels endommagés par les radiations et les répare en les chauffant. De quoi intéresser les futures missions autour de Jupiter.

Un environnement qui détruit les caméras

L'orbite de Jupiter est l'un des pires endroits du système solaire pour l'électronique. Le champ magnétique de la planète, gigantesque, ionise le dioxyde de soufre craché par Io, sa lune volcanique, et alimente une ceinture de radiation de particules chargées à haute vitesse.

Pour les caméras embarquées sur les sondes spatiales, c'est un cauchemar. Les pixels du capteur accumulent des charges parasites, le courant de fuite explose, et au bout de quelques semaines l'image devient inutilisable.

La NASA en a fait l'expérience avec JunoCam, la caméra de la sonde Juno. À partir de l'orbite 47, les images ont commencé à se dégrader. À l'orbite 56, elles étaient quasiment inexploitables. En décembre 2023, les ingénieurs ont tenté un coup de poker : commander à distance au chauffage embarqué de monter la température à 25 degrés Celsius, bien au-dessus des conditions normales.

L'idée, forcer un recuit thermique du silicium pour libérer les charges piégées et restaurer la structure cristalline. Ça a marché. JunoCam a retrouvé une image nette juste à temps pour survoler Io.

Un capteur qui se soigne lui-même

Une équipe de la Southern University of Science and Technology et de l'université de Kyoto a poussé le concept beaucoup plus loin. Leur puce, présentée en février à l'ISSCC 2026 à San Francisco, intègre directement le mécanisme de réparation dans le capteur. Plus besoin d'intervention humaine à 600 millions de kilomètres.

Le capteur effectue régulièrement une lecture dans le noir complet. Si un pixel affiche encore un courant anormal, il est marqué comme endommagé et un courant fort lui est envoyé pour le chauffer localement. Pendant que ce pixel se répare, le reste de la matrice continue à fonctionner.

La puce embarque aussi un système de compression adaptative qui repère les zones d'intérêt et réduit le volume de données transmises de 75 %. Quand vous envoyez des images depuis Jupiter, chaque octet compte.

Le prototype est une matrice de 128 x 128 pixels. Les chercheurs l'ont exposée à l'équivalent de trente jours de radiation en orbite jovienne. Résultat : le capteur était devenu inutilisable. Après quatre cycles de recuit, l'image était quasiment restaurée.

Un vrai sujet pour les prochaines missions

La technologie arrive à un moment où elle peut servir. JUICE, la mission de l'ESA, est en route vers Jupiter et ses lunes glacées. Europa Clipper de la NASA doit étudier Europe et son océan souterrain.

Ces sondes vont passer de longs mois dans la ceinture de radiation jovienne, et jusqu'à présent la seule parade consistait à blinder les composants avec des semi-conducteurs durcis aux radiations, avec un coût et un poids en plus. Un capteur capable de se réparer en vol, c'est une ligne de défense supplémentaire qui pourrait allonger la durée de vie des instruments.

Ce qui était un bricolage de dernière minute à 600 millions de kilomètres est devenu un système automatisé, intégré directement dans le silicium. 128 x 128 pixels, c'est encore loin d'un capteur opérationnel pour une vraie mission, mais le principe fonctionne.

On imagine bien que la prochaine étape sera de passer à des résolutions plus élevées et de valider tout ça dans des conditions réelles. En tout cas, si ça permet d'éviter de perdre des mois de données scientifiques à cause de pixels grillés, on prend.

Source : Spectrum.IEEE.org

Il transforme l'ordinateur de bord d'une Tesla Model 3 en PC de bureau

Par : Korben
29 mars 2026 à 11:52

Moins de 500 dollars en pièces de casse, un fer à souder et beaucoup de patience : voilà ce qu'il a fallu à un chercheur en sécurité pour faire tourner le calculateur et l'écran tactile d'une Tesla Model 3 sur son bureau, avec le vrai système d'exploitation de la voiture. Le tout récupéré sur des Tesla accidentées.

Des pièces de Tesla accidentées sur eBay

David Schütz voulait participer au programme de bug bounty de Tesla, mais acheter une Model 3 pour bricoler dessus, c'était un peu au-dessus du budget. Du coup, il s'est tourné vers eBay, où des entreprises de récupération revendent les pièces de Tesla accidentées à l'unité.

Le calculateur principal, qui regroupe le MCU (l'unité de contrôle multimédia) et l'ordinateur Autopilot empilé par-dessus, lui a coûté entre 200 et 300 dollars. L'écran tactile, lui, est parti à 175 dollars. Pour donner une idée de la taille, on est sur un module de la taille d'un iPad mais épais comme un livre de 500 pages, le tout dans un boîtier en métal refroidi par eau.

Un gros parcours du combattant

Le plus compliqué n'a pas été de trouver les pièces, mais de les connecter entre elles. Le câble qui relie l'écran au calculateur utilise un connecteur Rosenberger 6 broches, un composant propriétaire qu'on ne trouve pas à l'unité. David a d'abord tenté sa chance avec un câble LVDS de BMW, sans succès.

Pire, en dénudant des fils pour improviser, des débris sont tombés sur la carte mère et ont grillé un régulateur de tension. Il a fallu racheter un deuxième calculateur, avant qu'un ami identifie la puce exacte et qu'un réparateur local la remplace sur la carte d'origine.

La solution finale : commander le faisceau complet du tableau de bord de la Model 3 pour 80 dollars, un amas de câbles énorme juste pour récupérer le bon connecteur.

Un vrai système Tesla sur un bureau

Avec une alimentation de labo réglée sur 12 volts et capable de fournir jusqu'à 8 ampères, le système a fini par démarrer. L'écran tactile s'est allumé et le système d'exploitation de la voiture a booté normalement. En branchant un câble Ethernet, David a découvert le réseau interne de la Tesla : le MCU répond sur une adresse IP locale, l'ordinateur Autopilot sur une autre, et un serveur SSH tourne avec un message qui indique que la connexion est autorisée quand le véhicule est stationné.

Sauf que les clés SSH doivent être signées par Tesla. C'est d'ailleurs tout l'intérêt du projet : Tesla propose un programme qui offre un accès root permanent aux chercheurs qui trouvent au moins une faille de type « rooting ». Le résultat sur le bureau, c'est un joyeux bazar de câbles et de composants, mais ça tourne.

Franchement, la démarche est assez marrante. Plutôt que de claquer le prix d'une voiture pour chercher des failles, le bonhomme bricole avec des pièces de casse et arrive quand même à faire booter un vrai système Tesla sur sa table.

Et ça en dit pas mal sur le programme bug bounty de Tesla, qui reste l'un des plus ouverts de l'industrie auto : la marque accepte que des chercheurs fouillent dans ses entrailles, à condition de prouver qu'ils savent y faire. En tout cas on lui souhaite de trouver sa faille, vu le nombre de calculateurs qu'il a grillés en route.

Source : XDavidHu.me

Il fabrique une enceinte avec uniquement un laser et une feuille d'or

Par : Korben
23 mars 2026 à 13:07

Et bien pourquoi pas ? Ce garçon a en effet réussi à produire de la musique, simplement en pointant un laser de 5 watts sur une feuille d'or. Pas de membrane, pas de bobine, pas d'aimant : le son est généré directement par l'air, chauffé et refroidi à grande vitesse par le faisceau lumineux.

Cet concept a un nom, c'est l'effet photoaoustique, et il a été découvert en 1880 par Alexander Graham Bell, l'inventeur de la cloche (non ça c'est une vanne, pardon).

Un effet vieux de 145 ans

L'effet photoacoustique a été découvert par Alexander Graham Bell en 1880 en observant que des objets éclairés par la lumière du soleil pouvaient émettre des sons. Quand une lumière intense frappe un matériau, elle le chauffe.

Ce matériau transfère sa chaleur à l'air environnant, qui se dilate. Si la source lumineuse est modulée rapidement, les cycles d'expansion et de contraction de l'air produisent des ondes sonores. Pas besoin de membrane ni de bobine. Juste de la lumière et de l'air.

De la feuille d'or au casque imprimé en 3D

Le maker SomethingAboutScience a testé plusieurs approches. Un laser de 5 watts dirigé sur une feuille d'or a produit de la musique reconnaissable, la feuille d'or absorbant bien la lumière bleue et étant assez fine pour transférer rapidement la chaleur à l'air.

Le même laser dirigé dans du dioxyde d'azote a donné un son plus propre. Il a même fabriqué un prototype d'écouteur imprimé en 3D, avec la feuille d'or tapissant l'intérieur de la cavité et la lumière acheminée par fibre optique.

Bon par contre, c'est peut-être un peu moyen de coller un laser de 5 watts à son tympan, je dis ça je dis rien.

Des pistes concrètes

L'application la plus directe concerne les casques audio pour IRM. Les écouteurs classiques à fils et aimants fonctionnent mal dans l'environnement magnétique d'un scanner, et la qualité sonore est souvent catastrophique.

Un système photoacoustique réglerait ce problème en supprimant tout composant métallique. Des chercheurs du MIT ont aussi montré qu'on pouvait envoyer un message audio à une personne située à 2,5 mètres en utilisant un laser et la vapeur d'eau présente dans l'air, à un volume de 60 décibels.

On parle d'une technologie découverte il y a 145 ans et qui reste au stade de la bidouille. Mais produire du son sans aucune pièce mécanique, juste avec de la lumière, ça a quand même de la gueule.

Source : Hackaday

Il transforme sa Xbox Series X en vrai PC gaming avec une RTX 5060

Par : Korben
23 mars 2026 à 12:52

Le YouTubeur PhasedTech a intégré un PC gaming complet dans le boîtier d'une Xbox Series X : un Intel Core i7-12700, 32 Go de RAM, une RTX 5060 et une alimentation 600W. Le tout démarre sous Windows, lance Steam en mode Big Picture, et le lecteur de disques fonctionne encore. Le résultat arrive pile avant le Project Helix de Microsoft, qui promet la même chose en version officielle.

Un PC complet dans un boîtier de console

Le mod repose sur un Intel NUC 12 Extreme Compute Element, une carte PCIe qui intègre un PC complet : processeur Core i7-12700 (12 coeurs), 32 Go de DDR4 en SODIMM et un SSD NVMe Crucial P3 Plus de 1 To en PCIe 4.0.

Pour la partie graphique, PhasedTech a opté pour une Gigabyte GeForce RTX 5060 en format compact, avec une alimentation Flex-ATX de 600W installée au-dessus du GPU. Des fixations sur mesure maintiennent le tout en place.

Le résultat est assez bluffant : de l'extérieur, rien ne distingue cette machine d'une Xbox Series X classique. Les boutons en façade fonctionnent, et le lecteur optique aussi, ce qui était loin d'être garanti vu l'espace disponible à l'intérieur.

Des performances de vrai PC

La machine tourne sous Windows et démarre directement en mode Steam Big Picture, ce qui donne une interface très proche d'une console. Côté performances, PhasedTech annonce entre 100 et 140 images par seconde sur Arc Raiders en 1080p avec des réglages moyens à élevés, et environ 250 images par seconde sur Counter-Strike 2 en réglages élevés.

On est donc sur du PC gaming tout à fait correct pour du 1080p, avec un accès à toute la bibliothèque Steam, Epic Games Store et tout le reste.

Les températures sont annoncées comme correctes malgré l'espace très restreint, même si PhasedTech n'a pas communiqué de chiffres précis sur la chauffe en charge.

Un mod qui arrive au bon moment

Ce projet tombe pile au moment où Microsoft prépare son "Xbox Mode" pour Windows 11, prévu en avril 2026. L'idée de Redmond, c'est de proposer une interface console sur PC, avec à terme le projet Helix qui promet de faire tourner les jeux PC sur la prochaine Xbox.

PhasedTech a pris les devants en montrant que ça marche déjà, avec du matériel qui tient dans un boîtier de Xbox.

Bien sûr, ce type de mod reste réservé aux bricoleurs qui savent manier un fer à souder et qui sont prêts à sacrifier une Xbox Series X.

Le coût total du matériel n'a pas été communiqué, mais entre le NUC 12, la RTX 5060 et l'alimentation, on imagine que la facture dépasse largement le prix d'une console neuve.

Le projet de PhasedTech est la meilleure démonstration qu'on ait vue de ce que Microsoft essaie de faire avec Project Helix : fusionner l'expérience console et PC dans un même boîtier. Sauf qu'ici, c'est un bricoleur qui y arrive avant le constructeur. C'est quand même assez amusant.

Par contre, on ne peut pas vraiment conclure que ce genre de mod va se démocratiser : c'est un projet sur mesure, avec des composants choisis pour leur format compact, et il faut des compétences solides pour arriver à ce résultat.

Source : Techspot

Un chercheur construit le premier processeur ternaire fonctionnel depuis 60 ans

Par : Korben
18 mars 2026 à 16:26

Un chercheur indépendant vient de présenter le 5500FP, un processeur qui ne fonctionne pas en binaire mais en ternaire. Là où nos puces actuelles raisonnent en 0 et 1, celui-ci ajoute un troisième état : le -1. Le tout tourne sur un FPGA classique, et c'est le premier matériel ternaire généraliste depuis les années 1960.

Trois états au lieu de deux

Nos processeurs fonctionnent tous en binaire : chaque bit vaut 0 ou 1. Le système ternaire, lui, remplace le bit par un trit, qui peut valoir -1, 0 ou +1. Sur le papier, un trit stocke environ 1,58 fois plus de données qu'un bit. L'idée n'est pas nouvelle : le célèbre informaticien Donald Knuth a décrit le système ternaire comme le plus élégant des systèmes numériques.

Dans les années 1950, une équipe de l'Université de Moscou avait construit le Setun, le premier ordinateur ternaire. Mais la technologie binaire a pris le dessus, et depuis les années 1960, plus personne n'avait fabriqué de matériel ternaire fonctionnel.

Le 5500FP, un processeur RISC à 24 trits

Claudio Lorenzo La Rosa, chercheur indépendant, a conçu le 5500FP : un processeur RISC de 24 trits qui fonctionne à 20 MHz sur un FPGA classique. Il dispose de 120 instructions et gère la synchronisation atomique en natif. La carte de développement est en open hardware.

Comme le Setun avant lui, le 5500FP simule la logique ternaire à partir de composants binaires : chaque trit est représenté par deux portes logiques. Ce n'est donc pas aussi efficace qu'un vrai circuit ternaire, mais ça a un avantage de taille : on peut le construire avec des composants disponibles dans le commerce, et il communique sans problème avec le reste du monde informatique, qui reste 100% binaire.

Pourquoi c'est intéressant ?

Le ternaire équilibré simplifie certaines opérations que le binaire gère mal. Les nombres négatifs, par exemple, se manipulent sans bit de signe dédié : il suffit d'inverser tous les trits. La représentation des chiffres est aussi plus compacte.

Mais bon, le 5500FP reste un prototype de recherche à 20 MHz, on est très loin d'un concurrent pour les puces que l'on trouve dans nos Mac ou nos iPhone. L'objectif de La Rosa est de passer à terme du FPGA au silicium, ce qui permettrait d'atteindre des fréquences bien plus élevées.

C'est le genre de projet qui rappelle que l'informatique aurait pu prendre un chemin totalement différent. Le binaire s'est imposé dans les années 1960 pour des raisons industrielles plus que scientifiques, et depuis, personne n'a vraiment remis en question ce choix.

Source : Zenodo

Il avait porté DOOM sur Super Nintendo en 1995, il revient trente ans plus tard pour corriger sa copie

Par : Korben
16 mars 2026 à 17:10

Randal Linden est le développeur qui avait réussi l'exploit de faire tourner DOOM sur la Super Nintendo en 1995. Trente ans plus tard, il s’est associé à Limited Run Games pour ressortir une version améliorée sur cartouche, avec un processeur Raspberry Pi caché à l'intérieur.

Dans un long échange accordé à Kotaku, il revient sur ce projet un peu fou et sur les coulisses techniques du portage.

Reverse-engineerer son propre code, trente ans après

À l'époque, Linden bossait chez Sculptured Software, un studio basé à Salt Lake City. L'idée de départ était assez artisanale : acheter des cartouches Star Fox en magasin, les ouvrir, et remplacer la ROM par de la RAM pour tester les capacités de la puce Super FX. Le prototype a suffisamment impressionné ses supérieurs pour qu'ils aillent le présenter directement à id Software au Texas. Le feu vert a suivi.

Le portage de 1995, c'était un moteur entièrement reconstruit de zéro, sans une seule ligne de code d'id Software. Linden avait créé son propre assembleur, son propre linker et son propre débogueur. Mais les contraintes hardware de la SNES avaient imposé des sacrifices : un framerate poussif, pas de textures au sol et au plafond, des niveaux modifiés, et le quatrième épisode supprimé.

Quand Audi Sorlie, de Limited Run Games, lui a posé la question de savoir s'il referait les choses différemment, Linden a répondu qu'il avait « plein d'idées » mais que personne ne lui avait jamais demandé d'y retoucher. Jusqu'à maintenant.

Une puce Raspberry Pi qui se fait passer pour un Super FX

La solution technique est plutôt marrante. La cartouche embarque un Raspberry Pi RP2350 qui émule le processeur Super FX. Comme l'explique Linden à Kotaku, « la Super Nintendo ne sait pas qu'elle ne parle pas à un vrai Super FX ».

Le code est quasiment identique à ce qu'il écrirait pour la puce d'origine, mais avec des performances largement supérieures.

Le résultat : circle strafing, framerate amélioré, support du rumble, et les quatre épisodes complets enfin disponibles sur SNES. Linden admet aussi avoir dû reverse-engineerer son propre code vieux de trente ans. « C'était assez compliqué, une partie du code. Je me suis dit : wow, j'étais vraiment intelligent à l'époque. »

Bethesda a dit oui sans trop hésiter

Côté droits, il fallait quand même convaincre Bethesda, propriétaire de la licence DOOM. Selon Sorlie, la réaction initiale a été plutôt incrédule : « Vous voulez retourner développer pour la Super Nintendo ? Genre, pour de vrai ? » 

Mais le retour de Linden sur le projet et les premiers prototypes ont suffi à convaincre. « Ils étaient aussi enthousiastes que nous. »

C'est le genre d'histoire qui rappelle que derrière les jeux vidéo, il y a parfois des parcours assez improbables. Linden n'avait pas pu appeler id Software pour pitcher son idée en 1995, il avait dû bricoler un prototype avec des cartouches Star Fox achetées en magasin, et trente ans plus tard il se retrouve à relire du code assembleur qu'il ne comprend plus lui-même.

Le projet a un côté un peu absurde, mais c'est aussi ce qui le rend attachant. Reste à voir si les fans de retrogaming seront au rendez-vous, mais vu que l'édition collector limitée à 666 exemplaires s'est déjà envolée, on a un début de réponse.

Source : Kotaku

NAS DIY en 2026 : quel système choisir ?

Par : Fx
26 janvier 2026 à 07:00
NAS DIY OS - NAS DIY en 2026 : quel système choisir ?

Nous sommes en 2026 et les choses ont pas mal évolué ces derniers mois. À une certaine époque, les systèmes DIY pour NAS se comptaient sur les doigts d’une main : ce n’est plus le cas. Aujourd’hui, on trouve des solutions très abouties, avec un niveau de qualité proche du monde professionnel, comme TrueNAS Scale ou Unraid, des options intermédiaires comme OpenMediaVault (OMV), et d’autres plus accessibles et plus souples, comme CasaOS, ZimaOS ou UmbrelOS. Nous aborderons également le cas de Proxmox

NAS DIY OS - NAS DIY en 2026 : quel système choisir ?

Qu’est-ce que le DIY pour les NAS ?

Le concept de NAS DIY (Do It Yourself) repose sur une idée simple : s’affranchir du verrouillage matériel des constructeurs (Synology, QNAP, Asustor…). Au lieu d’acheter un boîtier propriétaire, vous sélectionnez vos propres composants (boîtier, processeur, RAM, contrôleurs…) ou vous recyclez un ancien PC.

Cette approche offre 2 avantages majeurs :

  • Rapport performance/prix : pour le prix d’un NAS 4 baies du commerce équipé d’un processeur souvent limité, vous pouvez assembler une machine capable de gérer du transcodage 4K, des dizaines de conteneurs Docker, des machines virtuelles… 
  • Évolutivité : vous n’êtes plus limité par le nombre de ports, la mémoire soudée ou les choix matériels du constructeur. Votre NAS évolue avec vos besoins.

À cela s’ajoute un point souvent sous-estimé : la possibilité de donner une seconde vie à un NAS qui ne reçoit plus de mises à jour…

Qu’est-ce qu’un système DIY pour les NAS ?

On me pose souvent la question : pourquoi parler de « système » et pas simplement de « système d’exploitation (OS) » pour NAS ?

Parce qu’en 2026, un NAS moderne n’est plus seulement un serveur de partage de fichiers (SMB/NFS). C’est une plateforme qui combine trois couches complémentaires :

  • OS : généralement Linux, il gère le matériel et le système de fichiers (ZFS, Btrfs, XFS…) ;
  • Interface web : outil d’administration au quotidien, qui permet de gérer stockage, utilisateurs, services, mises à jour et supervision (sans passer par des lignes de commande) ;
  • Applications : écosystème de services que vous hébergez qui était la force des fabricants historiques… mais maintenant Docker est devenu central.

Les poids lourds : Performance et stockage massif

Ces solutions visent d’abord la fiabilité et une gestion sérieuse du stockage.

TrueNAS Scale : l’incontournable

TrueNAS 251001jpg - NAS DIY en 2026 : quel système choisir ?

Avec ses évolutions récentes, TrueNAS Scale s’est imposé comme une référence du NAS DIY. Son point fort, c’est la protection des données grâce à ZFS (snapshots, auto-réparation, intégrité), avec une approche très “pro”.

En contrepartie, ZFS reste relativement rigide : étendre un pool en ajoutant “juste un disque” n’est pas aussi souple que sur d’autres solutions. Pour exploiter ZFS dans de bonnes conditions, il est recommandé d’avoir beaucoup de mémoire vive/RAM (ECC de préférence).

Si votre priorité est la pérennité et la sécurité des données, TrueNAS Scale est un excellent choix.

Unraid : la flexibilité avant tout

Unraid 2026 - NAS DIY en 2026 : quel système choisir ?

Toujours très populaire chez les particuliers, Unraid brille par sa capacité à gérer des disques hétérogènes (marques et tailles différentes) avec une grande simplicité. Son système de parité permet d’ajouter un disque facilement, au fil de l’eau. Son interface est aussi l’une des plus accessibles et sa gestion de la virtualisation (VM avec passthrough GPU) est une référence pour les configurations hybrides.

Le point à intégrer dans l’équation : son modèle économique a évolué. Les mises à jour sont désormais liées à un abonnement, sauf licence à vie plus onéreuse. Cela le place face à une concurrence gratuite de plus en plus solide.

Unraid reste un excellent choix pour le multimédia, l’hébergement d’applications et le recyclage de disques, à condition d’accepter le coût de la licence.

L’intermédiaire

openmediavault 2026 - NAS DIY en 2026 : quel système choisir ?

OpenMediaVault est construit autour d’une base Debian, avec une philosophie simple : rester léger, stable et relativement proche de Linux.

OMV tourne sur à peu près tout, y compris sur du matériel ancien. Il laisse plus de latitude pour personnaliser l’OS sous-jacent que certaines solutions plus “encadrées”. En revanche, l’interface est plus austère et demande souvent un peu plus de connaissances pour obtenir une configuration parfaitement propre (permissions, services, supervision, sauvegardes).

C’est une solution cohérente pour les utilisateurs à l’aise avec Linux qui veulent un NAS sans fioritures, sur du matériel modeste.

La nouvelle vague : simplicité et one-click

Ici, l’objectif est clair : privilégier l’accessibilité, l’expérience utilisateur et une installation rapide.

CasaOS, ZimaOS et UmbrelOS

Capture CasaOS - NAS DIY en 2026 : quel système choisir ?

Ces systèmes (ou surcouches, selon les cas) cherchent à transformer un serveur en « cloud personnel » facile à prendre en main. Les interfaces sont modernes, visuelles et l’installation d’applications ressemble à un App Store… On déploie des services en quelques clics, ce qui les rend attractifs pour démarrer vite.

La limite est structurelle : ce ne sont pas, à la base, des OS orientés « stockage avancé ». La gestion RAID, la stratégie de protection des données et les scénarios de migration/extension sont sommaires (rien à voir comparé à TrueNAS et Unraid).

Ils sont donc très adaptés à un premier serveur multimédia/domotique, mais moins pertinent si vous cherchez une plateforme de stockage « sérieuse » pour des données réellement critiques.

HexOS

HexOS est très attendu (toujours en Bêta), car l’ambition est séduisante : proposer la puissance d’une base type TrueNAS avec une interface beaucoup plus simple. C’est une piste intéressante pour ceux qui veulent une expérience plus « grand public » sans renoncer à une base technique solide.

Point important : c’est un produit payant. Son intérêt dépendra de son niveau de maturité et de la qualité de l’intégration au quotidien.

L’alternative : virtualisation avec Proxmox

Proxmox VE 9.1 2026 - NAS DIY en 2026 : quel système choisir ?

Techniquement, Proxmox VE n’est pas un OS de NAS : c’est un hyperviseur. Mais en 2026, c’est la base de nombreuses installations homelab.

Le principe est simple : vous installez Proxmox sur le matériel (bare metal), puis vous déployez votre NAS (TrueNAS, OMV…) dans une machine virtuelle et vos autres services dans d’autres VM ou conteneurs.

L’intérêt ici, c’est que vous séparez les rôles. Vous facilitez les sauvegardes complètes (snapshots, export) et vous rendez l’infrastructure plus résiliente. Si un service tombe, le reste continue de tourner et vous pouvez restaurer proprement.

Cependant, c’est une approche plutôt réservée aux utilisateurs avancés. Elle demande une bonne maîtrise des notions de stockage (pass-through, contrôleurs, performances, sécurité des données).

Que choisir en 2026 ?

Le choix ne dépend plus uniquement des fonctionnalités (Docker est devenu un standard), mais de votre priorité? Vous voulez :

  • Protéger vos données avant tout : TrueNAS Scale
  • Recycler des disques variés et évoluer facilement : Unraid
  • Une solution simple, légère, proche de Linux : OMV
  • Une belle interface et démarrage rapide : CasaOS ou ZimaOS
  • Un homelab complet et une infra modulaire : Proxmox

Certains diront que le NAS DIY est à son apogée. De mon côté, je le vois plutôt comme une étape : les outils se simplifient, les standards se consolident et le niveau de finition continue de monter. Reste à choisir l’approche qui correspond à vos contraintes… et à votre tolérance à la complexité.

Unraid et la branche 7.2.x

Par : Fx
23 décembre 2025 à 07:00
unraid 723 - Unraid et la branche 7.2.x

Unraid 7.2 a marqué une étape importante dans la modernisation d’Unraid (et donc des NAS DIY), avec une interface enfin adaptée aux téléphones, des avancées majeures autour du ZFS et une consolidation côté sécurité. La récente version 7.2.3 s’inscrit dans une logique de stabilisation et d’améliorations, avec plusieurs correctifs…

unraid 723 - Unraid et la branche 7.2.x

Unraid 7.2.x

Fin octobre 2025, Unraid est passé en version 7.2, rapidement suivie de mises à jour correctives pour solidifier la branche. À l’heure où ces lignes sont écrites, Unraid est disponible en version 7.2.3, qui poursuit l’effort de modernisation sans chercher à tout révolutionner d’un coup.

Cette orientation est assez lisible : Unraid veut rester accessible (facile à administrer), tout en intégrant des briques attendues par les utilisateurs avancés (ZFS, API, intégrations). Cela implique parfois des changements structurants, y compris sur l’écosystème de plugins et tout le monde n’y trouvera pas forcément son compte.

Interface responsive

La nouveauté la plus visible d’Unraid 7.2, c’est l’interface qui est devenue 100% responsive. L’administration sur téléphone ou tablette devient beaucoup plus confortable et l’affichage des statistiques (réseau, mémoire…) gagne en clarté, avec des corrections de mise en page au fil des versions. A noter que certains plugins (historiques) ont été retirés lors de la mise à jour pour préserver la stabilité.

En parallèle, la nouvelle version corrige des régressions d’affichage et améliore la lisibilité des notifications. On note aussi des corrections de sécurité liées à l’interface, dont un risque XSS.

ZFS et l’expansion RAIDZ

Côté stockage, Unraid 7.2 apporte une évolution très attendue : l’expansion des pools ZFS en RAIDZ (RAIDZ1/RAIDZ2/RAIDZ3). L’intérêt, c’est la possibilité de faire évoluer la capacité progressivement, sans devoir tout reconstruire !

Compatibilité ext/NTFS/exFAT

Autre apport pragmatique d’Unraid 7.2 : le support natif d’ext2/ext3/ext4, NTFS et exFAT. C’est particulièrement utile pour importer des disques externes, gérer des migrations depuis une autre machine, ou récupérer des données sans multiplier les contournements.

Sur la partie services, la branche 7.2.x comprend aussi des mises à jour et correctifs visant la compatibilité de certains usages réseau, dont Time Machine (via Samba).

API intégrée plus moderne

L’intégration d’une API officielle dans Unraid 7.2 pose les fondations d’un écosystème plus moderne a ouvert la voie aux automatisations, intégrations d’outils tiers. Avec la version 7.2.3, l’API embarquée devient mieux structuré selon le journal des modifications.

Même si ce n’est pas la nouveauté la plus “visible”, c’est typiquement ce qui ouvre la voie à des usages plus propres côté monitoring, dashboards, ou encore l’authentification externe.

Unraid 7.2.3

La version 7.2.3 est une mise à jour axée sur la stabilité et la sécurité, avec notamment une correction XSS, des correctifs réseau et des ajustements sur des composants connexes. Le noyau indiqué reste en Linux 6.12.54, ce qui confirme l’objectif de stabilité des équipes.

Que ce soit pour du stockage, des conteneurs ou encore des VM, Unraid 7.2 est devenu un incontournable en 2025…

source

❌
❌