Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 4 mai 2026Flux principal

Un iPod Nano transformé en workstation triple écran

4 mai 2026 à 10:23

Sur sa chaîne YouTube "Will It Work?", un bidouilleur a réussi à brancher trois moniteurs sur un iPod Nano de sixième génération. Oui, vous avez bien lu, l'iPod cliquable carré qui faisait 4 cm de côté en 2010, et qui n'avait à l'origine aucune sortie vidéo digne de ce nom. Le résultat est un setup absurde mais qui tient debout, et c'est franchement délicieux à regarder.

La clé magique pour que ça fonctionne, c'est un ancien Apple iPad Keyboard Dock 30 broches, l'un des rares accessoires de l'époque qui acceptait de relayer le signal vidéo composite généré par l'iPod. Le clavier en lui-même est inutile parce que l'OS du Nano ne sait pas quoi en faire, mais le dock sert de support physique et de relais électrique. De là, un câble 30 broches vers composite ressort vers les écrans.

Pour les écrans justement, le bidouilleur a sorti trois Sharp Aquos à dalle plate du début des années 2000, branchés en chaîne via leurs entrées composites. Du coup, chaque télé reçoit le même signal, mais visuellement on a bien l'impression d'avoir trois moniteurs distincts qui crachent l'image du Nano. C'est parfaitement inutile, donc très satisfaisant.

Côté son, le Nano alimente un splitter TRRS 4 pôles qui sépare le signal pour brancher en parallèle un micro Maono de bureau et une paire d'Apple Pro Speakers, ces fameuses enceintes transparentes du Power Mac G4. Le rendu fait vraiment penser à une station de podcast pro, sauf que tout sort d'un appareil qui pèse moins qu'une carte de crédit.

Le plus improbable, c'est que l'auteur a réussi à faire tourner du "vrai multitâche" sur le Nano, en lançant un diaporama photo sur les trois écrans pendant qu'une playlist tourne en fond. C'est techniquement la limite des capacités d'un iPod Nano de 2010, mais en pratique ça suffit largement à donner l'illusion d'un poste de travail complet quand on regarde la photo en plan large.

On est là dans la longue tradition des hacks autour des vieux iPods, où la communauté continue de creuser ce que la puce sous le capot peut vraiment faire. Le Nano 6G en particulier a déjà été modifié pour faire tourner des firmwares custom, des jeux, ou même Doom, et ce genre de détournement vidéo est une nouvelle pierre improbable à l'édifice.

Ce genre de bidouille rappelle bien pourquoi le détournement d'objets Apple est devenu un sport en soi.

Source : Hackaday

Ce jeu Steam flingue votre SSD en silence

3 mai 2026 à 12:02

108 Go par heure. C'est ce que Windrose, le RPG de pirates en Early Access publié par Kraken Express le 14 avril dernier, écrivait silencieusement sur les SSD des joueurs, sans aucune mention dans les notes de mise à jour. Avec déjà 1,5 million de copies vendues et un pic à 69 000 joueurs simultanés, ça commence à faire un sacré paquet de SSD potentiellement bien fatigués.

Le bug a été repéré par Pixel Operative et confirmé par TechSpot puis Tom's Hardware. En jeu, des pics d'écriture grimpaient jusqu'à 30 Mo/s en continu, même quand le personnage se baladait tranquillement dans son camp de base sans rien faire de spécial.

Sur un SSD grand public type TLC avec une endurance affichée autour de 600 TBW, on parle de plusieurs jours de jeu intensif suffisant pour grignoter une bonne part de la durée de vie nominale.

Le problème vient en fait de la façon dont Kraken Express gère la sauvegarde des progressions. Le studio a choisi RocksDB, une base de données clé-valeur très utilisée côté serveur, et en a empilé trois instances en parallèle, chacune avec un cache mémoire ridiculement petit. Du coup, dès que le cache déborde, tout est balancé sur le disque en boucle permanente, sans aucune logique d'optimisation. Pas terrible.

Kraken Express a réagi vite avec le patch 0.10.0.4 déployé le 30 avril. Selon Pixel Operative qui a refait ses mesures après mise à jour, l'utilisation disque baisse de 60 à 75%. C'est nettement mieux, mais ça reste très loin des standards d'un jeu propre. Et surtout, ça ne change strictement rien pour les joueurs qui ont écrit plusieurs téraoctets de données pendant les deux semaines précédant le correctif.

Côté communication, le studio a reconnu le souci mais sans trop s'étendre sur les conséquences possibles pour le matériel. Pas un mot sur une éventuelle aide aux joueurs qui auraient des SSD très entamés. Et impossible de savoir combien de joueurs sont concernés, vu que l'usure d'un SSD ne se voit qu'au moment où il commence à lâcher.

Bref, un Early Access ça reste un Early Access, mais bousiller le hardware des joueurs sans même les prévenir, c'est pas génial.

Source : Techspot

À partir d’avant-hierFlux principal

PixelFX Morph 2K : un scaler 1080p pour consoles rétro à peu près accessible

30 avril 2026 à 11:08

199 $ pour passer vos consoles rétro en HDMI 1080p sans bouillie de pixels et sans latence visible ? C'est ce que promet le Morph 2K, le nouveau scaler analogique-numérique de PixelFX. Pré-commandes le 1er juin, livraisons huit à dix semaines plus tard.

L'idée est de prendre n'importe quel signal analogique des consoles rétro (composite, S-Video, SCART, component) et de le balancer en 1080p sur HDMI moderne, avec une couleur 4:4:4 propre et une sortie pouvant grimper à 60 Hz en VRR.

L'appareil est même pensé pour scaler les sources les plus crades en 240p sans empâter les pixels, ce qui est le grand intérêt de ce genre de boîtier face aux convertisseurs cheap qu'on trouve à 30 € sur AliExpress.

Côté connectique, tout y est. Composite, S-Video, SCART européen, component (les fameux Y-Pb-Pr) : pas besoin de racheter trois adaptateurs séparés. Seul le VGA demande un adaptateur supplémentaire vendu à part, ce qui exclut certaines Dreamcast modées ou les vieux PC rétro. Sinon vous avez la quasi-totalité des sorties analogiques couvertes nativement.

Le Morph 2K embarque aussi un mode simulation CRT optionnel pour ceux qui veulent retrouver les scanlines, le grain et le flou caractéristique des télés à tubes. Le boîtier est WiFi, mais pas pour le streaming des parties, simplement pour les mises à jour firmware et la configuration via une interface web depuis un navigateur. Pratique quand on veut bidouiller les profils par console sans se taper un menu OSD à la télécommande.

Par rapport au Morph 4K vendu autour de 400 $, on perd la sortie 4K (donc pas de pixel-double sur écran UHD), mais 1080p sur un écran moderne, ça reste largement assez pour profiter d'une N64 ou d'une Saturn dans des conditions correctes. La cible est claire : les retrogamers qui veulent de la qualité d'image sans passer aux 400 ou 600 $ d'un OSSC Pro ou d'un RetroTink 4K.

Les pré-commandes ouvrent le 1er juin et les premiers exemplaires devraient partir 8 à 10 semaines plus tard, soit fin août si tout se passe bien côté production. Aucune disponibilité officielle confirmée pour l'Europe au moment où j'écris ces lignes, mais PixelFX livre généralement à l'international via leurs revendeurs habituels.

À ce tarif, le Morph 2K devient intéressant face aux solutions FPGA hardcore qui demandent à la fois plus de budget et plus de bidouille pour être configurées correctement. Plus d'infos par ici .

Source : Time Extension

L'IA qui conçoit votre prochain produit DIY

Par : Korben ✨
26 avril 2026 à 08:45

Ce matin, j'ai demandé à une IA de me concevoir un baladeur qui lit du FLAC. L'outil m'a alors posé quelques questions puis il m'a sorti le design électronique complet en quelques secondes. Blueprint.am , c'est le service de 3E8 Robotics qui transforme une simple phrase en bidule hardware DIY : schéma de cablage, liste de pièces avec liens Amazon, vues 3D, instructions de montage étape par étape...etc.

Vous tapez votre idée bien délirante dans un champ texte, l'outil balance un plan pour décrire l'archi générale ainsi qu'un "wiring diagram" (je pense qu'on peut traduire ça par plan de câblage) avec les connexions GPIO/SPI/I2S qui vont bien + la liste des pièces / composants et une suite d'instructions de fabrication regroupées par étapes.

Pour mon baladeur FLAC, ça m'a sorti un ESP32-WROOM-32E couplé à un DAC PCM5102A, un ampli casque TPA6120A2, un écran 2.4 pouces SPI TFT, une batterie Li-Po 1000mAh avec chargeur TP4056 et boost converter XL6009. 30 pièces au total soit 13 composants électroniques et 17 pièces à imprimer en 3D pour le boîtier pour un coup total d'environ 282 $.

Le truc qui me plait bien, c'est pas que ça génère de la conception hardware (Ce bon vieux Claude Code fait déjà ça depuis un moment), mais c'est surtout la cohérence des choix. L'outil semble avoir piqué les bonnes pratiques de la communauté maker et me sort pas juste des composants au pif.

Avant ce genre d'outil, fallait sortir KiCad pour le schéma, Octopart pour vérifier les composants disponibles, Fusion 360 ou OnShape pour modéliser le boîtier, et un gros tableur des familles pour calculer le coût total de votre délire.

Là c'est un seul prompt et 30 secondes à patienter. La liste des composants a même des liens Amazon donc vous cliquez et vous commandez.

Comme vous pouvez le voir sur mes captures, la 3D générée, c'est un wireframe d'enclosure et pas un design final, donc faudra repasser dans un soft de modélisation pour arrondir les angles et caler les vis. Y'a pas non plus de firmware auto-généré, donc une fois le hardware monté, faudra flasher l'ESP32 vous-même via Arduino IDE ou PlatformIO avec votre propre code. Et faudra savoir souder, disposer d'une imprimante 3D, d'un multimètre...etc. Bref, l'outil réfléchit, mais c'est quand même encore à vous de bosser.

Si ça vous branche, vous avez un quota gratuit pour tester sans compte mais après faudra vous en créer un pour débloquer plus de générations et éventuellement acheter des crédits. L'outil a aussi un onglet documentation auto-générée, donc même si vous foirez le montage, vous pouvez relire la procédure pas-à-pas pour comprendre où ça n'a pas fonctionné.

Dans son test, le reviewer FabScene (alias Ryuta Kobayashi, qui bosse sur des robots dans l'automobile japonaise, donc pas vraiment un newbie) a conçu un accessoire LED avec boutons et a sorti un prototype fonctionnel en 2 heures de bout en bout (conception, impression, assemblage). Comptez un peu plus si vous débutez à la soudure, mais ça reste utilisable pour de vrai.

Ça remplacera pas un ingénieur senior, mais pour du proto de week-end, franchement, c'est une vraie bouffée d'air pour les makers.

RSVP Nano - Une mini-liseuse DIY qui fait défiler les mots

Par : Korben ✨
25 avril 2026 à 07:34

John Decebal vient de sortir le RSVP Nano , une mini-liseuse open-source qui tient sur un ESP32-S3 et qui affiche votre bibliothèque... un mot à la fois. 92 mm sur 34, et sous licence MIT, je me suis dis que j'allais y jeter un oeil.

En fait, le concept tient en 4 mots : Rapid Serial Visual Presentation. Au lieu d'afficher une page entière, l'appareil fait défiler les mots un par un, à la cadence que vous voulez. Imaginez un téléprompteur de poche, sauf que c'est vous qui gérez le défilement. J'en parlais déjà avec Uniread en 2018 , sauf que là, la chose est matérialisée dans un boîtier qui tient dans la paume de la main, au lieu de tourner en CLI dans un terminal.

Côté hardware, c'est une carte Waveshare ESP32-S3-Touch-LCD-3.49 avec 16 Mo de flash incluant l'OPI PSRAM, plus un panel AXS15231B de 640 x 172 pixels en mode paysage. Par contre, comme c'est pas un écran e-ink, mais un LCD IPS classique tactile capacitif, exit l'autonomie d'une Kindle. On tape plutôt dans le rythme d'un téléphone.

Le firmware embarqué convertit alors les EPUB en format .rsvp directement sur la carte SD à la première ouverture, puis met le résultat en cache. Pour les autres formats type .txt ou .md ou .html, il existe un convertisseur desktop séparé à lancer sur PC avant copie. Voilà, c'est moins fluide mais ça reste carrément faisable.

Quelques bémols quand même. La lecture mot par mot, ça demande un peu d'entraînement (les premières minutes, le cerveau panique un peu !!), et si vous voulez relire un passage précédent, faudra piloter manuellement l'engin via avec l'écran tactile.

Le concept même de RSVP, ça reste quand même une affaire de goût personnel. Certains tiennent un roman entier comme ça, d'autres décrochent au bout de 30 minutes parce que le cerveau zappe la pause naturelle qu'on prend en bout de ligne. Après ça peut convenir aux lecteurs de métro qui dévorent par micro-sessions (entre 2 arrêts quoi...). Dans ce cas le format colle carrément à votre rythme.

Pour la petite histoire, j'avais déjà parlé en 2020 d'un cousin plus sérieux, The Open Book Feather , dans un genre plus orthodoxe avec un véritable écran e-ink complet et un microcontrôleur Adafruit Feather sous Linux embarqué.

Mais si ça vous chauffe, sachez que le hardware coûte une trentaine de dollars, le firmware est libre, et la communauté commence déjà à demander l'intégration Calibre.

Source : Hackster.io

Il fabrique de la RAM dans sa cabane

Par : Korben ✨
24 avril 2026 à 14:17

Imaginez qu'à cause de cette putain de pénurie, vous vous mettiez à fabriquer votre propre RAM à la main dans votre cabane de jardin façon Heisenberg ? Hé bien c'est exactement ce que Dr. Semiconductor vient de réussir, et les 20 premières cellules DRAM de ce fou furieux fonctionnent ! Alors forcément, ça m'intéresse !

Le bonhomme a posté sa vidéo le 20 avril dernier et ça prend clairement une tournure virale dans le monde du hardware car ça donne de l'espoir et des idées à pas mal de makers. Il avait d'ailleurs déjà publié en mars une vidéo entière sur la construction de la cleanroom elle-même, donc ce n'est pas un coup d'éclat one-shot, mais une vraie série documentaire dans laquelle il s'est lancé.

En gros, il a transformé un abri de jardin en salle blanche de classe 100, construit l'essentiel de ses outils de fabrication à partir de rien, et gravé un array de 5 × 4 cellules de RAM avec des transistors de moins d'un micron de long. Du jamais vu à cette échelle chez un particulier !

La cabane de jardin reconvertie en cleanroom class 100

Alors pourquoi c'est dingue, cette histoire ?

Hé bien parce que la RAM, c'est dominé par trois entreprises qui pèsent des dizaines de milliards, à savoir Micron, Samsung et SK Hynix. Construire une usine moderne, ça coûte autour de 20 milliards de dollars et ça prend facile 4 à 5 ans. Du coup, quand l'IA se met à bouffer une grosse partie de la production disponible, les prix explosent ! Nombreux sont ceux qui ont renoncé à en acheter vu les tarifs actuels.

Mais qui sait, peut-être que maintenant qu'on sait que fabriquer sa propre RAM dans son garage, c'est possible, y'a des choses qui vont peut-être changer ?

Côté process, c'est du semi-conducteur comme à l'usine mais version DIY. Il part d'un wafer de silicium classique, le passe au four à 1100°C pour former une couche d'oxyde, applique de la résine photosensible et expose aux UV à travers des masques maison pour dessiner le motif, puis dope le silicium au phosphore (merci à Projects in Flight pour la technique), et finit par une couche d'aluminium pulvérisée au plasma pour les connexions. Un vrai process industriel miniaturisé, sauf que tout se passe à la maison.

Et ça donne quoi à la mesure ?

Hé bien son capaciteur affiche 12,3 picofarads, pile dans la fourchette qu'il avait calculée. Le transistor charge le capa à 3 volts en quelques centaines de nanosecondes, donc autant dire que c'est propre et net. Par contre, la rétention de charge c'est là où ça coince, avec environ 2 millisecondes avant que la cellule ne perde sa donnée, contre plus de 64 ms pour de la DRAM commerciale. Du coup faut rafraîchir plus souvent, mais ça tient bien.

Le CV plotter affiche 12,3 pF, pile dans la fourchette théorique

Comme le précise Dr. Semiconductor dans sa vidéo, pour l'instant on ne peut pas faire tourner Doom dessus. Avec 20 cellules vous stockez 20 bits, soit de quoi sauver deux octets et demi, donc bon, c'est pas foufou. Mais la preuve est faite qu'un particulier depuis chez lui, peut graver du silicium fonctionnel, et le plan maintenant c'est de combiner plusieurs arrays pour augmenter la capacité, et de connecter ça à un PC.

Perso, c'est le genre de démonstration technique qui se respecte ! Intel qui se passe de TSMC pour ses gammes basses, un fan qui ressuscite un Nokia N900 avec des supercondensateurs , et maintenant ce YouTubeur DIY qui fabrique de la RAM dans son abri de jardin alors que pendant ce temps, les géants de la mémoire nous vendent leurs puces au prix de l'or parce qu'ils ont le monopole... Ça bouge vite et à sa manière, Dr. Semiconductor ridiculise les géants , en montrant que le mur technologique est moins haut qu'on le croyait.

Voilà vous voulez voir les manips en vrai, les amis, je vous mets sa vidéo complète ça vaut vraiment le coup ! Faites chauffer le gros pouce bleu, il a un Patreon et ça reste un taf de dingue financé par ses abonnés.

A voir maintenant s'il arrive à relier correctement ses cellules pour faire tourner un truc dessus. A surveiller de près !

Anker présente Thus, sa puce IA maison dédiée aux écouteurs et aux accessoires

23 avril 2026 à 14:10

Anker dévoile Thus, sa toute première puce maison conçue pour faire tourner de l'IA directement sur ses appareils. La marque chinoise parle d'un bond de 150 fois en puissance IA pour ses futurs produits Soundcore par rapport à la génération actuelle. Le bond est énorme. Le lancement officiel est prévu pour le 21 mai.

Côté architecture, Thus est présentée comme une puce audio à calcul en mémoire, ce qui veut dire que les poids du modèle neuronal sont stockés directement dans les cellules qui font les opérations.

Du coup, pas besoin de faire des allers-retours entre mémoire et processeur à chaque pas d'inférence, ce qui économise à la fois de la latence et de l'énergie. Anker annonce pouvoir faire tenir plusieurs millions de paramètres de modèle dans une enveloppe compacte, dédiée au traitement sonore.

En pratique, ça veut dire que votre casque va pouvoir gérer de la réduction de bruit adaptative, du filtrage conversationnel ou même de la traduction en temps réel sans envoyer le son dans le cloud. C'est le pari que fait tout le monde aujourd'hui dans l'audio en sans-fil, mais peu de marques ont les moyens de se payer leur propre silicium pour y arriver.

pple le fait depuis longtemps avec les puces H, Samsung et Qualcomm aussi dans une moindre mesure, et Anker tente de jouer dans cette cour-là.

Les premières puces arrivent dans deux modèles d'écouteurs selon une fuite de mars : les Liberty 5 Pro Max et les Liberty 5 Pro. On est sur du haut de gamme Anker quo devrait dépasser les 200 euros, pas du milieu de marché. Au-delà des écouteurs, Anker prévoit d'étendre Thus à d'autres accessoires mobiles et objets connectés, ce qui ressemble à une plateforme silicium interne pour toute la gamme.

Le mouvement est intéressant à regarder. Anker est surtout connue pour ses chargeurs et ses batteries externes, avec une réputation de produits solides pour leur prix. Concevoir sa propre puce, c'est un saut industriel considérable et aussi un bon moyen de se différencier au moment où l'audio grand public se banalise.

Si l'exécution suit derrière, la marque peut passer d'un statut d'accessoiriste à celui de concurrent crédible sur l'audio IA.

Bref, Anker qui passe au silicium maison, c'est le genre de virage qui change la nature de la marque. On a hâte de tester les produits produits qui vont l'utiliser.

Source : Mac4ever

Le pilote Nouveau s'apprête à franchir la barrière HDMI 2.1, bloquée depuis des années sur AMD

24 avril 2026 à 11:09

La norme HDMI 2.1, avec ses 4K@120 Hz et ses 8K, est un serpent de mer dans le monde Linux. Depuis trois ans, le HDMI Forum refuse aux développeurs AMD l'accès aux spécifications de la Fixed Rate Link, le composant-clé qui permet de faire passer ces gros débits.

Résultat, les utilisateurs Linux avec une carte AMD récente sont coincés en HDMI 2.0, donc en 4K@60 Hz. C'est quand même frustrant quand votre écran coûte plus cher que votre GPU.

Côté NVIDIA, Nouveau (le pilote open-source historique) s'apprête à contourner ce blocage par une pirouette plutôt élégante. Karol Herbst, contributeur de longue date du projet, explique que puisque tout le logiciel HDMI 2.1 de NVIDIA se trouve déjà dans le firmware GSP de la carte (le fameux blob propriétaire que NVIDIA a commencé à distribuer il y a quelques années), il suffit à Nouveau de le charger et de lui dire quoi faire.

L'open-source n'a pas besoin de connaître les spécifications HDMI 2.1, parce que c'est le firmware fermé qui s'en occupe. Le HDMI Forum ne peut rien objecter. Plutôt malin.

C'est la différence-clé avec la situation AMD. Le pilote AMDGPU fait tourner une grosse partie de la logique d'affichage dans le code open-source, justement parce que c'est la philosophie maison. Du coup, implémenter HDMI 2.1 dans AMDGPU reviendrait à exposer des morceaux de la spec que le HDMI Forum protège jalousement.

Sur Nouveau, NVIDIA a externalisé toute cette logique dans le firmware GSP, donc le pilote open-source reste "naïf", et par chance, c'est exactement ce qui le sauve juridiquement.

À noter que la chose n'est pas encore dans le noyau Linux. Herbst est confiant sur le principe, mais il reste du travail pour finaliser l'intégration, gérer les capacités dynamiques du firmware, et s'assurer que ça marche sur toutes les cartes Ampere, Ada et Blackwell.

Les utilisateurs AMD regarderont ça avec une certaine amertume, parce que leur blocage, lui, est juridique, pas technique.

Bref, la philosophie "tout open" d'AMD se retourne contre elle sur ce dossier, et Nouveau s'en sort par une faiblesse architecturale transformée en avantage.

Source : Phoronix

Un YouTubeur a peut-être conçu la serrure la plus dure à crocheter qui existe

22 avril 2026 à 08:38

La chaîne YouTube Works By Design vient de sortir un projet qui fait pas mal jaser chez les passionnés de crochetage : une serrure dont le cylindre se met littéralement en position fermée après que la clé ait été tournée, rendant l'accès aux goupilles quasi impossible pour n'importe quel individu qui tente de la manipuler sans la bonne clé.

Le principe est assez simple. Quand vous glissez la clé dans la serrure, elle se fixe grâce à un système de magnétisme commutable. C'est le genre de mécanisme qu'on trouve sur les bases magnétiques utilisées en usinage.

Une fois tournée, la clé bascule l'ensemble dans une configuration où le canal d'entrée est masqué. Du coup, même un crocheteur expérimenté avec ses tensors et ses picks classiques se retrouve face à une paroi complètement aveugle. Works By Design a aussi ajouté un système anti-bumping pour couper court à une éventuelle attaque par percussion.

Avant d'arriver à la version définitive, le créateur a imprimé plusieurs prototypes en 3D pour valider le mécanisme, puis il a fini par usiner la version finale en métal en CNC. Un serrurier à qui il avait envoyé le modèle CAO en amont n'avait pas réussi à identifier de vulnérabilité évidente. Premier bon signe.

Sauf que voilà, quand les serrures tests ont été distribuées à la communauté Lock Pickers United (qui rassemble une bonne partie des meilleurs crocheteurs amateurs du monde), certains ont pointé une faille potentielle : l'attaque par impressioning, où l'attaquant utilise une clé vierge pour marquer progressivement l'empreinte des goupilles.

Côté solidité, plusieurs commentateurs doutent de la fiabilité du système magnétique sur le long terme, surtout avec l'usure et la poussière qui viendraient s'y loger.

La serrure reste donc en phase d'évaluation à grande échelle. Historiquement, les innovations en serrurerie finissent quasi toutes par tomber, c'est une question de temps avant que quelqu'un trouve l'angle d'attaque. Mais l'approche de cacher physiquement le canal de la clé plutôt que de multiplier les goupilles est assez originale pour mériter qu'on la suive.

C'est clairement le genre de projet qui ne révolutionnera pas forcément le marché là maintenant tout de suite, mais qui peut faire un peu avancer le schmilblick côté conception mécanique et sécurité.

Source : Hackaday

DroneAware Node - Détecter les drones avec un Raspberry Pi

Par : Korben ✨
21 avril 2026 à 15:17

Il a zoné au-dessus de votre jardin durant 3 minutes la semaine dernière. Vous l'avez entendu, vous avez levé la tête, mais trop tard ! Encore un putain de drone. Mais lequel ? Et surtout, qui le pilotait ?

Alors voilà un projet qui tente de répondre à ces questions pour le prix d'un week-end entre potes ! DroneAware Node , c'est une station de détection de drones à bricoler soi-même à base de Raspberry Pi. Il vous faut un Pi, 2 dongles USB, une microSD, et vous avez un truc qui écoute les signaux Remote ID autour de chez vous. Son créateur, DroneAwareDan, annonce une portée allant jusqu'à 8 km, mais en conditions idéales, au-dessus de l'eau et avec de grosses antennes. Dans la vraie vie, tablez plutôt sur 1 à 2 km selon le bruit radio du quartier et la qualité des antennes.

Le principe est assez malin. La FAA a imposé le standard Remote ID aux opérateurs américains à partir de septembre 2023 (les constructeurs devaient être prêts un an plus tôt). Et l'EASA a suivi côté européen avec une obligation au 1er janvier 2024. Concrètement, la plupart des drones grand public (au-dessus de 250 g ou classés C1 à C3 en Europe) doivent obligatoirement émettre en continu une sorte de plaque d'immatriculation radio qui balance l'ID de l'appareil, sa position et généralement un point de décollage. Et DroneAware capte ces signaux en Bluetooth Low Energy et en WiFi 2,4 GHz sans rien émettre lui-même, donc du listening purement passif.

Je vois que vous kiffez alors je continue... ^^

Côté matos, faut donc prévoir comme je vous le disais un Raspberry Pi (1 Go de RAM suffit, 2 Go recommandés), un dongle Bluetooth USB un peu costaud (du genre le Sena UD100 avec son chipset CSR qui fait bien le taf), un dongle WiFi qui supporte le mode moniteur en dual-band 2,4 et 5 GHz (comme l'Alfa AWUS036ACM qui coche toutes les cases), une microSD de 16 Go et un chargeur 5V/3A. Les détails exacts des antennes resteront à votre bon vouloir, parce que les "massive antennas" montrées sur les photos du projet font une grosse différence sur la réception. Par exemple une antenne omnidirectionnelle 9 dBi gagne facilement un kilomètre de portée sur install normale.

Concrètement, on flashe d'abord une distrib Raspberry Pi OS Lite sur la microSD, ensuite on branche les deux dongles, et après on lance le script d'install qui configure les interfaces Bluetooth et WiFi en mode moniteur. Et hop, ça tourne. Vos détections remontent alors sur droneaware.io , une plateforme collaborative qui agrège les données des nodes pour former une carte temps réel. Plus il y a de stations, mieux le maillage couvre la zone.

Sauf que... et là c'est le bémol, certains drones plus anciens n'émettent rien du tout tant que leur constructeur n'aura pas poussé une mise à jour Remote ID. Donc votre voisin avec son vieux Mavic Pro de 2016 qui vient vous mater en slip peut très bien rester invisible (à moins qu'il ait collé dessus un module Remote ID... ça coûte dans les 100 balles, et ça rend un drone ancien détectable mais qui fait ça ???). Et si vous partez sur une clé WiFi monobande 2,4 GHz seulement, vous raterez les drones modernes qui émettent en WiFi 5 GHz, raison pour laquelle un adaptateur dual-band évite cet angle mort.

Je trouve que l'approche est assez cool car on n'émet rien, on écoute juste ce que les drones sont déjà obligés de gueuler en clair sur les ondes, et on remet un peu de visibilité du côté du citoyen. Pas mal, non ? D'ailleurs, si vous aimez ce genre de bidouille RF sur Raspberry Pi, j'avais déjà couvert un système de vidéo-surveillance DIY et une caméra de chasse sur Pi qui jouent dans le même registre.

Bref, le code est sur GitHub, et le réseau commence à se densifier. À tester si vous êtes curieux de savoir ce qui survole votre terrain !

Source : Hackster

Intel Core Series 3 : les puces d'entrée de gamme sont fabriquées aux Etats-Unis, sans TSMC

Par : Korben
18 avril 2026 à 09:57

Les processeurs Core Series 3 d'Intel sont en vente, et ce qui est intéressant ici, c'est moins les specs que l'endroit où ils sont fabriqués.

Ces puces sortent des usines Intel de Hillsboro (Oregon) et Chandler (Arizona), sur le procédé 18A, l'équivalent du 2 nm chez Intel. Pas de TSMC dans la boucle. En 2024, une bonne partie des processeurs Intel pour PC portables était encore gravée chez le fondeur taiwanais. Ce n'est plus le cas.

Côté technique, on est sur de l'entrée de gamme assumée. 6 coeurs (2 performance Cougar Cove + 4 basse consommation Darkmont), 2 coeurs GPU Xe3, un NPU à 17 TOPS et une prise en charge mémoire en simple canal. Du budget pas cher donc.

Les fréquences montent entre 4,3 et 4,8 GHz selon les modèles, avec Thunderbolt 4, Wi-Fi 7 et Bluetooth 6. Intel annonce quand même +47% en mono-coeur et +41% en multi-coeur par rapport au Tiger Lake de 11e génération, ce qui n'est pas rien vu que ces puces datent de 2020.

Le vrai sujet, c'est la technologie 18A elle-même. Le procédé utilise RibbonFET (l'architecture Gate-All-Around qui remplace les FinFET) et PowerVia, la première implémentation industrielle de la distribution d'énergie par l'arrière de la puce.

Intel dit avoir environ un an d'avance sur TSMC sur ce point. C'est cette avance qui pourrait attirer des clients fonderie, et c'est probablement pour ça qu'Intel commence par montrer que le 18A fonctionne en production sur des puces commerciales, même d'entrée de gamme. La démonstration compte autant que le produit.

D'autant plus que le contexte s'y prête. Avec les milliards du CHIPS Act, Intel a massivement investi dans ses usines américaines pour ne plus dépendre de TSMC. Le Core Series 3 est la preuve que cette stratégie commence à se concrétiser sur des produits grand public, pas seulement sur des prototypes de labo.

Plus de 70 modèles de PC portables sont prévus chez Acer, Asus, Dell, HP, Lenovo, MSI et Samsung d'ici la fin de l'année. Les premiers systèmes sont déjà disponibles, les configurations edge suivront au deuxième trimestre.

C'est la suite logique des Core Ultra Series 3 (Panther Lake), les puces haut de gamme annoncées au CES en janvier et déjà en vente, elles aussi fabriquées sur 18A.

Bref, Intel qui refabrique ses puces sur sol américain et qui montre que son 18A tourne en production, c'est probablement plus important que les specs des puces elles-mêmes.

Source : The Register

Un développeur a réussi à faire tourner Mac OS X sur une Nintendo Wii

Par : Korben
9 avril 2026 à 15:14

Bryan Keller vient de publier le résultat d'un projet un peu fou : il a porté Mac OS X 10.0 Cheetah sur la Nintendo Wii. La console de 2006 démarre sur le bureau Aqua avec clavier et souris USB. C'est lent, c'est limité, mais ça marche.

Pourquoi c'est possible

La Wii utilise un processeur PowerPC 750CL, un descendant direct du PowerPC 750CXe qui équipait les iBook G3 et certains iMac G3 au début des années 2000. C'est la même famille de processeurs, ce qui rend le portage techniquement envisageable.

La Wii dispose de 88 Mo de RAM (24 Mo de SRAM rapide et 64 Mo de GDDR3), ce qui est juste suffisant pour Mac OS X 10.0, dont les exigences minimales étaient de 128 Mo. Il a fallu jongler un peu.

Le noyau de Mac OS X, XNU, est open source via le projet Darwin. C'est ce qui a rendu le portage possible : sans accès au code source du noyau et du modèle de drivers IOKit, le projet n'aurait pas pu aboutir.

Comment il a fait

Keller a écrit un bootloader sur mesure qui charge le noyau depuis une carte SD et crée un "device tree" qui décrit le matériel de la Wii au système. Il a aussi patché le noyau pour l'adapter au hardware spécifique de la console, avec des corrections sur la gestion de la mémoire et le framebuffer.

Côté drivers, il a développé un driver pour le SoC Hollywood de la Wii, un driver de carte SD (qui communique avec le coprocesseur ARM Starlet de la console), un driver d'affichage qui convertit le signal RGB en YUV pour la sortie vidéo, et un driver USB pour le clavier et la souris. Le projet, baptisé "wiiMac", est disponible sur GitHub.

Ce qui marche et ce qui ne marche pas

Mac OS X démarre jusqu'au bureau Aqua. On peut installer le système et l'utiliser avec un clavier et une souris USB. La carte SD est accessible. Par contre, il n'y a ni Wi-Fi, ni Bluetooth, et le GPU de la Wii n'est pas exploité.

Les performances sont très limitées. Le projet avait démarré en 2013, mais Keller l'a repris sérieusement en 2025 après avoir vu le portage de Windows NT sur Wii.

Mac OS X sur une Wii, ça n'a aucune utilité pratique. Mais c'est quand même un joli tour de force technique. 

Source : Bryan Keller

YOR - Le robot open source à 10 000 dollars à monter soi-même

Par : Korben
5 avril 2026 à 07:28

Quand je vois tout le taf que j'ai à la maison, je vous avoue que je rêve d'un robot qui vide le lave-vaisselle, arrose les plantes et ramasse le linge pendant que moi je glandouille sur le canapé (ou que je bosse parce que je glandouille jamais en fait...Argh...). Hé bien bonne nouvelle, une équipe de chercheurs de NYU vient de publier les plans complets pour en construire un et tout ça en open source pour environ 9 200 dollars !

YOR, pour " Your Own Robot ", c'est un robot mobile avec deux bras articulés, une base sur roues qui se déplace dans tous les sens, et un lift télescopique qui est tout simplement... un vérin de bureau debout. Du coup le robot peut descendre à 60 cm du sol pour ramasser vos chaussettes et monter à 1,24 m pour atteindre un placard en hauteur. Et le vérin se verrouille tout seul en cas de coupure de courant (comme ça, pas de bras qui s'écrasent au sol...).

Le coût total des composants revient comme je vous le disais à environ 9 200 dollars. Les deux bras représentent à eux seuls plus de la moitié du budget (5 000 dollars), la base roulante un bon quart (2 700 dollars). Le reste, c'est de l'électronique grand public et des profilés alu et le cerveau, c'est un Raspberry Pi 5 avec 16 Go de RAM. Quand on sait qu'un Mobile ALOHA (le robot de Stanford) revient à environ 32 000 dollars et que les plateformes commerciales dépassent les 100 000... y'a pas photo !

YOR et ses deux bras articulés sur base omnidirectionnelle

Un truc original dans ce robot, ce sont les pinces. L'équipe a d'ailleurs conçu des grippers custom capables de manipuler des objets délicats ou de serrer fort ce qui est bien utile et y'a aussi une caméra stéréo sur la tête pour que le robot cartographie son environnement et se repère tout seul dans une pièce.

Pour le piloter, pas besoin de matériel exotique puisque des manettes Meta Quest 3 suffisent. Vous restez debout derrière le robot et vous contrôlez tout, les bras, la base, la hauteur. Et le truc cool, c'est que quand vous déplacez la base, les pinces restent stables sur l'objet qu'elles tiennent. Cela lui permet par exemple d'attraper une assiette et de se déplacer vers le lave-vaisselle sans tout faire valdinguer.

YOR en action : lave-vaisselle, arrosage et ramassage

Côté recherche, l'équipe est même allée encore plus loin. En pilotant le robot à la main une centaine de fois (avec des iPhones fixés sur les pinces comme caméras supplémentaires), ils ont entraîné une IA capable de reproduire les gestes toute seule. Résultat, 9 réussites sur 10 dans un test de tri des déchets en autonomie (la poubelle JAUNE !!!!), du genre donc attraper un carton avec les deux bras, le soulever, contourner un obstacle, le déposer dans la poubelle de tri... et tout ça sans intervention humaine. Et bien sûr, si vous voulez tester vos propres algos avant de risquer du vrai matos, y'a un simulateur pour ça.

L'empreinte au sol de cette bestiole fait 43 × 34,5 cm. En gros, la taille d'un carton à pizza. Le projet est porté par une équipe de NYU et UC Berkeley et parmi les auteurs, on retrouve Soumith Chintala (NYU), le co-créateur de PyTorch. Toute la doc de construction est dispo sur build.yourownrobot.ai , avec la liste complète des composants en Google Sheets, les modèles CAD et le code Python sous licence MIT sur GitHub .

YOR face à la concurrence : petit, pas cher, open source

J'ai rarement vu un projet aussi bien documenté pour ce niveau de complexité mais attention quand même, ça reste un projet de recherche, et pas un kit Lego. Faut savoir souder, câbler des batteries, et être à l'aise avec Python et Git. C'est donc un sacré projet de plusieurs week-ends (comptez plutôt des mois si vous débutez). Mais c'est aussi ça qui est cool, puisque vous construisez VOTRE robot, et pas celui d'un constructeur chinois que vous avez payé une couille en dropshipping.

Si les robots open source vous branchent, le ToddlerBot à 4 300 dollars propose également une approche bipède imprimable en 3D, et si vous voulez voir ce que la coordination bimanuelle donne à l'échelle industrielle ... y'a du choix.

Bref, 9 200 dollars, licence MIT, la liste complète des composants, ça fait grave envie !! En tout cas, c'est le genre de projet à suivre de prêt...

Pour la partie impression 3D du châssis, si vous n'avez pas encore d'imprimante, une Creality Ender-3 V3 fera l'affaire pour les pièces structurelles, et un Raspberry Pi 5 est au cœur du projet. (liens affiliés)

Source

La NES-SY2.0 est un synthétiseur qui lit aussi les cartouches Nintendo

Par : Korben
2 avril 2026 à 10:22

Le designer suédois Love Hultén vient de dévoiler la NES-SY2.0, un synthétiseur fait main qui rend hommage à la NES tout en servant de véritable console de jeu. L'objet accepte les cartouches originales et produit de la musique chiptune.

Un objet entre console et instrument

La NES-SY2.0 reprend les codes visuels de la NES originale, avec son slot de cartouche et ses ports manette en façade, le tout habillé dans un boîtier en bois qui lui donne un côté objet d'art.

Le format s'inspire des ordinateurs portables des années 80 : l'appareil s'ouvre comme une valise et révèle un écran, un clavier MIDI Keystep et toute une rangée de boutons et molettes rouges pour manipuler le son en temps réel.

C'est la deuxième version de ce concept. La première, la NES SY37, datait de 2022. Love Hultén est connu pour ses créations artisanales qui mélangent technologie et design rétro, et la NES-SY2.0 est visiblement son projet le plus abouti.

Ce qu'il y a sous le capot

Le moteur sonore est un NES Poly, un synthétiseur polyphonique à 4 voix développé par Arcano Systems. Il émule les sons caractéristiques de la puce audio de la NES avec deux oscillateurs par voix, du vibrato, et la possibilité de basculer entre les formes d'onde en temps réel. Seize paramètres sont contrôlables via des messages MIDI CC.

L'ensemble intègre aussi un module d'effets FS22 avec delay et réverbération, et un visualiseur MIDI créé par l'artiste numérique p1xelfool. Et oui, on peut brancher une manette NES et lancer une cartouche pour jouer à ses classiques 8-bit directement dessus.

Pas de prix, mais beaucoup d'envie

Comme souvent avec les créations de Love Hultén, la NES-SY2.0 est une pièce artisanale en série très limitée. Aucun prix n'a été communiqué, ce qui laisse penser que c'est le genre d'objet qu'on ne trouve pas en rayon chez Fnac. Les précédentes créations du designer suédois se négociaient à plusieurs milliers d'euros.

C'est le genre d'objet qui fait rêver les fans de retrogaming et de musique électronique en même temps. Un synthé polyphonique qui crache du chiptune et qui en plus lit les cartouches NES originales, c'est quand même un sacré programme.

Source : Tom's Hardware

Il installe un ordinateur de 1970 dans un bureau IKEA

Par : Korben
31 mars 2026 à 10:15

Un YouTubeur de la chaîne Usagi Electric vient d'installer un PDP-11 dans un bureau IKEA. Ce mini-ordinateur mythique de Digital Equipment Corporation, qui date des années 70, servait à piloter un spectromètre infrarouge en laboratoire. Plus de cinquante ans après sa fabrication, la machine tourne encore. Et c'est assez beau à voir.

Le PDP-11, un monument

Le PDP-11, c'est un gros morceau d'histoire informatique. Fabriqué par Digital Equipment Corporation à partir de 1970, ce mini-ordinateur 16 bits s'est vendu à environ 600 000 exemplaires dans le monde et a été décliné dans à peu près tous les formats possibles, du rack de laboratoire à la puce en passant par la station de bureau avec ses rangées de voyants clignotants.

C'est sur un PDP-11 que les premières versions diffusées d'Unix ont été développées au début des années 70, après un premier portage sur le PDP-7 qui l'a précédé. Et son architecture a influencé celle du Motorola 68000, et de façon plus indirecte celle du x86 d'Intel. Bref, sans cette machine, vos Mac et vos PC n'auraient pas tout à fait la même tête.

Du laboratoire au bureau IKEA

Dave, le bricoleur derrière la chaîne YouTube Usagi Electric, a récupéré ce PDP-11 qui servait de contrôleur pour un spectromètre infrarouge à transformée de Fourier dans un labo. La machine lui est arrivée en pièces détachées, le bureau d'origine n'ayant pas survécu aux décennies.

Après l'avoir remise en état de marche, Dave a mis des années avant de lui trouver un logement correct. C'est lors d'un réaménagement de son atelier qu'il a fini par construire un bureau sur mesure, à base de contreplaqué de récupération et de ferrures de surplus. Le spectromètre est posé sur la gauche, le PDP-11 est logé à l'intérieur. Niveau esthétique, on repassera, mais ça marche.

60 degrés au repos, quand même

La machine embarque une unité de traitement vectoriel haute performance qui servait à l'analyse spectrale. Le processeur tourne à environ 60 °C au repos, ce qui a poussé Dave à installer deux ventilateurs 120V pour éviter que le tout ne surchauffe.

Autre compromis : l'alimentation linéaire d'origine, bien trop volumineuse pour rentrer dans le bureau, a été remplacée par des alimentations à découpage modernes. C'est le seul écart avec le matériel d'époque, tout le reste de la configuration est d'origine.

Le PDP-11 a plus de 50 ans, il tourne encore, et il est logé dans un meuble qui vaut probablement moins cher que le moindre de ses composants, et j'ai un peu de mal à imaginer mon MacBook dans le même état en 2076.

Source : Hackaday

Faire du Hackintosh comme en 1988

Par : Korben
31 mars 2026 à 09:02

Vous pensiez que le hackintosh, c'était un truc des années 2000, quand Apple est passé sur Intel ? Raté les amis ! Hé oui, dès 1988, des bidouilleurs assemblaient des Mac-compatibles avec des pièces de PC, bien moins chères que le matos Apple officiel.

Et un youtubeur vient justement d'en recréer un de A à Z !

Le gars de la chaîne This Does Not Compute avait récupéré un Macintosh SE dont la carte mère originale avait été remplacée par un accélérateur CPU pour une autre vidéo. Du coup, comme la carte mère d'origine traînait dans un tiroir, il s'est dit que ce serait cool de s'en servir pour explorer la scène du clone Mac DIY de la fin des années 80.

Parce qu'à l'époque, un Macintosh SE neuf coûtait dans les 2 500 dollars. Et la carte mère avec son processeur Motorola 68000, c'était le seul composant vraiment indispensable pour faire tourner System 6. Tout le reste, boîtier, alimentation, lecteur de disquette, moniteur, pouvait venir de fournisseurs tiers. Des revues spécialisées publiaient carrément des guides pour construire sa propre machine compatible... Donc il fallait juste une carte mère Apple + des composants PC à trois francs six sous, et vous aviez un Mac fonctionnel pour une fraction du prix officiel !

Le youtubeur a donc repris ce concept... version 2026. Le boîtier est imprimé en 3D avec du PLA beige (obligatoire pour le look années 80, faut pas déconner). Côté modernisation, il a ajouté une carte de sortie VGA, un BlueScsi qui émule un disque dur SCSI avec une simple carte SD de 32 Go (parce que bonne chance pour trouver un disque SCSI 50 broches fonctionnel en 2026), et une alimentation compacte qui ne prend pas la moitié du boîtier. Le lecteur de disquette 3,5 pouces, par contre, est bien d'époque.

Sans oublier évidemment une carte mère Apple d'origine pour que ça fonctionne. Pas moyen de tricher avec un clone chinois, désolé ! Mais ça permet de garder l'âme du truc !

D'ailleurs, le mot "hackintosh" a pas mal changé de définition au fil des décennies. Dans les années 80, ça désignait ces machines bricolées à partir de composants Apple et PC, puis Apple est passé sur PowerPC en 1994, et le concept s'est un peu perdu. Quand les premiers Macs Intel sont alors sortis en 2006, le terme a été recyclé pour désigner les PC faisant tourner macOS en douce. Et maintenant qu'Apple est sur ARM avec ses puces M1/M2/M3... le hackintosh Intel est quasiment mort car on ne peut pas facilement émuler l'architecture ARM sur du x86 grand public.

Alors revenir à cette définition originelle, c'est pas juste de la nostalgie, c'est presque un hommage.

Perso, ce qui me plaît dans ce projet, c'est que ça nous rappelle que la bidouille a toujours existé. Bien avant les forums tonymacx86 et les tutos OpenCore, y'avait déjà des gens qui refusaient de payer le prix Apple et qui se débrouillaient autrement. C'est exactement dans le même esprit que ceux qui reconstruisent des Brewintosh en impression 3D ou qui fabriquent le plus petit hackintosh du monde .

Voilà, si le rétro-computing et la bidouille Mac vous parlent, foncez voir la vidéo sur This Does Not Compute !

Source

Ce capteur photo est capable de se réparer tout seul pour survivre aux radiations de Jupiter

Par : Korben
30 mars 2026 à 10:39

Des chercheurs ont mis au point une puce CMOS qui détecte ses pixels endommagés par les radiations et les répare en les chauffant. De quoi intéresser les futures missions autour de Jupiter.

Un environnement qui détruit les caméras

L'orbite de Jupiter est l'un des pires endroits du système solaire pour l'électronique. Le champ magnétique de la planète, gigantesque, ionise le dioxyde de soufre craché par Io, sa lune volcanique, et alimente une ceinture de radiation de particules chargées à haute vitesse.

Pour les caméras embarquées sur les sondes spatiales, c'est un cauchemar. Les pixels du capteur accumulent des charges parasites, le courant de fuite explose, et au bout de quelques semaines l'image devient inutilisable.

La NASA en a fait l'expérience avec JunoCam, la caméra de la sonde Juno. À partir de l'orbite 47, les images ont commencé à se dégrader. À l'orbite 56, elles étaient quasiment inexploitables. En décembre 2023, les ingénieurs ont tenté un coup de poker : commander à distance au chauffage embarqué de monter la température à 25 degrés Celsius, bien au-dessus des conditions normales.

L'idée, forcer un recuit thermique du silicium pour libérer les charges piégées et restaurer la structure cristalline. Ça a marché. JunoCam a retrouvé une image nette juste à temps pour survoler Io.

Un capteur qui se soigne lui-même

Une équipe de la Southern University of Science and Technology et de l'université de Kyoto a poussé le concept beaucoup plus loin. Leur puce, présentée en février à l'ISSCC 2026 à San Francisco, intègre directement le mécanisme de réparation dans le capteur. Plus besoin d'intervention humaine à 600 millions de kilomètres.

Le capteur effectue régulièrement une lecture dans le noir complet. Si un pixel affiche encore un courant anormal, il est marqué comme endommagé et un courant fort lui est envoyé pour le chauffer localement. Pendant que ce pixel se répare, le reste de la matrice continue à fonctionner.

La puce embarque aussi un système de compression adaptative qui repère les zones d'intérêt et réduit le volume de données transmises de 75 %. Quand vous envoyez des images depuis Jupiter, chaque octet compte.

Le prototype est une matrice de 128 x 128 pixels. Les chercheurs l'ont exposée à l'équivalent de trente jours de radiation en orbite jovienne. Résultat : le capteur était devenu inutilisable. Après quatre cycles de recuit, l'image était quasiment restaurée.

Un vrai sujet pour les prochaines missions

La technologie arrive à un moment où elle peut servir. JUICE, la mission de l'ESA, est en route vers Jupiter et ses lunes glacées. Europa Clipper de la NASA doit étudier Europe et son océan souterrain.

Ces sondes vont passer de longs mois dans la ceinture de radiation jovienne, et jusqu'à présent la seule parade consistait à blinder les composants avec des semi-conducteurs durcis aux radiations, avec un coût et un poids en plus. Un capteur capable de se réparer en vol, c'est une ligne de défense supplémentaire qui pourrait allonger la durée de vie des instruments.

Ce qui était un bricolage de dernière minute à 600 millions de kilomètres est devenu un système automatisé, intégré directement dans le silicium. 128 x 128 pixels, c'est encore loin d'un capteur opérationnel pour une vraie mission, mais le principe fonctionne.

On imagine bien que la prochaine étape sera de passer à des résolutions plus élevées et de valider tout ça dans des conditions réelles. En tout cas, si ça permet d'éviter de perdre des mois de données scientifiques à cause de pixels grillés, on prend.

Source : Spectrum.IEEE.org

Il transforme l'ordinateur de bord d'une Tesla Model 3 en PC de bureau

Par : Korben
29 mars 2026 à 11:52

Moins de 500 dollars en pièces de casse, un fer à souder et beaucoup de patience : voilà ce qu'il a fallu à un chercheur en sécurité pour faire tourner le calculateur et l'écran tactile d'une Tesla Model 3 sur son bureau, avec le vrai système d'exploitation de la voiture. Le tout récupéré sur des Tesla accidentées.

Des pièces de Tesla accidentées sur eBay

David Schütz voulait participer au programme de bug bounty de Tesla, mais acheter une Model 3 pour bricoler dessus, c'était un peu au-dessus du budget. Du coup, il s'est tourné vers eBay, où des entreprises de récupération revendent les pièces de Tesla accidentées à l'unité.

Le calculateur principal, qui regroupe le MCU (l'unité de contrôle multimédia) et l'ordinateur Autopilot empilé par-dessus, lui a coûté entre 200 et 300 dollars. L'écran tactile, lui, est parti à 175 dollars. Pour donner une idée de la taille, on est sur un module de la taille d'un iPad mais épais comme un livre de 500 pages, le tout dans un boîtier en métal refroidi par eau.

Un gros parcours du combattant

Le plus compliqué n'a pas été de trouver les pièces, mais de les connecter entre elles. Le câble qui relie l'écran au calculateur utilise un connecteur Rosenberger 6 broches, un composant propriétaire qu'on ne trouve pas à l'unité. David a d'abord tenté sa chance avec un câble LVDS de BMW, sans succès.

Pire, en dénudant des fils pour improviser, des débris sont tombés sur la carte mère et ont grillé un régulateur de tension. Il a fallu racheter un deuxième calculateur, avant qu'un ami identifie la puce exacte et qu'un réparateur local la remplace sur la carte d'origine.

La solution finale : commander le faisceau complet du tableau de bord de la Model 3 pour 80 dollars, un amas de câbles énorme juste pour récupérer le bon connecteur.

Un vrai système Tesla sur un bureau

Avec une alimentation de labo réglée sur 12 volts et capable de fournir jusqu'à 8 ampères, le système a fini par démarrer. L'écran tactile s'est allumé et le système d'exploitation de la voiture a booté normalement. En branchant un câble Ethernet, David a découvert le réseau interne de la Tesla : le MCU répond sur une adresse IP locale, l'ordinateur Autopilot sur une autre, et un serveur SSH tourne avec un message qui indique que la connexion est autorisée quand le véhicule est stationné.

Sauf que les clés SSH doivent être signées par Tesla. C'est d'ailleurs tout l'intérêt du projet : Tesla propose un programme qui offre un accès root permanent aux chercheurs qui trouvent au moins une faille de type « rooting ». Le résultat sur le bureau, c'est un joyeux bazar de câbles et de composants, mais ça tourne.

Franchement, la démarche est assez marrante. Plutôt que de claquer le prix d'une voiture pour chercher des failles, le bonhomme bricole avec des pièces de casse et arrive quand même à faire booter un vrai système Tesla sur sa table.

Et ça en dit pas mal sur le programme bug bounty de Tesla, qui reste l'un des plus ouverts de l'industrie auto : la marque accepte que des chercheurs fouillent dans ses entrailles, à condition de prouver qu'ils savent y faire. En tout cas on lui souhaite de trouver sa faille, vu le nombre de calculateurs qu'il a grillés en route.

Source : XDavidHu.me

Il fabrique une enceinte avec uniquement un laser et une feuille d'or

Par : Korben
23 mars 2026 à 13:07

Et bien pourquoi pas ? Ce garçon a en effet réussi à produire de la musique, simplement en pointant un laser de 5 watts sur une feuille d'or. Pas de membrane, pas de bobine, pas d'aimant : le son est généré directement par l'air, chauffé et refroidi à grande vitesse par le faisceau lumineux.

Cet concept a un nom, c'est l'effet photoaoustique, et il a été découvert en 1880 par Alexander Graham Bell, l'inventeur de la cloche (non ça c'est une vanne, pardon).

Un effet vieux de 145 ans

L'effet photoacoustique a été découvert par Alexander Graham Bell en 1880 en observant que des objets éclairés par la lumière du soleil pouvaient émettre des sons. Quand une lumière intense frappe un matériau, elle le chauffe.

Ce matériau transfère sa chaleur à l'air environnant, qui se dilate. Si la source lumineuse est modulée rapidement, les cycles d'expansion et de contraction de l'air produisent des ondes sonores. Pas besoin de membrane ni de bobine. Juste de la lumière et de l'air.

De la feuille d'or au casque imprimé en 3D

Le maker SomethingAboutScience a testé plusieurs approches. Un laser de 5 watts dirigé sur une feuille d'or a produit de la musique reconnaissable, la feuille d'or absorbant bien la lumière bleue et étant assez fine pour transférer rapidement la chaleur à l'air.

Le même laser dirigé dans du dioxyde d'azote a donné un son plus propre. Il a même fabriqué un prototype d'écouteur imprimé en 3D, avec la feuille d'or tapissant l'intérieur de la cavité et la lumière acheminée par fibre optique.

Bon par contre, c'est peut-être un peu moyen de coller un laser de 5 watts à son tympan, je dis ça je dis rien.

Des pistes concrètes

L'application la plus directe concerne les casques audio pour IRM. Les écouteurs classiques à fils et aimants fonctionnent mal dans l'environnement magnétique d'un scanner, et la qualité sonore est souvent catastrophique.

Un système photoacoustique réglerait ce problème en supprimant tout composant métallique. Des chercheurs du MIT ont aussi montré qu'on pouvait envoyer un message audio à une personne située à 2,5 mètres en utilisant un laser et la vapeur d'eau présente dans l'air, à un volume de 60 décibels.

On parle d'une technologie découverte il y a 145 ans et qui reste au stade de la bidouille. Mais produire du son sans aucune pièce mécanique, juste avec de la lumière, ça a quand même de la gueule.

Source : Hackaday

❌
❌