Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Memo - Le robot qui ne juge pas à quel point vous êtes crado

Et encore un robot qui plie du linge !!!

C’est comme si votre belle-mère avait emménagé chez vous, sauf que celui-là ne vous fera pas de remarques sur votre façon d’organiser le frigo ^^. La startup Sunday vient en effet, de présenter Memo, un robot domestique qui promet de vous libérer des tâches ménagères. En tout cas, avec ce truc, plus besoin de faire des gosses… Mais siii, vous savez ces mini prisonniers que vous utilisez pour vider et remplir vos lave vaisselles et que des cinglés veulent sacrifier afin de donner un sens à leur vie.

Blague à part, Memo est développé par Tony Zhao et Cheng Chi, deux diplômés de Stanford qui ont bossé chez Tesla, DeepMind, Waymo, Meta et Neuralink. L’équipe compte maintenant 25 ingénieurs et chercheurs et ce robot a été pensé différemment des autres machines du genre.

Au lieu de s’entraîner dans des simulations industrielles ou des labos aseptisés, Memo a appris en observant de vrais humains faire leurs corvées dans plus de 500 foyers réels. Et sa techno clé, c’est le gant breveté “Skill Capture Glove”.

Des volontaires ont porté ce gant pendant qu’ils faisaient leur ménage, et le système a capturé leurs mouvements. Comment ils plient le linge, comment ils rangent les chaussures dans l’entrée, comment ils chargent le lave-vaisselle, comment ils se… euh, pardon, je m’égare. Bref, Sunday a envoyé plus de 2 000 gants à ces “Memory Developers” et a collecté environ 10 millions d’enregistrements de tâches domestiques réelles. D’après eux, c’est l’une des plus grosses bases de données spécialisées pour robots domestiques qui existe !

L’idée de départ c’est que la plupart des robots domestiques sont des adaptations de machines industrielles. Ils fonctionnent bien dans des environnements structurés pour l’occasion, mais ils plantent lamentablement dès qu’ils se retrouvent face au chaos d’une vraie maison. Des chaussettes qui traînent n’importe où, des assiettes empilées n’importe comment, un chat qui passe devant eux au mauvais moment et c’est la catastrophe !

Du coup, grâce à ces millions d’exemples de situations domestiques authentiques, Memo peut gérer ce qu’ils appellent les “tâches à horizon long”. Ce sont des actions en plusieurs étapes où il faut prendre des décisions selon le contexte comme débarrasser une table, remplir et vider un lave-vaisselle, plier du linge, ranger les chaussures qui trainent dans l’entrée, et même préparer un espresso.

Bon après faudra pas lui demander de gérer un ado en crise existentielle qui n’a plus de Wifi, mais c’est déjà pas si mal.

Côté design, comme vous pouvez le voir, Memo ne ressemble pas du tout aux robots humanoïdes qui font des saltos sur scène. Il a une base roulante au lieu de jambes, ce qui lui permet de rester stable même si le courant se coupe. Donc pas de risque qu’il vous tombe dessus pendant votre sieste.

Son torse peut également monter et descendre pour atteindre des objets à différentes hauteurs et visuellement, il a vraiment un air rétrofuturiste assez mignon avec son corps blanc brillant, ses deux bras super longs, et un visage de cartoon avec des grands yeux en boutons… Ah et vous pouvez même lui mettre différentes casquettes de couleur pour lui donner un look west coast.

Ça me rappelle un peu Baymax dans Big Hero 6. Son corps est également recouvert de silicone souple, ce qui le rend plus dodu et rassurant qu’un robot humanoïde classique froid avec son look de T-1000.

La sécurité a été également bien pensée, d’après ce qu’ils expliquent. Memo est en effet conçu pour être “safe” en présence d’enfants. Si un gamin le pousse ou lui rentre dedans, il ne va pas riposter en lui mettant un coup de savate comme Nawell. Et sa stabilité passive fait qu’il ne peut pas tomber brutalement même en cas de coupure de courant, contrairement à un père de famille bourré et violent.

Et concernant la vie privée, Sunday insiste sur le fait que leur méthode d’apprentissage est respectueuse puisque le robot n’a pas besoin de vous filmer en permanence pour apprendre, vu qu’il utilise les données collectées via le fameux gant et sa bibliothèque de compétences en expansion permanente.

Voilà, le programme de bêta-test “ Founding Families ” a ouvert le 19 novembre et ils vont sélectionner 50 familles qui recevront des exemplaires numérotés de Memo avec un support rapproché de l’équipe. JE ME PORTE VOLONTAIRE POUR TESTER CE TRUC !! Et ensuite, le produit final sera commercialisé au plus tôt fin 2026 avec un prix de départ estimé autour de 20 000 dollars. Ouais, c’est pas donné, mais bon, si vous calculez le coût “d’élevage” d’un enfant jusqu’à ce qu’il soit capable de plier une chaussette correctement, vous vous rendrez compte que c’est peut-être pas si cher ^^.

Source

Zniko - Pour prendre du plaisir avec une seule main

Ce matin sur mon live Twitch , Zniko Boc a débarqué pour me montrer un truc qu’il a fabriqué ! Il s’agit d’une manette de jeu pour jouer avec… une seule main !

Car Zniko est aphasique depuis un accident vasculaire cérébral (AVC). Il a du mal à parler, à lire et à écrire et il n’a aucune sensation du côté droit. Du coup, pour continuer à jouer aux jeux vidéo, il a cherché des solutions. Il a testé toutes les manettes adaptatives du commerce, du Xbox Adaptive Controller de Microsoft à 90 euros. au Sony Access. Bref, tous les trucs qui existent sur le marché et aucun ne lui a convenu vraiment.

Pas mal de problèmes d’accessibilité aux touches, de la latence, un ergonomie pas folle… Et quand vous êtes dans cette situation et que vous dépensez 90 balles pour un truc qui ne résout pas votre problème, ça énerve !

Alors Zniko a fait ce que font les makers quand les solutions du commerce sont pourries : il a construit la sienne ! Il a modélisé sa propre manette, trouvé les composants nécessaires, et adapté un logiciel.

Et ça fonctionne !!

La manette de Zniko permet de jouer de la main gauche ou de la main droite sur PC, Xbox One, Nintendo Switch et PlayStation. Soit 4 plateformes différentes avec le même hardware. Elle peut se fixer sur un bureau ou un plateau. Ou alors vous la sanglez autour de votre cuisse, et vous jouez comme ça, OKLM.

Le mec a testé sa manette sur un paquet de jeux : Minecraft, Mario Kart 8 Deluxe, Super Mario Bros Wonder, Metroid Dread, Metroid Prime 1, Risk of Rain 2, Zelda Breath of the Wild, Super Mario Odyssey, Monster Hunter Rise…etc et ça marche du feu de dieu !

Après y’a quand même quelques limitations notamment pour les jeux de tir où vous devez viser librement, c’est plus compliqué. Risk of Rain 2 sans sélection automatique des ennemis, c’est la galère. Par contre, Metroid Prime 1 avec le lock-on, ça passe nickel. Et les triggers analogiques genre accélérateur progressif, la manette Zniko peut pas le faire soit c’est à fond, soit c’est rien. Mais pour la majorité des jeux, ça fonctionne très bien !

Le truc dingue, c’est comment il a monté ça car Zniko a mobilisé toute sa famille. Son père, ancien électricien, a fait les soudures sur la première version. Sa femme, sa fille et son fils l’ont aidé pour les vis et les trous parce que visser et percer avec une seule main fonctionnelle, c’est pas évident !

Et côté technique, Zniko a utilisé le logiciel open source GP-2040 . C’est un firmware qui transforme n’importe quel microcontrôleur en manette universelle.

Bref, c’est un super projet collaboratif finalement avec une famille soudée, et une communauté maker qui participe pour au final aider le plus grand nombre car Zniko vend maintenant sa manette sur Etsy. Vous pouvez donc l’acheter déjà assemblée, ou en kit avec les pièces détachées si vous voulez la monter vous-même. Main gauche ou main droite, au choix comme je vous le disais. Il propose aussi des tutoriels complets de montage pour ceux qui veulent se lancer !!

Le but de Zniko, c’est pas de devenir riche (Il a tord quand même ^^) mais c’est de rendre sa solution accessible à d’autres personnes dans son cas ! Et c’est pour ça que j’écris cet article aujourd’hui , c’est pour le soutenir et vous faire découvrir sa super manette parce qu’il y en a peut-être parmi vous qui en ont besoin. Voilà, son site c’est sites.google.com/view/zniko Et vous y trouverez toutes les infos.

Bref, je tire mon chapeau à Zniko et je souhaite un immense succès à sa magnifique manette.

Une bataille après l'autre

Ce week-end, j’ai vu le film “Une bataille après l’autre” sans rien en attendre de spécial, c’est vrai. Juste parce qu’en général, j’aime bien ce que propose Leonardo DiCaprio… et 2 heures et demie plus tard, j’étais scotché !

L’histoire suit un ancien révolutionnaire, Bob Ferguson, qui vit planqué avec sa fille après avoir tout laissé tomber. Sauf que son passé le rattrape quand un militaire corrompu qu’il a humilié des années plus tôt refait surface. Et là, Bob doit replonger dans son ancienne vie pour sauver sa fille. Ce film parle de résistance et de gens normaux qui se battent contre un État surpuissant, dans une société qui n’est pas en guerre mais où l’appareil d’État écrase tout sur son passage.

Ça résonne hyper fort avec ce qui se passe en ce moment aux États-Unis avec ces histoires horribles de déportations avec ICE, les familles séparées, tout ça… Le film montre donc des résistants amateurs, qui refusent d’abandonner malgré l’usure du combat et surtout, l’État en face qui ne se lasse jamais et n’abandonne jamais.

Leonardo DiCaprio, comme toujours, est juste parfait dans son rôle. J’adore cet acteur depuis toujours, mais là il livre une performance dingue. Il joue donc cet ex-révolutionnaire fatigué, paranoïaque, qui vit la moitié du temps totalement défoncé pour oublier toute cette merde… Mais quand vient le moment de se bouger, il ne fait pas semblant. C’est une seconde nature chez lui et DiCaprio arrive à montrer cette usure, cette fatigue, tout en gardant cette détermination du type qui ne lâche rien et qui a toujours gardé cette flamme de résistance en lui.

Et puis Sean Penn… OMG… Il y joue le colonel Steven Lockjaw, un militaire complètement taré qui a développé une obsession malsaine pour Bob et sa femme après avoir été humilié. Penn fait vraiment flipper en vieux suprémaciste qui a toutes ses entrées au niveau de l’État. Il est terrifiant de réalisme car c’est un type dangereux avec du pouvoir et ses copains les tarés, ne sont pas mieux.

Le film est réalisé par Paul Thomas Anderson, le mec derrière “There Will Be Blood” et “Licorice Pizza” et il s’attaque ici à un budget énorme, entre 110 et 140 millions de dollars rien que pour ce film. Et ça se voit puisque les scènes d’action sont dingues ! Mais ce qui m’a marqué surtout, c’est l’ambiance. Car Anderson crée une tension permanente avec cette sensation que l’État peut tout écraser à tout moment, et que les résistants sont toujours en danger.

L’histoire est inspirée du roman “ Vineland ” de Thomas Pynchon (lien affilié). Et je ne sais pas si c’est basé sur une histoire vraie ou pas (j’crois pas) mais l’histoire est folle et le casting excellent. Au-delà de DiCaprio et Penn, on a aussi Benicio del Toro, Regina Hall, Teyana Taylor… Tout le monde est au top !

Ce qui m’a plu dans ce film, c’est ce côté amateur de la résistance qui s’organise intelligemment avec des gens normaux, et pas des guerriers entraînés, qui font ce qu’ils peuvent avec leurs moyens limités. Et l’État en face, qui est une machine de guerre totale ayant tout : l’argent, les armes, la légalité. Les résistants, eux, ont juste leur conviction et ils s’y tiennent malgré la violence et le temps qui passe. J’ai eu l’impression de voir de l’eau couler… c’est une résistance fluide, naturelle, humaine…

Voilà, vous l’aurez compris, ça m’a vraiment plu ! Bref, je vous recommande d’aller voir “Une bataille après l’autre” !

Batman Dark Age - Et si Batman oubliait d'être Batman ?

– Article en partenariat avec Urban Comics –

Urban Comics vient sortir Batman Dark Age (lien affilié), et ça me fait plaisir de vous en parler car vous connaissez mon amour pour Batman ! C’est mon seul vrai héros préféré depuis toujours car il a ce côté sombre, cette souffrance, cette humanité que j’adore et qui le met tellement au dessus des autres, et surtout, il n’a aucun super pouvoir ! (Mais un gros paquet de pognon c’est vrai…).

Et ce qui est cool avec cet album, c’est que les auteurs sont partis de ce constant simple : Et si Batman perdait la mémoire ?

On est donc en 2030 et Bruce Wayne est vieux, grabataire, et enfermé dans une maison de retraite. Du coup, pour ne pas tout oublier, il se raccroche à ses souvenirs. Notamment cette nuit de 1957 où tout a basculé, quand ses parents se sont fait descendre, avec un changement majeur par rapport à l’origine classique, c’est que lui n’était pas là. Le bouquin suit alors ses débuts de justicier, son adolescence en colère, l’armée, le rôle important d’Alfred et de Lucius Fox et toute la construction du mythe Batman mais vue depuis le regard d’un vieux bonhomme.

C’est un angle que je trouve vraiment dingue parce qu’on connaît tous l’origine de Batman par cœur, ais là, Russell la revisite totalement en la faisant passer par le prisme de la vieillesse et de la mémoire qui flanche où Batman oublie d’être Batman.

Le scénario est signé Mark Russell (lien affilié) qui a été nominé pour le prix Eisner du meilleur scénariste en 2023. Il a déjà bossé sur Superman Space Age avec les mêmes dessinateurs, une série nominée aux Eisner également. D’ailleurs Batman Dark Age partage le même univers temporel que Superman Space Age, où les événements historiques réels coexistent avec les super-héros DC. On est dans les années 60, en pleine Guerre Froide, mouvement des droits civiques, conquête spatiale…etc et petit Batman grandit dans ce contexte explosif.

Et visuellement, c’est Mike Allred qui gère les dessins, avec sa femme Laura Allred aux couleurs. Si vous connaissez pas le style Allred, imaginez du pop art années 60 qui rencontre Jack Kirby . Des lignes épurées, du dynamisme, des couleurs pétantes… Mike Allred (lien affilié), c’est surtout le mec derrière Madman, iZombie, X-Statix et son style colle parfaitement à cette époque charnière des années 60 où Batman évolue dans cette histoire.

Et là, le fait de passer par la mémoire d’un Bruce Wayne sénile ajoute une couche de mélancolie et d’urgence car il doit se souvenir avant qu’il ne soit trop tard. Le bouquin fait 264 pages et est vendu 25 euros chez Urban Comics dans la collection DC Black Label, qui regroupe les œuvres DC les plus matures et d’un bloc. Batman Dark Age compile en effet les 6 numéros de la série sortie en 2024 aux États-Unis.

Bref, j’ai passé un super bon moment avec cette lecture. Pour ceux qui aiment Batman autant que moi, c’est vraiment le cadeau de Noël idéal. Vous en aurez pour votre argent vu l’épaisseur du bouquin et la qualité du récit et je trouve que Russell et Allred forment un duo très créatif !

D’ailleurs, ce Batman Dark Age fait partie d’une trilogie que Russell et les Allred sont en train de créer chez DC. Après Superman Space Age sorti en début d’année et ce Batman Dark Age (liens affiliés), ils bossent également sur un Wonder Woman qui complétera le tout. Donc si comme moi, vous aimez voir vos héros revisités avec beaucoup d’intelligence et de style, je pense que vous allez vous régaler.

Découvrez Batman Dark Age chez Urban Comics .

Firefox AI Window - L'IA qui vous respecte

Édit du 18 novembre : Je me suis pris quelques insultes d’anti- suite à cet article. Sans surprise, des attaques ad-hominem sans argument comme d’hab. Par contre, si j’édite ce post, c’est pour vous dire que Anil Dash, qui est assez connu dans le monde de la tech, pense plus ou moins pareil que moi au sujet de l’IA dans Firefox. Donc ça me rassure un petit peu parce que j’avais vraiment l’impression d’être tout seul… Son article est disponible ici. *

Je viens à l’instant de m’inscrire sur la liste d’attente de Firefox AI Window . Il s’agit d’une nouvelle fonctionnalité IA pour Firefox qui tournera en local, respectera la vie privée, et nous laissera choisir notre modèle. Je suis assez hypé par le truc mais je vous avoue que les commentaires sur le forum Mozilla Connect sont… comment dire… assez révélateurs.

En effet, il y a une écrasante majorité de réactions négatives. Alors c’est pas contre l’implémentation technique, ni contre l’approche privacy-first de Mozilla. Non, c’est essentiellement contre le simple fait que le mot “IA” existe au sein de Firefox. Certains utilisateurs réclament même un bouton géant “No AI” visible depuis l’espace, pour désactiver une fonctionnalité qui est déjà désactivée par défaut. Ces mecs ont de la fièvre je pense…

Le truc qui m’agace en fait, dans ces réactions teubées, c’est qu’elles passent complètement à côté de l’enjeu stratégique. Chrome intègre Gemini de façon de plus en plus invasive, Edge a Copilot, Arc a son Browse for Me, Perplexity et OpenAI lancent leurs navigateurs IA… Alors si ce bon vieux Firefox reste immobile au sujet de l’IA pendant que tout le monde avance, je vous rassure, il ne deviendra jamais “le dernier bastion de la pureté” qui fait mouiller les anti-IA.

Non, il deviendra juste obsolète.

Réveillez-vous les gars, Mozilla propose exactement ce que les libristes demandent depuis toujours ! Un respect de la vie privée, un contrôle utilisateur total, de la transparence, un fonctionnement en local, des petits modèles, du code libre…etc.

Mais bon parce que c’est de l’IA, ça devient l’ennemi. Faudrait quand même être sacrément con pour saborder la SEULE implémentation IA grand public qui respecte réellement ces principes de liberté et de respect de la vie privée.

Plutôt que de gueuler sur Mozilla, je vous invite plutôt à vous poser cette question : Est ce que vous préférez une IA locale optionnelle dans Firefox, ou une IA obligatoire cloud-only dans Chrome qui aura au final capté 95% du marché parce que Firefox sera mort de n’avoir rien fait ?

Parce que si Firefox disparaît, on perdra le dernier navigateur grand public capable de proposer une alternative respectueuse pour notre vie privée et ça perso, ça m’inquiète.

Nos champions anti-IA n’ont, pour la plupart, même pas remarqué que Firefox proposait déjà des fonctionnalités IA locales depuis le début cette année . Je pense au tab grouping automatique avec suggestions de titres, à la traduction de pages instantanée sans envoyer le contenu hors de votre machine, à la génération d’alt-text pour des images accessibles sans faire de compromis sur la vie privée… Tout ça tourne déjà en local chez vous et pas grand monde ne s’en plaint.

Je pense que c’est parce que Mozilla ne communique pas dessus en mettant des paillettes “AI-powered” partout. Ils font juste leur taf. C’est un peu comme quand je parle d’une super application cross-platform… Suffit que j’écrive que c’est fait en Electron et y’en a qui tombent dans le coma direct. Et cela peu importe que l’app soit folle ou pas. Bref, c’est ridicule.

AI Window sera donc une troisième fenêtre de navigation (en plus des fenêtres classiques et privées), avec un assistant et un chatbot intégré. Mozilla présente ça comme, je cite, “un compagnon de confiance qui améliore votre navigation et vous guide vers le web plus large”, par opposition aux navigateurs IA qui vous enferment dans une boucle conversationnelle pour à terme, je pense vous vendre des trucs et conserver votre attention et vos données perso.

Grâce à Mozilla, vous pourrez choisir votre modèle IA et tout sera “opt-in” comme on dit. Ça veut dire que tout sera en option et rien ne sera activé par défaut. Vous pourrez choisir de l’activer ou non ! Que demande le peuple ? C’est merveilleux non ?

Faut dire que Mozilla a clairement appris de ses erreurs puisqu’ils ne forcent rien, ne pré-activent rien mais construisent tranquillement le meilleur navigateur possible, à la vue de tous (le code est libre, open source et chacun peut contribuer et donner son avis). Après, même comme ça, même en jouant la transparence absolue, ça ne plaira jamais à une certaine petite caste de barbus aveuglés par des idées pré-digérées faciles à comprendre. Tant pis pour eux !

Maintenant, le vrai enjeu pour moi, c’est pas ça, c’est surtout l’ouverture aux développeurs. J’espère vraiment que ces fonctionnalités IA seront accessibles via une API pour les extensions Firefox. Si c’est le cas, on va pouvoir créer des extensions qui s’appuient sur l’IA locale de Mozilla, sans avoir à ajouter un modèle de 500 MB ou à envoyer les données utilisateur dans le cloud. Et ça, j’avoue ce serait trop cool car ça ouvrirait l’écosystème des extensions Firefox à tout un tas de nouvelles extensions “intelligentes” qui respectent la vie privée.

Voilà… je sais que le changement c’est dur les gars, et que ça hérisse les poils de cul de certains pas bien sevrés mais l’IA de Mozilla va apporter des choses intéressantes dans le navigateur, que ça vous plaise ou non. Et si Mozilla ne se met pas à la page, Firefox prendra encore plus la poussière et finira par être délaissé. Et au final, on aura tout perdu et y’aura même plus d’IA qui respecte la vie privée et qui soit accessible au grand public gratuitement.

Voilà… Soyez pas cons. En tout cas, pour ma part, j’ai hâte de tester AI Window quand ça sortira !

Source

ByteBot - L'agent IA qui prend le contrôle de votre ordi (mais dans Docker, faut pas déconner)

Vous saviez que Claude d’Anthropic avait lancé sa fonction Computer Use et OpenAI son Operator ? Eh bien, pendant que ces géants se livrent une bataille sans merci, un projet open source du nom de ByteBot propose de faire tourner un agent IA autonome sur votre machine. Le tout, avec une approche qui devrait rassurer les plus paranoïaques d’entre nous puisque tout se déroule dans Docker.

Le concept c’est qu’au lieu d’accorder un accès direct à votre système à une IA (ce qui pourrait rapidement virer au cauchemar), ByteBot fait tourner un Ubuntu 22.04 complet avec environnement graphique XFCE dans un conteneur. Ainsi, l’IA peut interagir avec cet environnement isolé via VNC et WebSockets, capturer des images d’écran, cliquer, taper du texte… En somme, elle peut faire tout ce que vous feriez, mais dans sa petite bulle sécurisée.

Je vous ai fait une vidéo tuto dessus ! Et c’est grâce aux Patreons qui me soutiennent, alors merci à eux !

Il faut donc lui donner vos instructions en langage naturel… par exemple, vous pouvez lui demander de créer un nouveau repository GitHub ou de rechercher des informations spécifiques sur le web. ByteBot analyse alors votre demande, la décompose en étapes et se met au boulot. Il peut même naviguer sur le web, remplir des formulaires, gérer des mots de passe (stockés de manière sécurisée), et bien sûr exécuter des scripts bash ou Python.

Le truc cool, c’est également le mode “takeover”. Si jamais ByteBot galère sur une tâche ou que vous voulez reprendre la main, vous pouvez directement prendre le contrôle du desktop virtuel. C’est comme faire du pair programming avec une IA, sauf que c’est vous qui corrigez ses bêtises au lieu de l’inverse. Et une fois que vous avez montré comment faire, ByteBot apprend et peut reproduire la tâche plus tard.

Pour l’installer, plusieurs options s’offrent à vous. La plus simple reste Docker Compose. Vous clonez le repo, vous créez un fichier .env avec votre clé API (Anthropic, OpenAI ou Google Gemini au choix), et vous lancez le tout avec un docker-compose up. ByteBot se charge de builder les images, de configurer le réseau bridge pour l’isolation, et de monter les volumes persistants pour garder vos données entre les sessions.

git clone https://github.com/bytebot-ai/bytebot.git
cd bytebot
# Ajoutez votre clé de fournisseur d'IA (choisissez-en une)
echo "ANTHROPIC_API_KEY=sk-ant-..." > docker/.env
# Ou : echo "OPENAI_API_KEY=sk-..." > docker/.env
# Ou : echo "GEMINI_API_KEY=..." > docker/.env
docker-compose -f docker/docker-compose.yml up -d
# Ouvrez http://localhost:9992

Pour les amateurs de Kubernetes, des charts Helm sont également disponibles. Et si vous voulez tester sans vous prendre la tête, Railway propose aussi un déploiement en un clic. Mais franchement, pour un usage perso, Docker Compose fera parfaitement le job.

L’architecture technique est d’ailleus plutôt bien foutue puisque le backend Python gère la communication avec les LLMs et l’orchestration des tâches. Et le frontend React vous donne une interface web pour interagir avec ByteBot et voir ce qu’il fabrique en temps réel. Le tout communique via WebSockets pour une latence minimale. Et le conteneur desktop tourne avec un serveur VNC modifié qui permet à ByteBot de capturer l’écran et d’envoyer des événements souris/clavier.

Ce qui distingue vraiment ByteBot des solutions cloud comme Claude Computer Use, c’est surtout le côté self-hosted et privacy-first. Vos données restent chez vous, l’IA ne peut pas fouiner dans vos vrais fichiers système, et vous gardez un contrôle total sur ce qui se passe. En plus, comme c’est open source, vous pouvez auditer le code, contribuer des améliorations, ou même forker le projet si l’envie vous prend.

Les cas d’usage sont très nombreux : Automatisation de tâches répétitives, tests d’interfaces web, scraping de données complexes, ou même apprentissage par démonstration pour créer vos propres workflows automatisés. J’imagine déjà les possibilités pour automatiser des installations de logiciels, des configurations système, des processus de CI/CD un peu tordus ou juste faire ma compta.. ^^

Niveau limitations, ByteBot reste dépendant de la qualité du modèle IA que vous utilisez. Claude 4 Sonnet semble donner les meilleurs résultats pour l’instant, mais GPT-4 et Gemini Pro fonctionnent aussi. Les tâches nécessitant beaucoup de contexte visuel ou de manipulation précise peuvent encore poser problème. Et évidemment, faire tourner un desktop complet dans Docker consomme pas mal de ressources.

Si vous voulez pousser plus loin, ByteBot expose aussi une API REST complète. Vous pouvez donc créer des tâches programmatiquement, récupérer les logs, gérer les sessions, et même étendre les capacités avec des plugins custom. La doc est bien fournie avec des exemples en Python, JavaScript et même cURL pour les puristes.

from bytebot import ByteBotClient

client = ByteBotClient(api_key="your-key")
task = client.create_task("Effectue une recherche web")
result = client.wait_for_completion(task.id)
print(result.output)

Et pour la sécurité, ByteBot implémente plusieurs garde-fous . Les conteneurs sont isolés du réseau host par défaut, les capabilities Docker sont limitées au strict minimum, et un système de permissions permet de restreindre ce que l’agent peut faire. Vous pouvez même configurer des règles pour bloquer l’accès à certains sites ou empêcher l’exécution de commandes spécifiques.

Un aspect que j’apprécie particulièrement, c’est la gestion des erreurs. Quand ByteBot se plante (et ça arrive !), il génère des rapports détaillés avec captures d’écran, logs des actions tentées, et suggestions pour résoudre le problème. C’est super pratique pour debugger et améliorer vos prompts.

Une bonne petite communauté commence à se former autour du projet. Un Discord actif, des contributions régulières sur GitHub, et même quelques extensions communautaires qui ajoutent le support pour d’autres LLMs ou des intégrations avec des outils comme Zapier ou n8n. Bref, c’est un projet qui évolue vite, avec des releases toutes les deux semaines environ.

Comparé à ses concurrents, ByteBot se positionne vraiment sur le créneau open source et self-hosted là où OpenAI et Anthropic proposent des solutions cloud propriétaire. C’est, si vous préférez, le Nextcloud des agents IA autonomes.

Après pour ceux qui s’inquiètent des implications éthiques et de sécurité de laisser une IA contrôler un ordinateur, ByteBot apporte à cela des réponses pragmatiques. L’isolation Docker, le mode takeover pour reprendre la main, et la possibilité d’auditer chaque action effectuée permettent de garder un œil sur ce que fait l’agent. C’est bien sûr loin d’être parfait, mais c’est un bon compromis entre automatisation et contrôle.

Donc si vous êtes du genre à automatiser tout ce qui peut l’être, ByteBot mérite vraiment le coup d’oeil. C’est encore un peu but sur les bords, mais le potentiel est énorme. Pour aller plus loin, je vous invite à consulter la documentation complète ici , et le code source sur GitHub .

Hackez votre mémoire en modifiant votre visage

Utkarsh Gupta, chercheur à l’Anglia Ruskin University de Cambridge, vient de publier une étude dans Scientific Reports de Nature qui va vous faire halluciner. Pour retrouver vos souvenirs d’enfance, il suffit de hacker votre propre visage ! Hé oui, on peut littéralement débloquer sa mémoire avec un simple filtre photo de vous plus jeune.

Car votre cerveau garde vos souvenirs d’enfance derrière une porte verrouillée dont votre visage d’enfant est la clé !

Le principe est simple… vous prenez 50 adultes, vous leur montrez leur propre visage en live sur un écran, mais modifié par un filtre pour ressembler à leur tête de gamin. Ce genre de filtres bébé qui traînent sur Snapchat et Instagram…

Et là, résultat de malade : ceux qui ont vu leur visage d’enfant se sont souvenus de beaucoup plus de détails de leur enfance que ceux qui voyaient leur visage d’adulte. Vraiment beaucoup plus !

Cette technique s’appelle l’enfacement illusion. C’est une illusion cognitive où votre cerveau se fait avoir. Il pense que le visage qu’il voit sur l’écran, c’est le vôtre, comme si vous vous regardiez dans un miroir. D’habitude, l’enfacement illusion sert aux neuroscientifiques pour étudier la plasticité de la représentation de soi mais là, les chercheurs l’ont détournée pour créer une sorte de machine à remonter le temps low-tech.

Votre mémoire est comme un trousseau de clés où chaque visage que vous avez eu dans votre vie correspond à une clé différente. Avec votre tête d’adulte, vous n’avez accès qu’aux souvenirs récents, c’est à dire les titres qui passent en boucle sur votre playlist mentale. Mais avec votre visage d’enfant, vous accédez aux deep cuts, aux morceaux oubliés tout au fond de votre disque dur cérébral.

Une sorte de reverse engineering de la mémoire, si vous voulez.

L’enfacement illusion fonctionne grâce à une stimulation multisensorielle synchrone. Concrètement, vous voyez des touches tactiles sur le visage à l’écran en même temps que vous sentez ces touches sur votre propre visage. Votre cerveau fait alors la connexion et se dit : “Ok, ce visage là-bas, c’est moi”. C’est exactement le même mécanisme que l’illusion de la main en caoutchouc, vous savez, quand on arrive à vous faire croire qu’une fausse main posée sur une table est la vôtre.

Du coup, qui êtes-vous vraiment ? Votre tête actuelle ? Toutes vos tronches du passé ? Ou la somme de toutes ces versions ?

Si vous voulez tester ça vous même, trouvez un bon filtre et suivez ce tuto de Utkarsh :

Cette méthode pourrait beaucoup aider dans tout ce qui est travail thérapeutique ou pour aider les victimes de traumatismes à accéder à des souvenirs enfouis. Et si vous savez coder une application mobile, vous pouvez même devenir très riche en proposant la première app qui débloque vos souvenirs d’enfance ;-)))

Bon, il y a quand même un truc à garder en tête c’est que cette technique ouvre des portes, mais il faut faire attention à ce qui se cache derrière. La recherche a montré par exemple que des enfants exposés à de la réalité virtuelle pouvaient développer de faux souvenirs… Donc manipuler la perception corporelle pour accéder aux souvenirs, c’est très puissant, mais ça demande quand même un peu de précautions.

Je sais pas si vous allez essayer mais si ça marche, faites moi un mail, je suis vraiment curieux.

Source

Vaccin COVID - Une turbo bonne nouvelle pour le traitement du cancer

Vous vous souvenez des débats enflammés sur les vaccins COVID et de ces théories complotistes de “turbo cancer” qui circulaient partout sur les réseaux sociaux ? Bon c’est un peu has been maintenant mais c’était cette fausse idée que les vaccins mRNA provoqueraient des cancers fulgurants…

Et bien accrochez-vous, parce que des chercheurs très sérieux viennent de découvrir EXACTEMENT l’inverse. Vous allez voir, c’est drôle !

Des oncologues de l’Université du Texas et de l’Université de Floride ont analysé les dossiers de plus de 1000 patients atteints de cancers du poumon ou de mélanomes avancés et ils ont remarqué un truc bizarre : les patients qui avaient reçu un vaccin mRNA contre la COVID dans les 100 jours suivant le début de leur immunothérapie vivaient beaucoup plus longtemps que les autres. Genre, 2 fois plus longtemps.

Concrètement, la survie médiane passe de 20 mois sans vaccin à 37 mois avec vaccin et au bout de 3 ans, 56% des patients vaccinés sont toujours en vie, contre seulement 31% chez les non-vaccinés.

Bon alors, comment c’est possible ? Hé bien pour comprendre, faut faire un détour rapide par l’immunothérapie. En effet, depuis une dizaine d’années, on traite certains cancers avec des médicaments qui ne ciblent pas la tumeur directement mais débloquent en réalité le système immunitaire.

Le truc, c’est que les cellules cancéreuses sont malignes (sans mauvais jeu de mots..) puisqu’elles utilisent une protéine appelée PD-L1 pour littéralement désactiver les lymphocytes T, les fameux soldats de notre système immunitaire. Les inhibiteurs de checkpoint comme le pembrolizumab ou le nivolumab empêchent alors cette désactivation et le système immunitaire peut enfin faire son boulot et attaquer la tumeur.

Sauf que ça ne marche pas sur tous les cancers. Il y a ce qu’on appelle les tumeurs “chaudes” et les tumeurs “froides”. Les chaudes ont été repérées par le système immunitaire et ont été infiltrées par des cellules immunitaires. Les froides, par contre, sont invisibles. Aucune cellule immunitaire autour, aucune réaction. Et pour ces tumeurs froides, l’immunothérapie classique ne sert à rien et c’est un cauchemar à combattre.

De leur côté, les vaccins mRNA COVID agissent comme une alarme incendie pour le système immunitaire. Quand vous recevez votre dose de Pfizer ou Moderna, votre corps produit un tsunami d’interféron de type I. C’est une molécule de signal qui met tout le système immunitaire en alerte rouge : Les cellules présentatrices d’antigènes se réveillent, les lymphocytes T se multiplient, et tout le monde passe en mode combat !

Et cette activation généralisée, elle ne se limite pas au virus COVID puisque le système immunitaire en profite pour scanner TOUT ce qui traîne, y compris les cellules cancéreuses qui jusque-là passaient inaperçues. Les tumeurs froides deviennent alors chaudes et se mettent à exprimer du PD-L1 pour tenter de se protéger. Et c’est justement à ce moment-là que les inhibiteurs de checkpoint entrent en jeu et bloquent cette défense.

Les chercheurs ont donc testé ça sur des modèles animaux pour comprendre le mécanisme exact et ont confirmé que le vaccin seul ne suffit pas. Il faut la combinaison vaccin mRNA + immunothérapie pour obtenir l’effet maximal. L’un réveille le système immunitaire, l’autre maintient l’attaque active contre la tumeur.

Le plus fou dans cette histoire, c’est que personne ne cherchait cet effet. Élias Sayour, l’un des chercheurs principaux à l’origine de cette découverte, bossait déjà sur des vaccins mRNA anti-cancer personnalisés depuis 2016 et avait remarqué que les molécules d’ARN messager pouvaient entraîner le système immunitaire même sans cibler des antigènes tumoraux spécifiques. Mais de là à imaginer que les vaccins COVID développés en urgence pour une pandémie auraient ce pouvoir contre le cancer, personne ne l’avait anticipé.

D’ailleurs, il y a eu quelques cas rapportés dans la littérature médicale de patients dont les tumeurs ont spontanément régressé après une vaccination COVID et à l’époque, tout le monde trouvait ça anecdotique… peut-être des coïncidences. Mais avec cette étude portant sur plus de 1000 patients et contrôlant 39 variables différentes (stade du cancer, traitements antérieurs, comorbidités, etc.), c’est difficile de parler de hasard.

Cinq fois plus de chances d’être en vie trois ans après le diagnostic, juste en ajoutant un vaccin qu’on a déjà sous la main et qui a été administré à des milliards de personnes, c’est pas rien.

Maintenant, avant de crier au miracle, quelques précisions importantes quand même. Cette étude est observationnelle, et ce n’est pas un essai clinique randomisé. Ça veut dire que les chercheurs ont analysé des données existantes, et n’ont pas assigné aléatoirement les patients à un groupe ou l’autre. Il pourrait donc y avoir des biais cachés. Par exemple, les patients qui ont choisi de se faire vacciner pendant leur traitement cancer sont peut-être aussi ceux qui suivent mieux leurs protocoles de soin en général ?

Mais les chercheurs ont anticipé cette critique et ont utilisé des techniques statistiques avancées pour éliminer un maximum de facteurs confondants et même avec ça, le signal reste fort. Assez fort en tout cas pour justifier de passer à l’étape d’un vrai essai clinique prospectif.

L’équipe lance donc un essai à grande échelle sur des patients atteints de cancer du poumon, avec 2 groupes : un qui reçoit l’immunothérapie standard, l’autre qui reçoit immunothérapie + vaccin mRNA COVID. Si les résultats confirment ce qu’ils ont observé, on pourrait alors voir les protocoles de traitement évoluer très rapidement.

Et contrairement aux vaccins anti-cancer personnalisés qui nécessitent d’analyser la tumeur de chaque patient pour créer un vaccin sur mesure (c’est cher et complexe…), les vaccins COVID eux sont déjà produits en masse, approuvés, dispo partout, et relativement peu chers.

On savait que non seulement ces vaccins COVID ne causaient pas de cancer mais découvrir qu’en plus ils pourraient bien devenir un outil standard pour TRAITER le cancer, c’est turbo-marrant je trouve… La science nous réserve toujours des surprises, et c’est pour ça qu’elle me passionne !

Si ça vous dit, l’étude a été publiée dans Nature, et vous pouvez la lire en intégralité ici si vous voulez rentrer dans les détails statistiques et biologiques.

Quantum Echoes - Fini le bullshit, l'informatique quantique devient enfin vérifiable !

Pendant 30 ans, les experts en informatique quantique vous demandaient de les croire sur parole du genre “Mon ordi quantique est 13 000 fois plus rapides que ton PC Windows XP…”. Mais bon, ils sont rigolo car c’était impossible à vérifier ce genre de conneries… M’enfin ça c’était jusqu’à présent car Google vient d’annoncer Quantum Echoes , et on va enfin savoir grâce à ce truc, ce que l’informatique quantique a vraiment dans le ventre.

Depuis 2019 et la fameuse “suprématie quantique” de Google , on était en fait coincé dans un paradoxe de confiance assez drôle. Google nous disait “regardez, on a résolu un problème qui prendrait 10 milliards de milliards d’années à un supercalculateur”. Bon ok, j’veux bien les croire mais comment on vérifie ? Bah justement, on pouvait pas ! C’est un peu comme les promesses des gouvernements, ça n’engage que les gros teubés qui y croient ^^.

Heureusement grâce à Quantum Echoes, c’est la fin de cette ère du “Faites-nous confiance” car pour la première fois dans l’histoire de l’informatique quantique, un algorithme peut être vérifié de manière reproductible . Vous lancez le calcul sur la puce Willow de Google, vous obtenez un résultat. Vous relancez, vous obtenez le même. Votre pote avec un ordi quantique similaire lance le même truc, et il obtient le même résultat. Ça semble basique, mais pour le quantique, c’est incroyable !!

Willow, la puce quantique de Google

L’algorithme en question s’appelle OTOC (Out-Of-Time-Order Correlator), et il fonctionne comme un écho ultra-sophistiqué. Vous envoyez un signal dans le système quantique, vous perturbez un qubit, puis vous inversez précisément l’évolution du signal pour écouter l’écho qui revient. Cet écho quantique se fait également amplifier par interférence constructive, un phénomène où les ondes quantiques s’additionnent et deviennent plus fortes. Du coup, ça permet d’obtenir une mesure d’une précision hallucinante.

En partenariat avec l’Université de Californie à Berkeley, Google a testé ça sur deux molécules, une de 15 atomes et une autre de 28 atomes et les résultats obtenus sur leur ordinateur quantique correspondaient exactement à ceux de la RMN (Résonance Magnétique Nucléaire) traditionnelle. Sauf que Quantum Echoes va 13 000 fois plus vite qu’un supercalculateur classique pour ce type de calcul.

En gros, ce qui aurait pris 3 ans sur une machine classique prend 2 heures sur un Willow.

Cette vitesse, c’est impressionnant mais ce qui change la donne dans cette annonce, c’est cette notion de vérifiabilité ! Bref, c’est fini le bullshit, maintenant la structure de systèmes quantiques (des molécules aux aimants en passant par les trous noirs) sera vérifiable et comparable.

Et les applications concrètes sont déjà plutôt bien identifiées : Découverte de médicaments, pour comprendre comment les molécules se lient à leurs cibles, la science des matériaux, pour caractériser la structure moléculaire de nouveaux polymères ou les composants de batteries, la fusion nucléaire…etc tout ce qui nécessite de modéliser des phénomènes quantiques avec une précision extrême !

Google compare ça à un “quantum-scope”, capable de mesurer des phénomènes naturels auparavant inobservables un peu comme l’ont été le télescope et le microscope qui nous ont donné accès à de nouveaux mondes invisibles. Le Quantum Echoes nous donne un accès ce monde quantique sauf que cette fois, on pourra vérifier que la réalité est identique à celle annoncée par les scientifiques.

Source

Ce tissu intelligent transforme votre pull en assistant vocal

Ce petit choc désagréable quand on touche une poignée de porte en hiver, ce crépitement énervant quand on enlève un pull, ou encore ce moment où nos cheveux se dressent tout seuls comme si on venait de toucher une bobine Tesla… Vous l’aurez compris, je déteste l’électricité statique !

Et pourtant, des chercheurs de l’université de Suzhou en Chine viennent de transformer ce phénomène naturel relou en un truc plutôt cool ! En effet, ils ont eu l’idée contre-intuitive de l’amplifier et de l’utiliser.

Et le résultat de leurs recherches, c’est la mise au point d’un tissu intelligent baptisé A-Textile qui transforme votre voix en commandes pour l’IA. Pas de microphone, pas de batterie mais juste du tissu et de l’électricité statique !

En effet, quand vous parlez, l’air vibre et ces vibrations font bouger légèrement les fibres du tissu. Et quand des fibres se frottent les unes aux autres, elles génèrent de minuscules charges électrostatiques. C’est ce qu’on appelle l’effet triboélectrique , c’est à dire le même phénomène qui vous mets une châtaigne en hiver quand vous ouvrez votre voiture.

Sauf qu’ici, au lieu de vous électrocuter bêtement, ces charges sont captées, amplifiées et transformées en signal électrique exploitable. Et ce signal, une IA le lit et le comprend avec une précision de 97,5% d’après l’équipe de Suzhou , et cela peu importe si l’environnement est bruyant ou pas.

Dans le futur, on pourra donc peut-être chuchoter un truc à son pull pour que la clim ou la lumière s’allume. Nos vêtements vont devenir une IHM de plus (Interface Homme Machine) et pour que ça marche, les scientifiques ont conçu une structure multicouche assez élégante. La surface du tissu est recouverte d’un composite fait de nanofleurs de sulfure d’étain en 3D (SnS2, pour les intimes) intégrées dans du caoutchouc de silicone. En dessous, il y a une couche de textile carbonisé à base de graphite qui accumule les charges.

Cette combinaison permet ainsi d’atteindre une tension de sortie de 21 volts et une sensibilité de 1,2 volt par pascal. Pour vous donner une idée, c’est plus puissant que le coup de jus que vous prenez en touchant une poignée de porte. Mais cette fois, c’est utile car le tissu est alors capable de capter les fréquences entre 80 et 900 Hz, ce qui couvre largement la voix humaine. Même un chuchotement ça passe et comme c’est flexible, lavable et qu’on peut le coudre dans une chemise, une veste ou un uniforme de travail, ça devient portable au quotidien.

Les chercheurs ont donc testé le truc dans des scénarios concrets. Ils ont connecté A-Textile à ChatGPT et posé des questions complexes genre “Quelle est la météo aujourd’hui ?” ou “C’est quoi le metaverse ?”. Ils ont même contrôlé des appareils domotiques (allumer/éteindre une lampe, un climatiseur) juste avec la voix et ont demandé à Google Maps de calculer un itinéraire. Ils ont même réussi à générer des recettes de cocktails.

Et tout ça sans toucher un smartphone ni porter d’écouteurs. Juste en parlant normalement à leurs fringues, un peu comme quand vous discutiez avec une chaussette enfilée sur votre main quand vous étiez petit.

Après en bon rabats joie, vous allez me dire : “Ouais mais on a déjà des assistants vocaux partout”. C’est vrai, sauf que là, c’est pas un objet de plus à acheter, à recharger, à synchroniser avec vos autres gadgets. C’est intégré dans ce que vous portez déjà, comme ça au lieu d’ajouter des couches de technologie, on en retire, on simplifie. L’interface disparaît et il ne reste plus que vous et vos vêtements qui comprennent ce que vous dites.

Je me demande si ça va fonctionner pour les gens qui passent leur journée en slip comme certains d’entre vous, mais en tout cas, ça ouvre des perspectives énormes notamment pour les personnes handicapées qui galèrent avec les interfaces tactiles ou vocales classiques. Ou encore pour les gens qui bossent dans des environnements dangereux où sortir un téléphone peut être risqué.

Puis pour ceux qui veulent juste arrêter de jongler entre quinze appareils différents pour faire un truc aussi simple que régler le chauffage ou allumer la TV c’est chouette non ?

Voilà, donc la prochaine fois que vous prendrez un coup de jus en enlevant votre pull, dites vous que bientôt ça vous permettra de commander un Uber Eats ou de lancer Netflix ^^

Source

À cause de l'IA, vous ne pourrez bientôt plus vous fier à vos souvenirs

Cette année, avec Nano Banana, ChatGPT, Sora, Seedream et j’en passe, on est quand même passé de “Je cherche une image sur le net” à “Tiens, et si je demandais à Google (ou un autre) de créer l’image que je cherche…”. Comme ça, on ne perd plus de temps à en regarder plein pour trouver la meilleure, et surtout on ne se pose plus la question de est-ce que c’est une image sous copyright ? Ou une image mise en ligne sur un site Creative Commons dont la licence libre sera retirée dans quelques années par un cabinet d’avocat véreux spécialisé dans le copyright trolling… et qui viendra ensuite vous réclamer du pognon .

Et tout ce délire de génération d’images ne risque pas de s’arranger, notamment avec Nano Banana (c’est le petit nom de Gemini 2.5 Flash Image, le modèle de génération d’images de Google) que Google vient d’intégrer dans certains de ses services. En effet, très bientôt vous allez pouvoir modifier, remixer, transformer des images directement depuis la recherche Google (AI Mode), Lens, ou directement vos photos !

Vous prenez une photo avec Lens, ensuite, hop, vous ajoutez un petit prompt texte, et l’IA transformera l’image selon vos désirs. Vous pouvez aussi chercher un truc dans Google Search, puis modifier visuellement le résultat à la volée si ça vous amuse.

Vous allez par exemple chercher un canapé bleu marine sur Google Images, tomber sur la photo de vos rêves sauf que le canapé est rouge brique et hop, l’application le passera en bleu marine directement dans les résultats de recherche. Vous pouvez même mixer deux images pour créer quelque chose de nouveau…

C’est chouette techniquement mais philosophiquement, c’est un délire car la frontière entre le réel et le généré va devenir encore plus floue. On va très vite perdre la notion de ce qui existe vraiment car chaque image pourra être un remix à la demande et au final personne ne saura plus ce qui vient d’un vrai appareil photo ou d’un algo.

C’est une nouvelle réalité qui arrive, où le faux et le vrai se mélangent, faisant disparaitre nos repères.

Au niveau de Google Photos, c’est encore plus inquiétant car on va pouvoir fusionner des images perso, créer des collages, ajouter des éléments de certaines photos dans d’autres photos…etc. On va donc pouvoir se créer des souvenirs qui n’ont jamais existé. Votre gamin n’était pas là pour la photo de famille ? Hop, on le rajoute. Un coucher de soleil moyen-bof sur une photo de vacances ? Hop, on le rend épique.

Nos enfants vont donc grandir avec des albums photo mi-réels mi-générés par IA et au bout de quelques années, plus personne ne se souviendra de si c’était vrai ou pas.

Bref, comme je le disais, technologiquement, c’est impressionnant mais on se demande quand même où se trouve la limite entre retouche créative et falsification de notre mémoire ?

J’en sais quelque chose, la mémoire humaine est déjà très fragile. Elle se réécrit à chaque souvenir et même à chaque évocation d’un souvenir…. Alors si en plus on lui file des photos modifiées pour coller à une réalité qu’on fantasme, j’imagine qu’on va tous finir par croire à des événements qui n’ont jamais eu lieu, surtout si ce sont des modifications subtiles, crédibles.

Bref, ces nouveautés liées à Nano Banana sont déployées uniquement aux États-Unis et en Inde pour le moment, ce qui vous laisse un peu de temps pour réfléchir à tout ça et vous préparer à sauter ou pas dans ce délire de réécriture de vos propres souvenirs.

A vous de voir !

Source

Quand avoir mal est une question de priorité...

Est-ce que vous êtes déjà demandé pourquoi les soldats blessés au combat ne réalisent pas immédiatement qu’ils pissent le sang ? Ou pourquoi votre mal de dos disparaît mystérieusement quand vous êtes en retard pour un truc important ?

Hé bien des chercheurs de l’ Université de Pennsylvanie viennent de trouver l’interrupteur neuronal responsable et c’est assez dingue comme découverte, vous allez voir !

L’équipe de J. Nicholas Betley a identifié un groupe de neurones dans le tronc cérébral qui agissent comme un bouton “Ne pas déranger” pour la douleur chronique. Ces neurones, qu’on appelle Y1R, se trouvent dans une zone appelée le noyau parabrachial latéral . Un nom compliqué pour un truc très basic… en gros, votre cerveau a un système de priorisation brutal : La survie d’abord, le confort après !

Quand vous avez faim, soif ou peur, votre cerveau libère un neuropeptide appelé NPY. Ce neuropeptide vient se fixer sur les récepteurs Y1 de ces neurones du tronc cérébral, et quand ça arrive, les signaux de douleur chronique sont réduits. Pas coupés complètement, mais clairement atténués.

Votre cerveau vous dit en gros : “Écoute bonhomme, je sais que tu as mal au dos, mais là on a un problème plus urgent à gérer”.

L’équipe a utilisé pour cela l’imagerie calcique pour observer l’activité neuronale en temps réel chez des souris. Et ils ont constaté que les neurones Y1R ne réagissaient pas aux douleurs courtes et aiguës. Par contre, ils restaient actifs en continu pendant les douleurs prolongées. C’est ce qu’on appelle une activité tonique, et quand les chercheurs ont bloqué artificiellement l’activité de ces neurones, les souris ont vu leur douleur chronique diminuer.

Mais elles réagissaient toujours normalement aux dangers immédiats comme toucher une surface chaude par exemple. Le système de douleur aiguë fonctionnait toujours, mais la douleur persistante était très réduite.

Ça pourrait expliquer par exemple pourquoi vous oubliez votre migraine quand vous êtes concentré sur un truc urgent. Ou pourquoi l’adrénaline d’une situation stressante peut vous faire oublier une blessure. C’est votre cerveau qui active ce circuit sans vous demander votre avis.

Il priorise selon ses propres critères et ses critères datent de l’époque où on chassait le mammouth ^^.

Betley dit que cette découverte ouvre une nouvelle voie de traitement, car si on arrive à mesurer l’activité de ces neurones Y1R, on pourrait avoir un biomarqueur fiable de la douleur chronique. C’est un truc qui manque cruellement aux médecins et aux labos pharma car aujourd’hui, la douleur chronique se mesure surtout par ce que vous racontez. C’est subjectif, c’est très difficile à quantifier et donc très difficile à traiter.

Là, ceux qui en font des caisses en hurlant à la mort alors qu’ils n’ont presque rien devraient vite se faire repérer (coucou les footballeurs)… alors que ceux qui douillent vraiment, mais qui serrent les dents seront peut-être mieux pris en charge.

Avec ce biomarqueur neuronal, on pourrait donc objectiver la chose et développer des médicaments qui ciblent spécifiquement ces neurones, ou même explorer des thérapies comportementales qui activent naturellement ce circuit.

Par exemple, l’idée que la faim pourrait techniquement réduire la douleur chronique est plutôt drôle… J’image déjà sur Doctissimo les articles à la con : “Jeûnez pour ne plus avoir mal au dos !” alors qu’évidemment ce n’est pas si simple. Mais bon, ça montre à quel point notre cerveau fonctionne selon des priorités qu’on ne contrôle pas consciemment.

Betley et son équipe continuent évidemment leurs recherches, car ils veulent comprendre plus précisément comment ces neurones interagissent avec les autres circuits cérébraux afin de pouvoir à terme les activer de façon ciblée sans passer par la case “avoir faim, soif ou flipper sa race”.

Y’a aussi la question des traitements médicamenteux, car comme le neuropeptide Y existe déjà, on pourrait théoriquement développer des agonistes du récepteur Y1 qui imitent son action. Les premiers tests cliniques explorent des voies intranasal et intrathecal où des molécules viendraient se fixer sur ces récepteurs pour réduire la douleur chronique sans toucher à la douleur aiguë.

Ça va nous changer du doliprane ^^ !

Bref, les prochaines étapes vont être intéressantes notamment, le passage de la souris à l’humain, qui est toujours un défi.

Si vous voulez en savoir plus sur le sujet, l’article complet est disponible sur Nature .

Source

Des scientifiques ont réussi à INVERSER le vieillissement

Je pense qu’on est tous d’accord… vieillir c’est inévitable.

Hé bien visiblement, l’Académie Chinoise des Sciences n’était pas d’accord et ils viennent de le prouver avec des singes. Oui, de vrais singes, et pas des modèles informatiques ou des cultures de cellules dans des boîtes de Petri. Leurs macaques crabiers ont rajeuni pour de vrai !

Pour parvenir à ce résultat, ils ont bidouillé des cellules souches humaines afin de les rendre résistantes à la sénescence. La sénescence, c’est quand vos cellules arrêtent de se diviser et se mettent en mode zombie. Elles ne sont pas mortes, mais elles foutent le bordel en balançant des molécules inflammatoires partout. En gros, elles font vieillir tout le reste.

Les chercheurs ont donc pris le gène FoxO3 , un des rares gènes associés à la longévité qui marche vraiment chez tous les organismes tels que les vers, les mouches, les souris et les humains. Et si vous avez la bonne version de ce gène, vous avez 1,9 fois plus de chances de vivre au-delà de 95 ans. Du coup, ils ont introduit deux petites mutations dans ce gène, et hop, nous voilà avec des cellules souches qui résistent au vieillissement.

Ils ont donc testé ça sur des macaques crabiers âgés de 19 à 23 ans. À l’échelle humaine, c’est comme des gens de 60 à 70 ans. Ainsi, durant 44 semaines, soit environ 3 ans en équivalent humain, ils ont injecté ces cellules toutes les deux semaines et le résultat est assez dingue.

Les singes traités ont retrouvé la mémoire, leur cerveau a arrêté de rétrécir, et leurs os se sont reminéralisés. Toutes analyses ont ainsi montré que plus de 50% des 61 types de tissus analysés ont rajeuni. Le système reproductif, la peau, les poumons, les muscles, l’hippocampe. Tout a pris un coup de jeune !!

Le plus impressionnant, c’est que les horloges épigénétiques, ces outils de machine learning qui analysent l’ADN pour déterminer votre âge biologique, ont estimé que les neurones immatures avaient rajeuni de 6 à 7 ans. Et les ovocytes de 5 ans. Pas mal pour 44 semaines de traitement.

Pour bien capter comment ça fonctionne, il faut comprendre que FoxO3, c’est un peu le chef d’orchestre de la résistance au stress cellulaire. Il active des gènes qui protègent vos télomères, ces petits capuchons au bout de vos chromosomes qui raccourcissent à chaque division cellulaire et il booste aussi la télomérase, l’enzyme qui rallonge les télomères. Chez les porteurs de la variante longévité de FoxO3 , on voit donc émerger une protection contre le raccourcissement des télomères et des niveaux plus élevés de télomérase.

En plus, FoxO3 gère le stress oxydatif. Vous ne le savez peut-être pas, mais vos cellules produisent des radicaux libres quand elles respirent, et ces trucs endommagent tout ! FoxO3 active donc des antioxydants pour faire le ménage. Il joue aussi un rôle dans l’autophagie, ce processus où vos cellules recyclent leurs composants défectueux. Bref, c’est un gène qui fait plein de trucs utiles pour pas vieillir trop vite.

Cette année, d’autres équipes ont aussi trouvé des cocktails chimiques qui inversent l’âge des cellules en moins d’une semaine, sans toucher à l’ADN. Et une autre étude a utilisé le microARN miR-302b pour réactiver des cellules sénescentes et leur faire retrouver leur fonction . Chez les souris, ça a augmenté la durée de vie médiane de 892 à 1029 jours.

38% de réduction du risque de mort, c’est pas rien.

Bon, évidemment, tout ça c’est en labo mais les chercheurs chinois rapportent qu’il n’y a eu aucun effet secondaire grave chez les singes, et les cellules modifiées semblent même avoir des propriétés suppressives de tumeurs. Mais bon, concernant les effets à long terme, on ne les connaît pas encore. Et passer des singes aux humains, c’est jamais aussi simple qu’on voudrait…

À noter que ce type de recherche ouvre aussi des perspectives pour traiter les maladies neurodégénératives. Bah oui, si vous pouvez rajeunir les neurones de 6 ans, vous pouvez peut-être ralentir Alzheimer ou Parkinson. Même chose pour l’ostéoporose, les maladies cardiovasculaires, toutes ces saloperies qui viennent avec l’âge.

En attendant, les sénolytiques, ces médicaments qui éliminent les cellules sénescentes, sont déjà en essais cliniques pour des maladies comme la fibrose pulmonaire et l’arthrose. Les inhibiteurs de SASP , qui ciblent les signaux inflammatoires des cellules zombies, sont aussi en court de test pour Alzheimer et le cancer. Bref, on commence à avoir plusieurs approches qui marchent.

Voilà, donc si vous vous demandiez si on pouvait vraiment inverser le vieillissement, bah la réponse est oui, apparemment on peut. Maintenant reste à voir si ça marche aussi bien chez les humains et surtout combien ça va coûter. Parce que bon, se faire injecter des cellules souches génétiquement modifiées toutes les deux semaines pendant des années, ça risque de ne pas être donné…

Source et image

Des neurones artificiels fabriqués avec des bactéries qui parlent enfin le langage de nos cellules

Sam Altman, Elon Musk et leurs copains courent après l’IA qui “pense” comme nous grâce notamment à des machines qui calculent plus vite que nos cerveaux, mais on n’a jamais vraiment réussi à créer des circuits électroniques qui parlent VRAIMENT à nos cellules. Enfin, jusqu’à maintenant.

Des chercheurs de l’Université du Massachusetts viennent de publier une étude dans Nature Communications qui explique un truc assez dingue. Ils ont fabriqué des neurones artificiels qui fonctionnent exactement comme les vrais. Ce qui est fou, c’est pas qu’ils imitent le cerveau, c’est qu’ils utilisent le même langage que nos cellules.

Leur super astuce ? Des nanofils protéiques extraits d’une bactérie qui s’appelle Geobacter sulfurreducens. C’est une bactérie qui vit dans les sédiments et les sols anaérobies (là où y’a pas d’oxygène) et elle a un super-pouvoir qui est de produire de l’électricité. Les chercheurs Shuai Fu et Jun Yao ont donc eu l’idée de prendre ces nanofils protéiques pour construire des “memristors” (une sorte de résistance à mémoire) qui fonctionnent pile-poil aux mêmes voltages que nos neurones biologiques.

Avant, les neurones artificiels fonctionnaient donc à 0,5 volt minimum alors que les vrais neurones dans notre corps tournaient entre 70 et 130 millivolts (soit environ 0,1 volt). C’était donc comme essayer de parler anglais avec quelqu’un qui parle français en gueulant plus fort… ça marchait pas terrible.

Du coup, grâce à cette découverte, Jun Yao et son équipe ont réussi à créer le premier composant électronique qui parle exactement la même langue électrique que nos cellules. Et pour le prouver, ils ont fait un truc de malade. Ils ont branché ces neurones artificiels sur de vraies cellules cardiaques humaines (des cardiomyocytes)… et ça a marché ! Les neurones artificiels ont détecté en temps réel les changements d’activité des cellules quand elles étaient exposées à de la noradrénaline.

Ça ouvre ainsi la voie par exemple à des capteurs corporels qui comprennent vraiment ce que disent nos cellules, à des prothèses intelligentes qui réagissent naturellement, à des interfaces cerveau-machine qui ne forcent plus la communication…etc. Le neuromorphic computing devient enfin biocompatible.

Bon, évidemment je vous vois venir avec vos questions sur les implants cérébraux et tout le tralala futuriste à la Elon Musk mais calmos. On en est pas encore là. Mais on vient peut-être de franchir une frontière un peu bizarre qui est celle où nos machines arrêtent d’imiter le vivant pour commencer à vraiment dialoguer avec lui.

Et tout ça grâce à une bactérie qui bouffe du métal dans la boue sans oxygène…

C’est beau la science, non ?

Source

Bonne nouvelle ! 6% de français utilisent Linux

C’est fou car pendant que vous êtes encore en train de vous galérer avec votre bon vieux Windows, sachez que 6% de vos voisins sont en train d’utiliser Linux en totale détente. C’est en tout cas ce que remonte cette étude du CNLL et d’Abilian qui explique qu’on est maintenant 2,2 millions d’utilisateurs Linux en France.

D’après les données de Cloudflare Radar analysées par Abilian , l’usage personnel de Linux (4,3%) est deux fois plus élevé que l’usage professionnel (2,15%) ce qui montre bien que les gens font du Linux à la maison par choix, et non pas par obligation. D’ailleurs cette tendance s’accentue encore plus le weekend où l’usage des ordinateurs se fait essentiellement à titre personnel.

Comme le dit Stefane Fermigier, co-président du CNLL, dans son communiqué, “Ces chiffres sont une claque aux préjugés !”. Et il a raison même si on est encore en dessous de la moyenne Européenne. Celle-ci est de 3,7% de part de marché Linux alors que la France est à 3,1%. Les champions c’est la Finlande avec 7,1%, suivie de l’Irlande (5,3%) et de l’Allemagne (5,2%), donc on a encore une petite marge de progression.

Mais rassurez-vous, ce n’est pas qu’une question de compétence technique. C’est culturel car là-bas, utiliser Linux c’est normal, alors qu’ici c’est encore un peu un truc de geekos rebelles. Mais c’est en train de changer vite, et vous savez grâce à quoi ? Les jeux vidéo, pardi !! Avec Proton et Steam qui permettent de faire tourner les jeux Windows sur Linux, plein de gamers ont sauté le pas. C’est un des facteurs majeurs de la croissance mondiale de Linux qui atteint maintenant 4,55%.

Le gaming sous Linux c’est le cheval de Troie parfait car les mecs installent Ubuntu pour jouer et découvrent qu’il peuvent aussi bosser dessus, faire de la création, gérer leur vie numérique sans passer par Microsoft…. C’est une vraie prise de conscience.

Aux États-Unis, par exemple, Linux vient de passer la barre des 5% de parts de marché desktop. C’est une progression de 2 points en 2 ans, ce qui est énorme ! En plus avec la fin annoncée de Windows 10 qui force les gens à jeter à la poubelle leur ordinateur qui fonctionne s’ils veulent passer sous Windows 11, ça va encore augmenter je pense… Car Linux (ou ce logiciel magique ) est une solution anti-obsolescence incroyable !

Du coup, la CNLL milite pour qu’en France, on ait une vraie politique “Open Source & Sovereignty First” dans les marchés publics ce qui n’est pas gagné car l’Etat est gangréné par Microsoft… La CNLL veut notamment qu’on applique enfin l’article 16 de la loi République Numérique qui favorise le logiciel libre. Une pétition européenne propose même de créer un “EU-Linux” pour les administrations publiques. Imaginez toutes les mairies et préfectures sous Linux ! Ce serait cool !

Voilà, avoir Linux sur sa machine perso à la maison, c’est comme avoir un potager bio ou manger moins de viande… on le fait pour soi, par conviction, sans forcément militer. Et que Linux devienne mainstream c’est vraiment mon rêve car on n’en peut plus des zélites à barbes qui se définissent humainement de part leur OS, en regardant de haut les “autres”, les noobs, sans jamais leur tendre la main. Le jour où Monique de la Mairie ou Francis de la médiathèque sauront se démerder seuls sous Linux, je pense que leur égo en prendra un coup. Ils passeront alors sous BSD ou un truc encore plus techy parce que ça c’est un VRAI OS DE BONHOMME… ahahahah.

Puis en vrai, y’a encore plein de machines sous Linux que l’étude n’a probablement pas comptabilisées… On a tous chez nous des Raspberry Pi dans des tiroirs, des vieux PC reconverties en NAS, des petits serveurs perso…etc. Donc le vrai chiffre est sûrement bien plus élevé.

Alors oui, c’est vrai, on est encore loin des 72,5% de Windows, mais la tendance est claire. Linux grandit, doucement mais sûrement. Et surtout, c’est un mouvement très doux, très organique, qui n’est pas poussé par une méga-corpo, mais juste par des gens qui veulent reprendre le contrôle de leur ordinateur (et qui en ont marre de payer pour rien aussi, je pense…)

Voilà, donc la prochaine fois que vous croiserez quelqu’un dans une soirée, demandez-vous s’il fait partie des 6% de Français sous Linux ? Vous vous ferez plein de nouveaux amis ;-)

Source CNLL | Source Abilian

❌