Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 14 novembre 2025Flux principal

Firefox AI Window - L'IA qui vous respecte

Par : Korben
14 novembre 2025 à 07:29

Je viens à l’instant de m’inscrire sur la liste d’attente de Firefox AI Window . Il s’agit d’une nouvelle fonctionnalité IA pour Firefox qui tournera en local, respectera la vie privée, et nous laissera choisir notre modèle. Je suis assez hypé par le truc mais je vous avoue que les commentaires sur le forum Mozilla Connect sont… comment dire… assez révélateurs.

En effet, il y a une écrasante majorité de réactions négatives. Alors c’est pas contre l’implémentation technique, ni contre l’approche privacy-first de Mozilla. Non, c’est essentiellement contre le simple fait que le mot “IA” existe au sein de Firefox. Certains utilisateurs réclament même un bouton géant “No AI” visible depuis l’espace, pour désactiver une fonctionnalité qui est déjà désactivée par défaut. Ces mecs ont de la fièvre je pense…

Le truc qui m’agace en fait, dans ces réactions teubées, c’est qu’elles passent complètement à côté de l’enjeu stratégique. Chrome intègre Gemini de façon de plus en plus invasive, Edge a Copilot, Arc a son Browse for Me, Perplexity et OpenAI lancent leurs navigateurs IA… Alors si ce bon vieux Firefox reste immobile au sujet de l’IA pendant que tout le monde avance, je vous rassure, il ne deviendra jamais “le dernier bastion de la pureté” qui fait mouiller les anti-IA.

Non, il deviendra juste obsolète.

Réveillez-vous les gars, Mozilla propose exactement ce que les libristes demandent depuis toujours ! Un respect de la vie privée, un contrôle utilisateur total, de la transparence, un fonctionnement en local, des petits modèles, du code libre…etc.

Mais bon parce que c’est de l’IA, ça devient l’ennemi. Faudrait quand même être sacrément con pour saborder la SEULE implémentation IA grand public qui respecte réellement ces principes de liberté et de respect de la vie privée.

Plutôt que de gueuler sur Mozilla, je vous invite plutôt à vous poser cette question : Est ce que vous préférez une IA locale optionnelle dans Firefox, ou une IA obligatoire cloud-only dans Chrome qui aura au final capté 95% du marché parce que Firefox sera mort de n’avoir rien fait ?

Parce que si Firefox disparaît, on perdra le dernier navigateur grand public capable de proposer une alternative respectueuse pour notre vie privée et ça perso, ça m’inquiète.

Nos champions anti-IA n’ont, pour la plupart, même pas remarqué que Firefox proposait déjà des fonctionnalités IA locales depuis le début cette année . Je pense au tab grouping automatique avec suggestions de titres, à la traduction de pages instantanée sans envoyer le contenu hors de votre machine, à la génération d’alt-text pour des images accessibles sans faire de compromis sur la vie privée… Tout ça tourne déjà en local chez vous et pas grand monde ne s’en plaint.

Je pense que c’est parce que Mozilla ne communique pas dessus en mettant des paillettes “AI-powered” partout. Ils font juste leur taf. C’est un peu comme quand je parle d’une super application cross-platform… Suffit que j’écrive que c’est fait en Electron et y’en a qui tombent dans le coma direct. Et cela peu importe que l’app soit folle ou pas. Bref, c’est ridicule.

AI Window sera donc une troisième fenêtre de navigation (en plus des fenêtres classiques et privées), avec un assistant et un chatbot intégré. Mozilla présente ça comme, je cite, “un compagnon de confiance qui améliore votre navigation et vous guide vers le web plus large”, par opposition aux navigateurs IA qui vous enferment dans une boucle conversationnelle pour à terme, je pense vous vendre des trucs et conserver votre attention et vos données perso.

Grâce à Mozilla, vous pourrez choisir votre modèle IA et tout sera “opt-in” comme on dit. Ça veut dire que tout sera en option et rien ne sera activé par défaut. Vous pourrez choisir de l’activer ou non ! Que demande le peuple ? C’est merveilleux non ?

Faut dire que Mozilla a clairement appris de ses erreurs puisqu’ils ne forcent rien, ne pré-activent rien mais construisent tranquillement le meilleur navigateur possible, à la vue de tous (le code est libre, open source et chacun peut contribuer et donner son avis). Après, même comme ça, même en jouant la transparence absolue, ça ne plaira jamais à une certaine petite caste de barbus aveuglés par des idées pré-digérées faciles à comprendre. Tant pis pour eux !

Maintenant, le vrai enjeu pour moi, c’est pas ça, c’est surtout l’ouverture aux développeurs. J’espère vraiment que ces fonctionnalités IA seront accessibles via une API pour les extensions Firefox. Si c’est le cas, on va pouvoir créer des extensions qui s’appuient sur l’IA locale de Mozilla, sans avoir à ajouter un modèle de 500 MB ou à envoyer les données utilisateur dans le cloud. Et ça, j’avoue ce serait trop cool car ça ouvrirait l’écosystème des extensions Firefox à tout un tas de nouvelles extensions “intelligentes” qui respectent la vie privée.

Voilà… je sais que le changement c’est dur les gars, et que ça hérisse les poils de cul de certains pas bien sevrés mais l’IA de Mozilla va apporter des choses intéressantes dans le navigateur, que ça vous plaise ou non. Et si Mozilla ne se met pas à la page, Firefox prendra encore plus la poussière et finira par être délaissé. Et au final, on aura tout perdu et y’aura même plus d’IA qui respecte la vie privée et qui soit accessible au grand public gratuitement.

Voilà… Soyez pas cons. En tout cas, pour ma part, j’ai hâte de tester AI Window quand ça sortira !

Source

ScribeOCR - Corrigez vos erreurs d'OCR directement dans le navigateur (en local)

Par : Korben
14 novembre 2025 à 06:23

Y’a plein d’images et de scans en PDF sur le net ou sur votre disque dur, qui sont difficilement exploitable / indexables parce que la reconnaissance de caractères n’a pas bien fonctionné. L’OCR automatique a par exemple transformé un mot-clé en charabia et c’est illisible. Du coup, ce passage est perdu dans les limbes et impossible de le retrouver avec une simple recherche textuelle. C’est moche.

Faut dire que le problème est réel car quand on numérise des millions de livres avec un OCR à 90% de précision, ça a l’air génial, sauf que les 10% d’erreurs ne sont pas aléatoires. C’est toujours les mêmes confusions qui reviennent : “A” qui devient “H”, “C” qui devient “G”, “22” qui se transforme en “55”. Et pour les documents historiques avec des polices anciennes, c’est encore pire.

Heureusement, il existe un outil gratuit et open source qui tourne dans votre navigateur et qui va vous permettre de corriger ces milliers d’erreurs OCR sans envoyer vos docs sur les serveurs de Google, Microsoft ou je ne sais quoi d’autre. Cela s’appelle ScribeOCR et vous allez l’adorer !

Pourquoi ? Hé bien parce que c’est un éditeur d’OCR open-source qui tourne à 100% dans votre navigateur, donc aucune donnée n’est envoyée sur le net et parce qu’il est capable de corriger toutes les erreurs efficacement ! L’interface affiche le texte OCRisé par-dessus l’image source, comme ça, vous voyez immédiatement où sont les problèmes et vous corrigez tout ça en série.

Et surtout ScribeOCR génère une police custom pour chaque document. Ça vous laisse garder l’apparence originale du doc, tout en ayant un texte parfaitement indexable pour des recherches par exemple. Vous obtenez ainsi un PDF qui ressemble au document d’origine mais où chaque mot est cliquable et cherchable. Bref, c’est super pratique si vous numérisez des archives ou des vieux bouquins.

L’outil supporte plusieurs moteurs OCR dont Tesseract LSTM et Legacy et vous pouvez ajuster les paramètres de reconnaissance selon le type de document : vitesse, qualité, langue…etc. Y’a même des options avancées pour le debug et l’optimisation des polices.

L’outil permet donc de créer des PDF recherchables à partir de scans (c’est le cas classique) mais également de corriger des données OCR existantes, y compris les fichiers HOCR de Tesseract. Et pour numériser complètement des documents ou livres anciens, l’interface de correction vous aidera à faire de l’excellent travail !

Le projet est open-source (licence AGPL-3.0) , ce qui veut dire que vous pouvez l’auto-héberger si vous voulez. Ainsi, pour l’installer en local, c’est très simple :

git clone --recursive https://github.com/scribeocr/scribeocr.git
cd scribeocr
npm i
npx http-server

Mais si vous voulez juste tester, y’a une démo sur scribeocr.com . Vous uploadez votre fichier, vous choisissez votre langue et votre moteur OCR, et hop c’est parti mon kiki.

Et pour les sorties, vous avez le choix : PDF, DOCX, HTML et d’autres formats. Vous pouvez même ajuster les paramètres d’export selon vos besoins. Auto-rotation, optimisation de police, tout est configurable !

Bref, au final ScribeOCR répare ces angles morts bien relou de la numérisation massive de documents sans que vous ayez à sacrifier votre vie privée !

Et ça c’est cool !

jIRCii - Le client IRC qui méprise vos envie de modernité

Par : Korben
14 novembre 2025 à 05:48

L’IRC c’est un classique pour les anciens du net comme moi et même si ça n’a pas techniquement disparu, c’est quand même plus comme avant. Discord, Slack, et compagnie c’est rigolo mais quand même moins roots qu’un bon vieux mIRC par exemple, qui continue d’être maintenu encore aujourd’hui (une nouvelle version est même sortie y’a 2 jours).

Mais il existe également un autre client IRC plus récent, qui assume fièrement son look des années 90 et qui vient de sortir en version 0.9 en juillet dernier. Et il a été créé par Raphaël Mudge, le mec qui a développé Cobalt Strike, l’un des outils de pentest offensif les plus balèzes du marché.

jIRCii est donc un client IRC écrit en Java pour MacOS X, Windows et Linux, développé par Raphael Mudge qui a décidé de snober volontairement Discord, Slack, et tous ces trucs avec des bulles colorées et des GIFs animés de chats. jIRCii tente ainsi de maintenir la culture IRC des années 90, avec un look de terminal Windows, sans fioritures, comme si, je cite : “mIRC et ircii avaient eu un enfant et que BitchX était le vrai père de cet enfant”. Tout un programme.

Et surtout, jIRCii est entièrement scriptable. Et pas avec du Python ou du JavaScript… Plutôt avec Sleep, un langage Perl-like que Mudge a créé lui-même. Y’a même une lib de scripts communautaires dispo ici pour ceux qui veulent. Cela vous permettra par exemple de chiffrer vos messages, d’afficher dans le canal le MP3 que vous êtes en train d’écouter, de jeter des dés pour votre partie de JdR, de faire des recherches Google, ou encore de pouvoir vous connecter automatiquement à différents serveurs avec différents nicknames.

L’IRC redevient ainsi une plateforme programmable comme à l’époque, notamment avec mIRC avec ses scripts .mrc (vous vous souvenez ?). Voilà, si ça vous chauffe parce que vous trainez encore sur IRC, sachez que jIRCii embarque toutes les fonctionnalités qu’on attend d’un client IRC moderne comme :

  • Liste de notification (savoir quand vos contacts se connectent)
  • Complétion automatique (auto-complétion des pseudonymes)
  • Transferts de fichiers DCC (envoi de fichiers direct de pair à pair)
  • Support CTCP (Client-to-Client Protocol pour les commandes étendues)
  • Connexions SSL aux serveurs (connexions chiffrées aux serveurs IRC)
  • Plus de 70 alias intégrés pour automatiser les commandes les plus courantes

Et en plus, 2 thèmes visuels sont proposés. Le thème par défaut avec son look de terminal classique et le thème Analog IRC qui est une variante visuelle du précédent. Et vous pouvez ajouter aussi ceux de la communauté (ou développer le votre)

Bref, vous l’aurez compris, IRC n’est pas mort. Il n’est juste plus dans le vent même si pas mal de communautés tournent encore dessus, et en 2025, jIRCii offre une alternative sympa à WeeChat (TUI pur), HexChat (GTK), ou KVIrc (Qt).

Le site de jIRCii c’est ici !

À partir d’avant-hierFlux principal

Xbox Full Screen Experience Tool - Pour libérer le mode console de Windows 11

Par : Korben
13 novembre 2025 à 10:42

Faut bien le reconnaitre, Microsoft a créé un super mode gaming dans son Windows 11. Une interface console pure avec un contrôle à la manette nickel, pas trop de consommation de RAM, une autonomie batterie boostée, un démarrage plus rapide et j’en passe !!

Ils ont fait un truc vraiment bien puis, comme d’hab ils l’ont verrouillé et réservé à une petite liste d’appareils certifiés. Bah oui, pourquoi améliorer l’expérience gaming de 100% de leurs clients quand on peut la réserver à seulement 2% d’entre eux ? lool

Heureusement, Xbox Full Screen Experience Tool règle ce problème en un clic. C’est un petit outil GUI développé par 8bit2qubit qui déverrouille le mode Xbox Full Screen Experience caché de Windows 11. Desktop, laptop, consoles portables, peu importe…

Le Xbox Full Screen Experience, c’est donc ce mode gaming officiel de Microsoft pour les consoles portables comme les ROG Ally qui propose une interface plein écran pensée d’abord pour jouer. Une fois qu’il est actif, vous bootez direct sur un dashboard qui ressemble à celui d’une Xbox et vos jeux sont tous là, avec tous vos stores intégrés (Xbox, Steam, GOG, Epic, Battle.net, EA), et bien sûr, vous naviguez à la manette sans jamais toucher un clavier !

C’est le pied ! Surtout que ce mode améliore les performances, réduit la consommation mémoire, et optimise la batterie. Bref, de gros avantages qui feraient du bien à TOUS les PC gaming, mais non, faut une certification obligatoire et tout le tralala… Enfin, jusqu’à maintenant ^^ héhé !

Cet outil permet donc de contourner cette absurdité. Il détecte votre type de machine (desktop, laptop, console portable), vérifie votre build Windows 11, et active les bons flags système. Développé en C# avec .NET 8, il utilise ViVeLib pour manipuler les feature flags de Windows et PhysPanelLib pour gérer les infos d’affichage.

Il propose également deux modes d’activation. Le mode recommandé (PhysPanelCS) fonctionne directement et le mode alternatif (PhysPanelDrv) installe un driver kernel léger si le premier ne suffit pas. Notez que sur certaines configs, ce mode nécessite de désactiver temporairement le Secure Boot. Pas parce que c’est dangereux, rassurez-vous mais parce que Microsoft a tellement verrouillé sa propre fonctionnalité qu’il faut un driver kernel juste pour la débloquer.

Voilà, d’après les tests, ce mode Xbox Full Screen Experience libère environ 2 GB de RAM en stoppant des processus Windows inutiles en mode gaming et sur un ordi portable, comme je vous le disais, ça booste l’autonomie. Puis sur un desktop, ça laisse plus de ressources pour vos jeux ! Bref, dans les deux cas, vous êtes gagnants !

Voilà, si ça vous chauffe, c’est à découvrir ici !

Et un grand merci à Lorenper pour le partage !

P2P Media Loader - Le retour discret de BitTorrent dans votre navigateur

Par : Korben
13 novembre 2025 à 10:22

BitTorrent c’était le diable dans les années 2000. Y’a eu des procès, des fermetures de trackers, et une guerre totale contre le piratage . Mais ça reste quand même une belle techno, notamment pour certaines plateformes de streaming un peu niche et solutions d’entreprise qui s’en servent discrètement afin d’économiser des millions en frais de CDN.

Car oui, avec le P2P, c’est vous qui payez la bande passante (en partie) ^^.

P2P Media Loader , c’est son nom est donc une lib JavaScript open source qui utilise WebRTC pour faire du streaming vidéo peer-to-peer directement dans votre browser. Vous regardez une vidéo, votre navigateur se connecte à d’autres viewers et vous échangez des segments vidéo entre vous. En gros, c’est comme BitTorrent, mais en version HTML5.

P2P Media Loader est donc la solution parfait pour réduire les coûts de bande passante des plateformes de streaming. Et tout ça de manière totalement transparente !

Techniquement, ça repose donc sur WebRTC et des trackers (comme BitTorrent) qui permettent aux navigateurs de se trouver entre eux ( y’a une démo ici ). Le projet utilise le protocole de signalisation de WebTorrent, ce qui veut dire que vous pouvez utiliser des trackers publics pour débuter, ou installer votre propre tracker si vous voulez gérer des gros volumes.

Et là, ça devient vraiment intéressant niveau scalabilité car avec un petit VPS à 3,50 €/mois et le tracker wt-tracker , vous pouvez gérer jusqu’à 20 000 viewers en simultané. Et si vous passez sur Aquatic (un tracker écrit en Rust), un serveur dédié 8 cœurs à 10-30€/mois peut tenir une charge de 100 000 viewers en simultané. Et si vous êtes vraiment radin (coucou les Auvergnats), Oracle Cloud offre un tier gratuit avec 4 cœurs ARM et 24 Go de RAM qui peut gérer des pics jusqu’à 100k peers sans rien débourser.

Et pour aller au-delà du million de viewers, il faudra passer sur du sharding (découpage en plusieurs trackers) avec différentes stratégies… Soit par contenu, soit par région géographique, soit par hash… Bref, des techniques classiques de distribution de charge, mais appliquées au P2P.

Le truc cool, je trouve c’est que ça fonctionne aussi bien pour du live que pour de la VOD, et même sur les apps mobiles iOS et Android. D’ailleurs, des projets comme PeerTube l’utilisent déjà pour réduire leurs coûts d’hébergement.

Bref, votre browser devient un mini-CDN en tout discrétion et ça permet aux personnes qui montent des infras de streaming, d’économiser de la thune.

Merci à Letsar pour le partage !

P2P Live Share - Pour coder à plusieurs sans donner son âme à Microsoft

Par : Korben
13 novembre 2025 à 06:53

Vous connaissez Live Share de Microsoft ? C’est un truc génial dans VS Code qui permet de coder à plusieurs en temps réel, de partager des terminaux, de debug ensemble. Sauf qu’il y a un petit détail relou : il faut un compte Microsoft ou GitHub. Et comme par hasard, toutes vos sessions doivent passer par les serveurs de Redmond.

Sympa donc pour la télémétrie.

Heureusement, P2P Live Share fait exactement la même chose, mais en peer-to-peer. Pas besoin de vous créer un compte, ça ne transite par aucun serveur intermédiaire, et surtout Microsoft ne mate pas votre code. Vous donnez simplement l’URL de la session à votre pote, il la colle dans son VS Code, et vous êtes connectés en direct, en P2P les amis, grâce à WebRTC !

Et l’extension fait tout ce qu’on attend d’un outil de collaboration à savoir du partage de code en temps réel, une synchronisation des curseurs, des terminaux partagés, du port forwarding, et même un chat intégré.

Une fois installé, quand vous lancez une session, P2P Live Share génère une URL unique avec un ID de room. Vous envoyez cette URL à votre collègue, il clique sur “Join”, et hop, vous êtes connectés en WebRTC direct.

D’ailleurs, selon la doc officielle , l’extension utilise plusieurs serveurs de signaling pour garantir la connexion : BitTorrent, Firebase, IPFS, Nostr comme ça, si l’un tombe, les autres prennent le relais. C’est du vrai décentralisé et vous pouvez même partager des ports, comme avec avec Live Share classique.

Comme ça, vous lancez un serveur web local sur le port 3000, et votre collègue peut y accéder directement depuis son navigateur. C’est super pratique pour tester une app en développement sans déployer quoi que ce soit.

Le terminal partagé fonctionne aussi très bien ! Vous ouvrez un shell, et votre pote peut taper des commandes dedans en temps réel. Bon, niveau sécurité, faut faire confiance à la personne en face mais c’est le même principe qu’avec Live Share.

Ce projet est open source sous licence MIT , donc vraiment libre et tout est chiffré de bout en bout. Alors oui, c’est moins mature que Live Share et forcément, il y aura des bugs mais au moins, vous ne filez pas votre code à Microsoft !

A découvrir ici !

ByteBot - L'agent IA qui prend le contrôle de votre ordi (mais dans Docker, faut pas déconner)

Par : Korben
12 novembre 2025 à 16:42

Vous saviez que Claude d’Anthropic avait lancé sa fonction Computer Use et OpenAI son Operator ? Eh bien, pendant que ces géants se livrent une bataille sans merci, un projet open source du nom de ByteBot propose de faire tourner un agent IA autonome sur votre machine. Le tout, avec une approche qui devrait rassurer les plus paranoïaques d’entre nous puisque tout se déroule dans Docker.

Le concept c’est qu’au lieu d’accorder un accès direct à votre système à une IA (ce qui pourrait rapidement virer au cauchemar), ByteBot fait tourner un Ubuntu 22.04 complet avec environnement graphique XFCE dans un conteneur. Ainsi, l’IA peut interagir avec cet environnement isolé via VNC et WebSockets, capturer des images d’écran, cliquer, taper du texte… En somme, elle peut faire tout ce que vous feriez, mais dans sa petite bulle sécurisée.

Je vous ai fait une vidéo tuto dessus ! Et c’est grâce aux Patreons qui me soutiennent, alors merci à eux !

Il faut donc lui donner vos instructions en langage naturel… par exemple, vous pouvez lui demander de créer un nouveau repository GitHub ou de rechercher des informations spécifiques sur le web. ByteBot analyse alors votre demande, la décompose en étapes et se met au boulot. Il peut même naviguer sur le web, remplir des formulaires, gérer des mots de passe (stockés de manière sécurisée), et bien sûr exécuter des scripts bash ou Python.

Le truc cool, c’est également le mode “takeover”. Si jamais ByteBot galère sur une tâche ou que vous voulez reprendre la main, vous pouvez directement prendre le contrôle du desktop virtuel. C’est comme faire du pair programming avec une IA, sauf que c’est vous qui corrigez ses bêtises au lieu de l’inverse. Et une fois que vous avez montré comment faire, ByteBot apprend et peut reproduire la tâche plus tard.

Pour l’installer, plusieurs options s’offrent à vous. La plus simple reste Docker Compose. Vous clonez le repo, vous créez un fichier .env avec votre clé API (Anthropic, OpenAI ou Google Gemini au choix), et vous lancez le tout avec un docker-compose up. ByteBot se charge de builder les images, de configurer le réseau bridge pour l’isolation, et de monter les volumes persistants pour garder vos données entre les sessions.

git clone https://github.com/bytebot-ai/bytebot.git
cd bytebot
# Ajoutez votre clé de fournisseur d'IA (choisissez-en une)
echo "ANTHROPIC_API_KEY=sk-ant-..." > docker/.env
# Ou : echo "OPENAI_API_KEY=sk-..." > docker/.env
# Ou : echo "GEMINI_API_KEY=..." > docker/.env
docker-compose -f docker/docker-compose.yml up -d
# Ouvrez http://localhost:9992

Pour les amateurs de Kubernetes, des charts Helm sont également disponibles. Et si vous voulez tester sans vous prendre la tête, Railway propose aussi un déploiement en un clic. Mais franchement, pour un usage perso, Docker Compose fera parfaitement le job.

L’architecture technique est d’ailleus plutôt bien foutue puisque le backend Python gère la communication avec les LLMs et l’orchestration des tâches. Et le frontend React vous donne une interface web pour interagir avec ByteBot et voir ce qu’il fabrique en temps réel. Le tout communique via WebSockets pour une latence minimale. Et le conteneur desktop tourne avec un serveur VNC modifié qui permet à ByteBot de capturer l’écran et d’envoyer des événements souris/clavier.

Ce qui distingue vraiment ByteBot des solutions cloud comme Claude Computer Use, c’est surtout le côté self-hosted et privacy-first. Vos données restent chez vous, l’IA ne peut pas fouiner dans vos vrais fichiers système, et vous gardez un contrôle total sur ce qui se passe. En plus, comme c’est open source, vous pouvez auditer le code, contribuer des améliorations, ou même forker le projet si l’envie vous prend.

Les cas d’usage sont très nombreux : Automatisation de tâches répétitives, tests d’interfaces web, scraping de données complexes, ou même apprentissage par démonstration pour créer vos propres workflows automatisés. J’imagine déjà les possibilités pour automatiser des installations de logiciels, des configurations système, des processus de CI/CD un peu tordus ou juste faire ma compta.. ^^

Niveau limitations, ByteBot reste dépendant de la qualité du modèle IA que vous utilisez. Claude 4 Sonnet semble donner les meilleurs résultats pour l’instant, mais GPT-4 et Gemini Pro fonctionnent aussi. Les tâches nécessitant beaucoup de contexte visuel ou de manipulation précise peuvent encore poser problème. Et évidemment, faire tourner un desktop complet dans Docker consomme pas mal de ressources.

Si vous voulez pousser plus loin, ByteBot expose aussi une API REST complète. Vous pouvez donc créer des tâches programmatiquement, récupérer les logs, gérer les sessions, et même étendre les capacités avec des plugins custom. La doc est bien fournie avec des exemples en Python, JavaScript et même cURL pour les puristes.

from bytebot import ByteBotClient

client = ByteBotClient(api_key="your-key")
task = client.create_task("Effectue une recherche web")
result = client.wait_for_completion(task.id)
print(result.output)

Et pour la sécurité, ByteBot implémente plusieurs garde-fous . Les conteneurs sont isolés du réseau host par défaut, les capabilities Docker sont limitées au strict minimum, et un système de permissions permet de restreindre ce que l’agent peut faire. Vous pouvez même configurer des règles pour bloquer l’accès à certains sites ou empêcher l’exécution de commandes spécifiques.

Un aspect que j’apprécie particulièrement, c’est la gestion des erreurs. Quand ByteBot se plante (et ça arrive !), il génère des rapports détaillés avec captures d’écran, logs des actions tentées, et suggestions pour résoudre le problème. C’est super pratique pour debugger et améliorer vos prompts.

Une bonne petite communauté commence à se former autour du projet. Un Discord actif, des contributions régulières sur GitHub, et même quelques extensions communautaires qui ajoutent le support pour d’autres LLMs ou des intégrations avec des outils comme Zapier ou n8n. Bref, c’est un projet qui évolue vite, avec des releases toutes les deux semaines environ.

Comparé à ses concurrents, ByteBot se positionne vraiment sur le créneau open source et self-hosted là où OpenAI et Anthropic proposent des solutions cloud propriétaire. C’est, si vous préférez, le Nextcloud des agents IA autonomes.

Après pour ceux qui s’inquiètent des implications éthiques et de sécurité de laisser une IA contrôler un ordinateur, ByteBot apporte à cela des réponses pragmatiques. L’isolation Docker, le mode takeover pour reprendre la main, et la possibilité d’auditer chaque action effectuée permettent de garder un œil sur ce que fait l’agent. C’est bien sûr loin d’être parfait, mais c’est un bon compromis entre automatisation et contrôle.

Donc si vous êtes du genre à automatiser tout ce qui peut l’être, ByteBot mérite vraiment le coup d’oeil. C’est encore un peu but sur les bords, mais le potentiel est énorme. Pour aller plus loin, je vous invite à consulter la documentation complète ici , et le code source sur GitHub .

NoLongerEvil - Un nouveau souffle pour les thermostats NEST

Par : Korben
11 novembre 2025 à 09:42

Vous vous souvenez quand Google avait pour devise “Don’t Be Evil” ?

Hé bien, ils ont tellement bafoué sur leurs valeurs qu’un hacker vient de sortir un firmware appelé “No Longer Evil” pour ressusciter les thermostats Nest que Google vient également d’assassiner froidement.

En effet, le 25 octobre dernier, Google a coupé le support technique de ses thermostats Nest Gen 1 et Gen 2. Plus d’app, plus de contrôle à distance et plus d’intégrations smart home… Les thermostats continuent de chauffer selon les presets enregistrés, mais tout le reste est mort. Du coup, Google vous propose gentiment d’upgrader vers la Gen 4 à 149,99 dollars au lieu de 279 euros… Presque 50% de réduc, comme c’est généreux !

Cody Kociemba , le développeur derrière le projet collaboratif Hack/House, a décidé que non et c’est pour cela qu’il a lancé NoLongerEvil , un firmware custom qui redonne vie aux Gen 1 et 2.

Ce firmware modifié intercepte la couche de communication du thermostat comme ça, au lieu de parler aux serveurs Google, il redirige tout le trafic vers un serveur qui héberge une réplique de l’API Nest, développée par reverse engineering. Votre thermostat croit donc toujours qu’il cause avec Google, mais en réalité il parle à nolongerevil.com . Et vous, vous retrouvez le contrôle à distance, les réglages fins, et tout et tout sans Google dans la boucle.

L’installation passe par le bootloader OMAP en mode DFU. Vous flashez trois composants : x-load.bin (first-stage bootloader), u-boot.bin (second-stage bootloader), et uImage (kernel Linux). Vous aurez donc besoin d’un ordi Linux ou macOS, d’un câble USB, et d’au moins 50% de batterie sur le thermostat. Windows marche théoriquement avec MingW ou CygWin, mais les retours sont mitigés pour le moment…

Le mec a même reçu 15 000 balles de la part de la FULU Foundation qui “crowdfunde” des récompenses pour les développeurs qui libèrent des appareils proprios. Bien joué !

Et l’intégration Home Assistant est prévue dans son projet. Le firmware backend et l’API server seront d’ailleurs open sourcés bientôt donc chacun pourra aussi héberger son serveur. Kociemba prévient quand même que son projet est hyper expérimental donc ne flashez pas un thermostat qui serait critique pour votre chauffage parce que si ça foire, vous allez vous les geler cet hiver ^^.

En tout cas, maintenant les propriétaires de Nest Gen 1 ou 2 ont maintenant le choix de garder leur matos pleinement fonctionnel ! Et ça c’est cool !

Source

Reins - Un Ollama sur mobile sans faire tourner Ollama sur mobile

Par : Korben
11 novembre 2025 à 07:23

Vous voulez utiliser Ollama sur votre iPhone ou Android pour lancer vos petits LLM en local ? Ce serait super cool non ? Bah j’ai une mauvaise nouvelle pour vous… votre smartphone n’a pas assez de mémoire vive pour faire ça…

Le problème est simple… les LLM bouffent un max de RAM. Par exemple, un LLaMA 7B, c’est dans les 12 GB de RAM. Et même quantifié en int4 pour gagner de la place, vous tombez à environ 3,5 GB. Et ça, c’est juste le modèle hein… Faut y ajouter le contexte, l’OS, les autres apps, et votre smartphone à 8 GB de RAM commence à suer de la raie.

Google a bien sûr sorti Gemini Nano pour Android, leur petit LLM optimisé pour mobile mais c’est compatible avec une poignée de smartphone car il faut un NPU dédié, assez de RAM, et une architecture très récente. Les autres, vous irez vous faire voir…

Du coup, une solution “pragmatique”, c’est de laisser votre Mac, votre PC, ou un petit serveur faire tourner Ollama chez vous, et d’utiliser votre smartphone comme simple client pour vous y connecter à distance. Vous gardez vos données locales, vous profitez de toute la puissance des modèles lourds, et votre iPhone ne chauffe pas comme un radiateur.

Et pour ça, il existe tout un tas d’apps mobiles qui font office de client Ollama. Des apps comme Enchanted sur iOS, My Ollama , Heat , et même les solutions cross-platform comme Ollamb codé en Flutter. Et aujourd’hui, je vous parle de Reins , une app développée par Ibrahim Cetin qui se démarque par des fonctionnalités que j’ai trouvées bien pensées.

Les fonctionnalités sont conçues pour des cas d’usage du monde réel. Vous pouvez ainsi définir un prompt system différent par conversation ce qui est pratique si vous avez un chat pour le code, un pour l’écriture, un pour la traduction et j’en passe… Vous éditez et régénérez les prompts à la volée et vous pouvez changer de modèle en cours de conversation sans tout perdre.

Reins supporte également l’envoi d’images, ce qui est utile si vous utilisez un modèle vision comme LLaVA. Vous pouvez aussi tweaker les paramètres avancés tels que la température, seed, taille du contexte, tokens max…etc. Et le streaming fonctionne en temps réel, comme ça pas besoin d’attendre une réponse complète avant de la voir.

Bien sûr, la question de la sécurité se pose. Il faut quand même exposer votre serveur Ollama sur Internet pour y accéder de l’extérieur donc pensez HTTPS obligatoire, tunnel ngrok temporaire si vous testez, VPN Tailscale ou Wireguard si vous voulez du permanent et sécurisé. Bref, les précautions classiques.

Vous pouvez télécharger Reins sur l’App Store, en APK ou récupérer les builds macOS/Linux sur GitHub .

Merci à Lorenper pour l’info.

Dead Domain Discovery DNS - Une veille mortuaire pour les domaines

Par : Korben
10 novembre 2025 à 08:57

Vous naviguez sur le web en mode pépouze comme tous les jours… Et comme tous les jours, votre navigateur charge des scripts, des CSS, des cookies, des images, parfois des iframes. Et malheureusement, certains de ces trucs viennent de domaines qui n’existent plus. Vous ne vous en rendez pas compte et votre navigateur non plus. Mais Dead Domain Discovery DNS le sait, lui. Et il va vous le dire.

Dead Domain Discovery DNS , c’est un outil créé par Lauritz Holtmann , un chercheur en sécurité allemand et c’est un DNS forwarder UDP super léger codé en Python qui écoute sur le port 53 de votre ordinateur et note tous les domaines qui ne répondent plus. Ce n’est donc pas un scanner actif mais plutôt un observateur passif qui regarde passer les requêtes DNS et repère les morts.

Vous configurez Dead Domain Discovery comme votre serveur DNS primaire comme ça, toutes vos requêtes DNS passent par lui. Il forward ensuite ça vers un resolver upstream, genre Google DNS ou Cloudflare. Si un domaine ne résout pas, il réessaye sur un resolver secondaire mais si le secondaire échoue aussi, il marque alors le domaine comme “potentiellement mort” puis toutes les 15 secondes, il vous envoie un message contenant les nouveaux domaines HS découverts.

Les notifications partent sur Telegram, par email, ou via un webhook selon ce que vous voulez. Rassurez-vous, y’aura pas de fausse alerte à répétition puisqu’un domaine notifié une fois ne l’est plus pendant un certain temps.

L’intérêt pour les chercheurs en sécurité, c’est que les domaines morts sont une surface d’attaque intéressante. Un domaine expire, quelqu’un d’autre le réenregistre mais comme les enregistrements DNS qui pointaient vers l’ancien propriétaire existent toujours, ça ouvre des portes pour mettre en place des sous-domaines, des CNAME, charger des scripts externes autorisés…etc car tout continue de pointer vers le domaine mort. Ça permet de contrôler une partie du trafic autorisé.

Cette attaque est connue et s’appelle le subdomain takeover ou domain hijacking. Par exemple en 2024, l’attaque Sitting Ducks a mis plus d’un million de domaines à risque , exploitée par des cybercriminels russes. Et début 2025, des domaines expirés ont permis de contrôler plus de 4000 backdoors sur des systèmes gouvernementaux, académiques et privés. La campagne SubdoMailing a même utilisé plus de 8000 domaines légitimes pour envoyer des emails de phishing, en exploitant leur réputation pour contourner les filtres anti-spam. Donc autant vous dire que c’est un vrai problème…

Dead Domain Discovery vous aide donc à trouver ces domaines avant qu’un attaquant ne le fasse. Ensuite, si le domaine est réenregistrable, vous avez 2 options. Soit vous le réenregistrez vous-même pour sécuriser votre infrastructure, soit vous signalez le problème au propriétaire du site qui référence ce domaine HS.

L’infra recommandée par Lauritz pour faire tourner Dead Domain Discovery est un Raspberry Pi configuré comme DNS primaire de votre réseau. Faible conso, c’est toujours allumé, et ça permet de tout surveiller en continu. Mais vous pouvez aussi le déployer sur un VPS si vous voulez monitorer un réseau distant.

Notez que les notifications Telegram nécessitent un bot API token et un chat ID. L’email passe par du SMTP classique et les webhooks acceptent des headers personnalisés, ce qui est pratique si vous voulez intégrer ça dans votre système de monitoring existant.

L’outil dispose aussi d’une extension Chrome qui fais la même chose et scanne les pages web pour iframes, scripts et autres styles externes, puis vérifie si leurs domaines résolvent. Même auteur, même principe, mais côté navigateur. L’extension utilise l’API Google DNS pour vérifier les domaines et ne communique aucune donnée à son auteur. Vous scannez, vous voyez les morts au combat, et ensuite, vous pouvez agir.

Bref, vous l’aurez compris, Dead Domain Discovery ne vous protègera pas directement mais vous dira juste quels cadavres traînent dans votre réseau.

À vous ensuite de les enterrer comme il se doit.

SARCASM - Ce robot résout un Rubik's Cube en vous insultant

Par : Korben
5 novembre 2025 à 11:04

En mai de cette année, des étudiants de Purdue ont battu le record du monde du robot résolveur de Rubik’s Cube grâce à leur machine, Purdubik’s Cube qui a torché un cube en 0.103 secondes !! Plus rapide que moi mais surtout plus rapide qu’un clin d’œil !

Et pendant ce temps, un autre passionné de Rubik’s Cube, Vindar , bossait tranquillement sur SARCASM , un autre robot qui résout aussi des Rubik’s Cubes, sauf que lui, il prend son temps ! Et surtout, il vous clashe pendant qu’il le fait. Il a une voix, des animations, un système d’humeur, et une personnalité de collègue insupportable ! Il est lent, il est sarcastique, il est inutilement compliqué, et c’est exactement pour ça qu’il est génial, vous allez voir !

SARCASM, ça veut dire Slightly Annoying Rubik’s Cube Automatic Solving Machine . Déjà rien que le nom c’est tout un programme. Et ce robot n’a qu’un seul objectif : résoudre des cubes en étant légèrement casse couilles. Pas hyper rapide, pas hyper efficace, juste chiant ce qu’il faut.

Le projet a démarré pendant COVID, quand tout le monde était enfermé chez soi à chercher des trucs à faire. Certains comme moi ont fait de la brioche, d’autres ont regardé Netflix en boucle et Vindar, lui, s’est dit qu’il allait créer un robot qui insulte les gens. Et nous voilà, 5 ans avec un robot qui vanne. Oui, Vindar est du genre persévérant !

Techniquement, SARCASM est un concentré de tech aussi cool qu’absurde. Le cerveau, c’est un Teensy 4.1, un microcontrôleur ARM Cortex-M7 qui tourne à 600 MHz. Pour la vision, il a utilisé une ESP32-CAM qui capture l’état du cubeet un écran ILI9341 pour afficher une tête avec des animations lip-sync. Des moteurs pas à pas (je crois que c’est comme ça qu’on dit ^^) et des servos pour manipuler le cube, des capteurs de position, un chouette éclairage RGBW, deux batteries 18650 Li-ion avec un port de charge USB-C et il a calé tout ça dans un boîtier imprimé en 3D avec un PCB custom.

Mais le logiciel les amis, c’est là que ça devient vraiment foufou car y’a du text-to-speech avec espeak-ng, des graphiques 2D et 3D custom, des animations qui bougent en temps réel et même comme je vous le disais, un système de dialogues basé sur l’humeur du robot, avec randomisation pour que chaque interaction soit différente.

Evidemment, SARCASM dispose aussi d’un algorithme de résolution du cube avec du décodage JPEG en temps réel pour la reconnaissance des couleurs, du multithreading avec gestion d’interruptions, bref, tout ce qu’il faut pour résoudre des Rubik’s Cube et créer une personnalité à cette machine.

Le robot détecte même quand vous vous foirez en manipulant le cube, juste pour pouvoir vous clasher dessus. Chaque détail technique sert un seul objectif qui est de rendre cette machine “vivante”.

Pour faire tenir tout ça, Vindar a dû modifier le noyau du Teensy. Parce que oui, même avec 600 MHz et un ARM Cortex-M7, il fallait optimiser pour que tout rentre dans la RAM et il a mis tout son code en open-source, sous licence GPL-3.0. Après, comme le précise le dev, son code est incomplet et bordélique mais bon, ça fonctionne…

Et surtout, le robot est autonome. Vous posez un cube standard dessus, il le scanne, il calcule, il résout, tout ça offline sans API ou service de cloud.

Le projet a été présenté en détails sur le forum PJRC , la communauté autour des cartes Teensy et les retours sont unanimement positifs ! Puis au moment, celui-là on s’en souviendra !

Merci à Lorenper pour le partage de cette découverte !

Comment transformer votre Raspberry Pi en passerelle SMS avec RaspiSMS ?

5 novembre 2025 à 09:00

En suivant ce tutoriel, découvrez comment transformer votre Raspberry Pi en passerelle SMS avec RaspiSMS, une solution gratuite disposant d'une API.

The post Comment transformer votre Raspberry Pi en passerelle SMS avec RaspiSMS ? first appeared on IT-Connect.

LADA - L'IA qui dé-pixelise les aubergines

Par : Korben
27 octobre 2025 à 14:50

Vous connaissez l’Article 175 du Code Pénal japonais ?

Non ? Hé bien croyez le ou non, mais c’est une loi de 1907 qui interdit les représentations explicites d’appareils reproducteurs. Les japonais sont des anges, ils n’ont ni zézette, ni pépette ^^. Du coup, tous les films adultes japonais sont pixelisés depuis plus d’un siècle. 118 ans que ça pixelise à tout va mais LADA vient de sortir et va changer cela ! En fait c’est une IA open source qui retire la pixelisation sur les vidéos.

Mais avant, revenons un peu sur cette loi bizarre. L’Article 175 date de la période Meiji, et il classe comme obscènes les représentations explicites d’organes génitaux. Cette définition légale de l’obscénité, c’est donc du contenu qui excite sexuellement, offense la pudeur, et viole les concepts moraux. Et les sanctions sont assez élevées : 2 ans de prison et 2,5 millions de yens d’amende. Du coup, tous les studios auto-censurent leurs productions à base de pixelisation, floutage, barres de censure et j’en passe. Leur traditionnelle mosaïque, n’est donc pas une coutume, mais un moyen de contourner cette loi centenaire.

C’est pour cela qu’ un dev anonyme a sorti LADA , un outil Python open source qui retire la pixelisation des vidéos. Vous prenez une vidéo JAV censurée (Japanese Adult Video), vous la passez dans LADA, et l’IA détecte alors les zones pixelisées et les restaure. Et tout cela en temps réel si vous avez un bon GPU ou via un export si vous êtes plus patient.

Techniquement, LADA utilise deux types de modèles IA . Le premier pour la détection et le second pour la restauration. Plusieurs déclinaisons des modèles sont dispo si vous voulez plus de précision ou de qualité… Et pour les faire tourner, vous avez besoin d’un GPU Nvidia CUDA, idéalement une RTX 20xx ou plus récent, avec 4 à 6GB de VRAM pour du 1080p. Et pour les fans de 4K, comptez 6 à 8GB de RAM.

Après au niveau des résultats, c’est assez aléatoire. Parfois ce sera bien, parfois ce ne sera pas foufou(ne).

Et sinon comme ça s’installe ? Et bien ce sera via Flatpak pour Linux via Flathub , Docker en CLI si vous aimez les conteneurs, ou en décompressant l’archive .7z standalone sur Windows.

Y’a une interface CLI pour les puristes, une GUI pour les autres puis vous chargez votre vidéo, vous choisissez vos modèles de détection et restauration, vous lancez, et ça traite. Vous pouvez regarder ensuite le résultat (en temps réel si votre GPU suit).

Maintenant, concernant la légalité de la dé-censure, j’imagine que c’est OK si c’est pour une utilisation personnelle hors du Japon. Par contre, si vous êtes au japon, interdiction d’utiliser ce truc évidemment !

Merci à ce coquin de Lorenper pour la découverte 🙏

Duke Nukem: Zero Hour enfin décompilé !

Par : Korben
24 octobre 2025 à 10:40

Duke Nukem a sauvé le Far West de 1848, le futur post-apocalyptique et le Londres victorien de 1888, mais pendant 26 ans, il est resté coincé dans la prison ultime : une cartouche Nintendo 64 dont personne n’avait le code source.

Vous connaissez très probablement Duke Nukem 3D, le FPS culte de 1996 avec ses répliques iconiques et son humour trash, mais vous avez peut-être oublié Duke Nukem: Zero Hour, sorti en 1999 sur N64. C’était un jeu assez différent puisqu’il s’agissait d’un TPS (third-person shooter) développé par Eurocom, où Duke devait voyager dans différentes époques pour sauver le monde. Le concept était sympa, la réalisation correcte, mais c’est un jeu qui a été complètement éclipsé par les Perfect Dark et autres Goldeneye de l’époque. Snif !

Il était donc temps de le faire revenir dans le présent ! Et c’est ce qu’a fait Gillou68310 qui vient après des années de travail, de terminer la décompilation complète de Duke Nukem: Zero Hour . 100% du code machine original a été reconverti en code source C lisible et modifiable.

Le projet est sur GitHub et on y retrouve à la fois la version US et la version française du jeu et grâce à cette décompilation complète, d’autres développeurs peuvent maintenant bosser sur un port PC natif du jeu. Soit avec une approche custom comme le Ship of Harkinian (le port PC de Zelda: Ocarina of Time), soit via N64 Recomp , un projet dont je vous ai déjà parlé plusieurs fois.

Cet outil développé par Wiseguy peut transformer du code N64 en code C natif en quelques secondes (contre des années pour une décompilation traditionnelle) et avec cette décompilation de Zero Hour terminée, la route est toute tracée pour un portage rapide avec support des mods, du ray tracing via RT64 et même de la 4K.

Alors oui, Zero Hour n’était pas le meilleur jeu N64 de l’histoire c’est sûr, mais c’était un Duke Nukem oublié, avec des mécaniques intéressantes et une direction artistique sympa pour l’époque. Et grâce au boulot de Gillou68310 et de la communauté, il va pouvoir s’échapper de sa cartouche et rejoindre notre époque dans les meilleures conditions !

Pour ceux que ça intéresse, le repo GitHub est disponible ici mais attention, vous aurez besoin de votre propre ROM du jeu pour extraire les assets et compiler (c’est légal uniquement si vous possédez le jeu original).

Source

Installez immich, l’alternative open source à Google Photos et iCloud Photos

23 octobre 2025 à 18:00

Ce tutoriel explique comment installer et configurer immich, une alternative open source et self-hosted à des services comme Google Photos et iCloud Photos.

The post Installez immich, l’alternative open source à Google Photos et iCloud Photos first appeared on IT-Connect.

WinBoat - Lancez des applications Windows sous Linux comme si elles étaient natives

Par : Korben
20 octobre 2025 à 11:32

Les Linuxiens ont beau dire que Linux peut TOUT faire, ils gardent presque tous un dual-boot ou une VM Windows planquée quelque part pour lancer Photoshop ou remplir une page web administrative qui plante sous Firefox. C’est ça la définition du déni, les amis ^^.

Alors bien sûr, y’a Wine qui existe depuis plus de 20 ans, mais bon faut bidouiller des préfixes, installer des DLL manquantes, fouiller sur WineHQ et au final, c’est toujours du rafistolage à se taper.

Alors comme le fait Winapps , il y a aussi WinBoat , un outil capable de faire tourner un Windows dans un container Docker. Pas d’émulation, pas de traduction d’API, pas de prière à saint Wine pour que votre app se lance. Ça lance de vraies apps Windows !

Techniquement, WinBoat utilise donc Docker et KVM pour faire tourner Windows dans un container. Electron gère l’interface, FreeRDP se connecte à Windows via le protocole RemoteApp, et vos apps Windows apparaissent comme des fenêtres normales sur votre bureau Linux.

Vous cliquez sur une icône, hop, l’app se lance, et vous oubliez qu’il y a une VM qui tourne en arrière-plan.

L’installation de Windows est également automatisée. Vous lancez WinBoat, ça télécharge et configure tout, tout seul, et après c’est prêt. L’intégration filesystem permet d’accéder vos fichiers Linux depuis les apps Windows et le passthrough USB et smartcard fonctionne, ce qui règle le problème des signatures électroniques pour les démarches administratives dont je parle un peu plus haut.

Photoshop, Illustrator, InDesign, c’est clair que ces apps ne tourneront jamais correctement sous Wine parce qu’Adobe n’a jamais pensé son code pour être portable alors qu’avec WinBoat, elles tournent. Office 365 aussi, pour les boîtes qui imposent Teams et SharePoint. Ah et Affinity Photo pareil ça roule impecc aussi.

WinBoat assume quand même ses limites dès le départ car y’a pas de passthrough GPU pour le moment, donc les apps lourdes en 3D rameront. Pas de support non plus des jeux avec anti-cheat, mais le Steam Deck fait ça mieux de toute façon. Et notez qu’il vous faudra minimum 4 Go de RAM rien que pour WinBoat, parce qu’un Windows léger ça n’existe pas !

Le projet est open source sous licence MIT, gratuit, dispo en AppImage, .deb, .rpm, ou via AUR pour Arch. Docker CLI est obligatoire, mais pas Docker Desktop et FreeRDP 3.x.x avec le support son aussi. KVM aussi doit être activé sur votre système.

Bref, WinBoat c’est comme Winapps, très sympa à tester car ça marche très bien même si les perfs ne seront jamais celles d’un Windows natif. C’est dispo sur GitHub avec toute la doc si ça vous chauffe.

Merci à Lorenper pour le soft.

Vault - L'app open source qui collecte vos liens, notes et images

Par : Korben
17 octobre 2025 à 18:16

Fin de journée, c’est presque le week end et en plus les vacances scolaires sont là ! Mais je ne pouvais pas finir ma journée sans vous parler de Vault. Vault c’est une application Electron pour Mac, Windows et Linux qui vous permet de sauvegarder vos liens, vos notes et vos images à 100% en local sur votre machine.

Vous installez l’app, vous créez un ou plusieurs “coffres” (des dossiers qui organisent votre contenu), et vous commencez à sauvegarder tout ce qui vous intéresse. L’app extrait automatiquement les métadonnées des liens que vous lui donnez, le temps de lecture estimé, les infos produit si c’est une page e-commerce, et comme ça, tout reste bien organisé dans votre interface.

Vault propose aussi une extension navigateur pour Chrome, Firefox et dérivés. Comme ça, si vous tombez sur un article intéressant, hop, un clic et c’est sauvegardé directement dans votre coffre local. Et pas besoin d’ouvrir l’app, car l’extension communique directement avec elle en arrière-plan.

Ce qui me plaît dans cette approche, c’est qu’on revient aux bases. Rien n’est stocké en ligne, et si vous gérez bien vos sauvegardes, tout restera chez vous ad vitam eternam ! Après comme y’a pas de synchro native entre vos appareils, si vous bossez sur deux ou trois machines différentes, faudra gérer ça à la main avec un Dropbox ou iCloud Drive en plaçant vos coffres dans un dossier synchronisé. Mais bon, on peut pas tout avori dans la vie.

L’app supporte le Markdown pour vos notes, ce qui est sympa si vous aimez écrire en texte formaté et vous pouvez importer vos bookmarks depuis Chrome en deux clics, et exporter vos coffres pour les partager ou les archiver.

Le projet est open source sous licence MIT et est dispo ici .

Vault ne va pas changer votre vie mais c’est une app qui fait ce qu’on lui demande, sans chichi, sans tracking, sans casser les pieds et ça, moi j’adore !

Si vous disparaissiez demain, qui s'en rendrait compte ?

Par : Korben
17 octobre 2025 à 15:45

Question flippante, hein ?

Vous postez des stories Instagram, vous faites des snaps, des TikToks, en bon nazi vous likez des tweets, vous répondez à des emails pro…etc. Votre vie numérique ronronne comme un chat sous coke mais si demain, tout ça s’arrêtait…? A votre avis, Combien de temps avant que quelqu’un ne toque à votre porte pour vérifier que vous allez bien ?

Un jour ? Deux jours ? Une semaine ?

On est tous hyperconnectés 24/7 mais personne ne surveille vraiment notre silence et vos 500 meilleurs amis de Facebook ne prendront jamais la peine de signaler votre disparition.

C’est de ce constat un peu morbide qu’est né Wellness Ping, un projet open source développé par micr0 et hébergé sur GitHub qui fonctionne comme ceci : Vous vous inscrivez dessus, et vous recevez un email régulier pour confirmer que vous allez bien. Si vous ne répondez pas, vos contacts d’urgence sont alors automatiquement alertés.

C’est ce qu’on appelle un dead man’s switch, le joujou préféré des cons de terroristes qui se font exploser dans les films des années 80. En gros, tant que vous confirmez votre présence, tout va bien mais si le silence se prolonge, l’alarme se déclenche.

Vous pouvez l’auto-héberger vous-même ou utiliser directement le site wellness-p.ing (C’est gratuit). Vous choisissez alors la fréquence des pings, soit quotidien ou hebdomadaire, selon votre niveau de paranoïa ou de solitude et quand vous recevez l’email, vous cliquez sur un lien ou vous répondez “PONG” et c’est tout. Pas de dashboard compliqué, pas de machins de gamification débiles…

Et si vous ne répondez pas parce que vous êtes coincé au chiottes depuis 3 jours, le système vous envoie un rappel. Si vous ne répondez toujours pas, il attend encore un peu. Et si le silence persiste, vos contacts d’urgence reçoivent alors automatiquement une alerte.

C’est clairement fait pour activistes, les journalistes, les chercheurs, et les gens qui vivent seuls. Bref, tous ceux dont la vie pourrait basculer sans que personne ne s’en rende compte immédiatement. Je pense pas exemple à tous ceux qui bossent en remote et qui n’ont pas de collègues pour remarquer leur absence.

Au Japon, il y a un mot pour ça d’ailleurs. Ils disent kodokushi pour “Mort solitaire” car là bas, des milliers de personnes par an meurent seules chez elles, et on ne les découvre que des jours ou des semaines plus tard. C’est d’ailleurs souvent parce que les voisins sentent que ça schlingue ou parce que le courrier s’entasse sous la porte. Je sais, c’est gore mais c’est la triste réalité.

Avec Wellness Ping on inverse donc la logique… Au lieu d’attendre que quelqu’un remarque votre absence, vous créez un système proactif où vous choisissez les contacts, vous qui décidez de la fréquence et comme ça, si un jour vous ne pouvez plus répondre, le filet de sécurité se déploie automatiquement.

Côté technique, le projet est développé en Go donc c’est léger, rapide, et la démo tourne sur un serveur en Suède parce que ce pays a une législation stricte sur les données personnelles.

Bref, c’est Wellness Ping, c’est une idée simple mais qui protège alors pensez-y !

Nativemind - IA 100% locale dans votre navigateur web

Par : Korben
13 octobre 2025 à 10:40

Vous payez 20 balles par mois pour que ChatGPT vous dise “bonjour” ? Vous attendez 5 secondes qu’une réponse revienne du cloud d’Anthropic ? Vous avez l’impression de louer votre intelligence artificielle comme vous louiez vos MP3 sur iTunes à la grande époque ?

Et bien j’ai une excellente nouvelle qui va vous plaire !! Il existe une extension de navigateur qui fait tourner de l’IA en local, sur votre machine, sans envoyer un seul octet dans le cloud. Ça s’appelle NativeMind et c’est du 100% local.

Vous installez l’extension sur Chrome, Firefox, Brave ou Edge, vous installez Ollama ou vous utilisez WebLLM directement dans le navigateur. Ensuite, vous téléchargez un modèle (DeepSeek, Qwen, Llama, ce que vous voulez) et c’est tout. Vous avez maintenant votre IA personnelle qui tourne sur votre laptop sans rien demander à personne, et accessible directement sur votre navigateur.

Le projet est open-source sous licence AGPL v3.0 et NativeMind supporte deux backends : Ollama, qui est recommandé si vous voulez de vraies performances et un contrôle total sur vos modèles ou WebLLM si vous voulez juste tester sans installer quoi que ce soit, directement dans le navigateur via WebAssembly.

Ollama c’est donc clairement la meilleure option. Vous lancez le serveur en local, il expose une API, et NativeMind s’y connecte. Vous pouvez faire tourner DeepSeek, qui est gratuit et open-source, et avoir des performances comparables à GPT-4, sans payer un centime de plus !

Vous pouvez ensuite lui demander de résumer n’importe quelle page web, de traduire un texte en gardant la mise en page intacte, d’analyser un PDF ou une image et même d’écrire pour vous !! Il est également capable de faire des tâches multi-étapes comme un agent le ferait.

Bref, tout ce que fait ChatGPT, mais sans que vos prompts partent sur les serveurs de Sam Altman.

Alors c’est moins immédiat que ChatGPT, je vous l’accorde et faut installer des trucs, mais une fois que c’est en place, vous êtes tranquille et surtout y’a pas de limite en terme de tokens ou de forfait… Puis vos données ne s’échappent pas.

Voilà, donc si vous voulez utiliser un peu d’IA pour comprendre des trucs sur des pages web, reformuler des mails que vous envoyez, générer des tweets à partir d’un contenu…etc, Nativemind est fait pour vous ! C’est largement suffisant pour des besoins d’IA classiques.

Rendez-vous sur le dépôt Github pour plus d’infos et sur le site officiel pour télécharger les extensions.

❌
❌