Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 13 mai 2024Flux principal

Quelles extensions IA récoltent le plus vos données ?

Par : Korben
13 mai 2024 à 05:21

Bannière Incogni

— Article en partenariat avec Incogni

Salut les amis, j’espère que vous profitez bien de ce printemps dégueulasse avant la période trouble de la fin d’année scolaire qui arrive. De mon côté, comme vous l’avez remarqué je charbonne pas mal en ce moment avec un rythme de publication assez poussé. Le site a 20 ans et presque toutes ses dents … la seconde jeunesse n’est pas un mythe. Et je vous teste du coup pas mal d’outils IA variés et éclectiques. L’occasion de rappeler que tout n’est pas (p)rose au pays du prompt.

Récemment je vous ai mis en garde sur les pratiques des applications d’achat de vêtements, les applis destinées aux enfants et même les voitures intelligentes. Vous pensiez que ce serait difficile de faire pire ? Et bien, détrompez-vous, car avec la mode de l’Intelligence artificielle, il semble « normal » de voir naitre des outils destinés à récolter un max d’informations personnelles à notre propos. Surtout si ce sont des extensions qui tournent sur Google Chrome (que vous devriez avoir remplacé par Firefox ou par Brave au minimum depuis 1974).

Si vous touchez à l’IA, vous savez qu’elles sont capables de rendre d’énormes services et de vous faire gagner du temps. Le souci c’est que cela les rend d’autant plus alléchantes à installer et à utiliser. Et leurs concepteurs l’ont bien compris. Les chercheurs d’Incogni ont donc passé au grill plus de 70 extensions Chrome pour voir si le résultat est catastrophique. Ou tout du moins qui s’en sort le moins bien et qui récolte quoi à votre propos.

Et l’état des lieux est … cata. Encore plus que pour les catégories précédemment citées. Ici ce sont pas moins de 70% des apps qui sont problématiques, mais qui en plus sont considérés à risques élevés. Par exemple 100% des extensions dédiées à l’écriture assistée par IA sont concernées (ouch). 60% récoltent vos données personnelles et surtout 44% récupèrent des infos qui peuvent vous identifier directement (adresse mail, téléphone, nom et prénom …). Du pain béni pour les data brokers.

Du côté des permissions demandées, sans surprises, ce sont les extensions de type assistant personnel qui se gavent le plus. Habitudes de surf, historique web, localisation, identifiants de connexions … certaines peuvent même aller jusqu’à injecter du code JavaScript dans les pages que vous utilisez, avec tous les risques que cela comporte. Parmi les apps inspectées, de grands noms comme Grammarly, Quillbot, Jasper ou WebChatGPT. Est-ce que ce sera utilisé à vos dépens ? Qui sait. Si vous voulez creuser les données, c’est par ici.

Bref, l’IA ne déroge pas à la règle habituelle du web : lorsqu’une nouvelle technologie débarque, c’est toujours un peu le far-west. Et pour se protéger un minimum il n’y a pas tant d’outils que ça, d’ou l’utilité d’un service comme Incogni.

En limitant la durée de rétention de données personnelles stockées chez les data brokers, Incogni contribue à renforcer votre confidentialité en ligne et à réduire votre exposition. L’outil ne peut pas empêcher ce genre d’applications de récupérer vos infos (il n’y a que vous qui pouvez le faire en étant très attentif à votre comportement en ligne, en n’installant rien d’inutile, etc.). Par contre il va empêcher les brokers qui achètent ou se procurent votre profil de l’utiliser et le revendre.

Via une interface simple à prendre en main, l’outil de Surfshark va servir d’intermédiaire. Il va analyser sa liste de courtiers sous surveillance (environ 200), voir si vous apparaissez dans leurs bases et si c’est le cas leur envoyer un mail pour demander un retrait. Et relancer sans arrêt jusqu’à ce que le broker effectue la suppression. En plus de voir l’avancée des étapes sur votre compte, vous pouvez aussi connaitre le niveau de dangerosité des différents brokers. Un retour sur mon test personnel est à lire ici.

Il fait aussi du suivit long terme. Donc dès qu’un vilain pas beau vous a effacé, vous savez que c’est pour de bon (s’il tente un coup en scred il sera rappelé à l’ordre). Et savoir qu’il ne fera plus d’argent sur votre dos est toujours une petite satisfaction. Le prix du service reste inchangé, vous pouvez vous abonner pour moins de 94€ TTC/an. Et cela sans risques grâce à la garantie satisfait ou remboursé de 30 jours.

Lancez-vous, testez Incogni !

CodingFont – Trouvez la police parfaite pour votre éditeur de code

Par : Korben
12 mai 2024 à 21:34

Ceci est un truc qui peut paraître anodin mais qui, croyez-moi, peut totalement changer votre vie de développeur : les polices de caractères ! Et ouais, on n’y pense pas forcément mais ça a un impact énorme sur notre confort et notre productivité. Un peu comme choisir entre un bon vieux clavier mécanique qui claque bien et un clavier tout mou qui vous bousille les articulations. Bref, vous voyez l’idée…

Je suis tombé grâce à Lorenper (merci) sur un site vraiment sympa qui s’appelle Coding Font qui permet de tester des dizaines de polices et de les comparer pour voir laquelle vous convient le mieux. Et croyez-moi, y a du choix ! Des polices fines, des grasses, des arrondies, des plus carrées… Y en a pour tous les goûts.

Perso, celle que m’a recommandé le site et qui me conviendrait le mieux est Red Hat Mono.

Après, les goûts et les couleurs hein… L’essentiel, c’est de trouver chaussure à son pied ou plutôt police à son éditeur. Ça peut paraître un détail mais je vous assure que quand vous passez 8h par jour le nez dans votre code, avoir une police confortable, c’est mieux pour la fatigue.

Pour tester et trouver la police qui vous convient le mieux c’est par ici.

VirtualBuddy – Virtualisation de macOS 12+ sur Apple Silicon !

Par : Korben
12 mai 2024 à 21:21

Vous êtes développeur sur Mac et vous galérez à tester vos apps sur différentes versions de macOS, surtout les bêtas ? J’ai ce qu’il vous faut, et ça s’appelle VirtualBuddy !

Comme Tart, ce petit outil open-source vous permet de virtualiser macOS 12 et plus sur les machines Apple Silicon et ça fonctionne même avec certaines distros Linux ARM comme Ubuntu.

L’installation est un jeu d’enfant grâce à l’assistant intégré et vous pouvez choisir parmi une collection d’images de restauration dispo sur les serveurs d’Apple, installer la dernière version stable de macOS, utiliser un fichier IPSW local, ou même une URL d’image personnalisée. Pour Linux, c’est pareil, vous pouvez utiliser un fichier .iso local ou choisir parmi une sélection de distros.

Et pour les bidouilleurs, vous pouvez même booter en mode récupération pour, par exemple, désactiver le SIP. VirtualBuddy gère le réseau, le partage de fichiers et même le presse-papiers entre l’hôte et l’invité. Vous pouvez personnaliser la configuration matérielle de la machine virtuelle et même éditer les variables NVRAM.

En parlant de partage, quand vous démarrez une VM sous macOS, VirtualBuddy monte automatiquement une image disque avec l’app VirtualBuddyGuest. Il suffit de double-cliquer dessus dans le Finder de la VM pour l’installer. Et là, magie, vous avez le partage du presse-papiers et des dossiers partagés configurés pour la VM !

Maintenant, imaginez que vous bidouillez un truc dans la VM et que tout plante. Pas de panique ! Grâce au clonage APFS, vous pouvez dupliquer une VM dans votre bibliothèque (avec Cmd+D dans le Finder), et le clone prendra quasi aucun espace disque supplémentaire. Comme ça, vous avez toujours une copie « propre » de la VM. Vous pouvez faire mumuse avec un doublon, et si ça plante, poubelle et re-duplication du clone clean. Easy peasy ! Des fonctionnalités de sécurité avancées comme le chiffrement et l’authentification sont également de la partie.

Pour partager des dossiers entre la VM et le Mac hôte, il y a deux options. Soit vous utilisez le partage de fichiers macOS standard via les Préférences Système. Soit, si la VM et l’hôte tournent sous macOS 13+, vous pouvez configurer des dossiers partagés direct dans les réglages de la VM avant de la démarrer. Pour monter les dossiers partagés dans la VM, une petite commande dans le Terminal et c’est réglé :

mkdir -p ~/Desktop/VirtualBuddyShared && mount -t virtiofs VirtualBuddyShared ~/Desktop/VirtualBuddyShared

Bref, si vous êtes développeur sur Mac et que vous en avez marre de vous arracher les cheveux pour tester vos apps sur 36 versions de macOS, foncez sur VirtualBuddy ! C’est gratuit et c’est open-source.

Merci à Lorenper pour l’info !!

Zelda 64 Recompilé – Un portage natif avec Ray Tracing et 4K

Par : Korben
12 mai 2024 à 15:28

L’émulation N64 a longtemps été limitée par des logiciels datant des années 2000, basés sur d’anciens systèmes de plugins. Mais ça, c’était avant !

Grâce à un nouvel outil révolutionnaire de « recompilation statique » baptisé N64: Recompiled et développé par le moddeur Wiseguy, on peut désormais transformer une ROM N64 en un exécutable Windows / Linux fonctionnel en quelques minutes seulement. Le premier projet exploitant cet outil s’appelle Zelda 64: Recompiled et permet de jouer nativement à Majora’s Mask (et bientôt Ocarina of Time) sur PC avec une foule d’améliorations.

Le principe est simple : l’outil traduit le code de la ROM en langage C pour qu’il puisse tourner sur un processeur moderne. À l’exécution, le rendu est converti en appels d’API bas niveau (Direct3D12 sous Windows, Vulkan sous Linux) grâce au moteur RT64. C’est une approche qui rappelle la couche de compatibilité Proton de Valve ou la Mega Man Legacy Collection.

Le résultat est bluffant : une précision quasi parfaite des effets spéciaux, une compatibilité totale avec les shaders et microcodes custom, des temps de chargement instantanés, une latence réduite au minimum… Le tout avec une stabilité à toute épreuve et des options pour jouer en 4K, ultrawide ou à plus de 60 FPS. De plus, le gyroscope est géré nativement sur les manettes compatibles, dont la Nintendo Switch Pro et la Steam Deck. Plus besoin de bidouiller des réglages pendant des heures !

Bien sûr, la recompilation n’est pas parfaite et nécessite encore quelques ajustements manuels, mais c’est sans commune mesure avec une décompilation complète qui peut prendre des années. La preuve, alors que le projet decompile Ocarina n’est pas terminé, Wiseguy a pu sortir un recomp jouable en seulement 2 jours ! Cela ouvre la voie à des portages de jeux N64 obscurs en un temps record.

Autre avantage : les recomps profitent directement des améliorations du moteur RT64, comme le ray tracing en temps réel, sans avoir à réécrire le code du jeu. C’est d’ailleurs prévu au programme, en plus du DLSS, des textures HD ou des caméras libres. De quoi redonner un sacré coup de jeune à ces classiques !

Évidemment, les portages « maison » type Ship of Harkinian restent pertinents avec leur approche plus fine et leur côté moddable à l’infini. Mais ces recomps offrent une alternative plus simple et rapide, idéale pour (re)découvrir les jeux dans les meilleures conditions. D’autant qu’ils tournent parfaitement sous Linux et Steam Deck !

Pour l’instant, seul le recomp Majora’s Mask est disponible, mais comme je le disais en intro, Ocarina of Time suivra bientôt. À terme, l’idée est de combiner les deux jeux dans un même launcher, de proposer des mods et des packs de textures, voire une version web pour jouer dans le navigateur. Si vous êtes développeur, vous pouvez même contribuer au projet sur GitHub et tenter de recompiler d’autres jeux. Les portes sont grandes ouvertes !

Hier — 12 mai 2024Flux principal

En manque d’inspiration avec vos prompts IA ? Allez jeter un œil à la bibliothèque d’Anthropic

Par : Korben
12 mai 2024 à 09:00

Vous en avez assez de passer des heures à chercher la formulation parfaite pour obtenir de bons résultats avec vos prompts IA ?

Ne vous cassez plus la tête, puisque Anthropic a pensé à tout avec sa Prompt Library. Cette bibliothèque gratuite de prompts va vous permettre d’interagir plus facilement avec des outils comme Claude3, ChatGPT, Mistral…etc. Les prompts que vous y trouverez sont pré-optimisés pour une multitude de tâches, allant de la rédaction au développement en passant par l’analyse de données. Et ça n’a de cesse de s’enrichir puisque tout le monde peut soumettre ses meilleurs prompts.

Pour l’utiliser, il vous suffit de copier-coller le prompt de votre choix dans votre IA préférée, d’y apporter quelques modifications si le cœur vous en dit, et voilà ! Il y a même le code en TypeScript ou Python qui vous permettra de passer un message « system » avant votre message « user ».

Chacun de ces prompts est le fruit d’un travail minutieux de la part des équipes d’Anthropic dont l’objectif est de fournir des résultats d’e qualité supérieure d’excellente qualité afin de montrer ce que Claude3 a dans le ventre. Et, comme je le disais, il y en a pour tous les goûts… Des prompts pour générer des recettes, interpréter les rêves, se lancer dans la médiation pleine conscience, à des choses plus boulot / business comme créer une marque, rédiger des documents, debugger du code python et j’en passe.

Si ça vous dit de jeter un œil, c’est par ici que ça se passe.

Naticord – Un client Discord natif en Python

Par : Korben
12 mai 2024 à 08:15

Vous en avez marre du client web Discord qui bouffe toute votre RAM et qui lance des mises à jours qui plantent toutes les 2 heures ? Bienvenue au club !

Heureusement, y’a un p’tit gars qui a décidé de prendre les choses en main en développant son propre client Discord en Python. Ça s’appelle Naticord (ou Native-cord), et c’est léger, personnalisable et super efficace !

Quand j’ai découvert ce projet sur GitHub, j’ai tout de suite accroché. Un client Discord qui peut tourner avec seulement 25 Mo de RAM en moyenne, contre 400 Mo pour l’app officielle dans certains cas, c’est quand même un sacré tour de force ! En plus, l’interface est inspirée de feu Windows Live Messenger (paix à son âme), avec un côté minimaliste et fonctionnel qui fait plaisir à voir, comme les bulles de conversation par exemple.

Mais attention, faut pas s’attendre à retrouver toutes les fonctionnalités de Discord non plus. Naticord se concentre sur l’essentiel :

  • Se connecter avec un token Discord
  • Voir ses amis et discuter en MP
  • Accéder aux serveurs et canaux de base
  • Envoyer des messages, des fichiers et des images
  • Basculer entre plusieurs comptes

Pas de fioritures, juste ce qu’il faut pour tchatter tranquillou avec ses potes. Et franchement, pour l’utilisation qu’on en a en général, c’est largement suffisant ! Pour l’installer, c’est pas bien compliqué. Suffit d’avoir Python et pip sous la main, et de lancer ces petites commandes magiques :

pip install PyQt5 requests

Et hop, vous êtes parés pour lancer Naticord :

python naticord.py

Évidemment, faudra quand même rentrer votre token Discord pour vous connecter (voir le tuto sur le github). Mais une fois que c’est fait, vous pourrez profiter d’une expérience allégée, sans prise de tête.

Au menu des prochaines updates, on devrait avoir droit à un meilleur support des serveurs, des photos de profil dans la liste d’amis, et même un mode dark pour ménager nos petits yeux fragiles. Le mode nuit actuel a encore quelques soucis, mais ça devrait s’arranger bientôt. Le développeur bosse aussi sur l’édition/suppression de messages, les emojis, les catégories de canaux, et qui sait, peut-être même la vidéo et les appels vocaux un de ces quatre !

En attendant, je trouve que Naticord est une excellente alternative pour ceux qui veulent un client Discord qui va droit au but, sans chichi. Par contre attention, même si personne n’a encore eu de souci, Discord pourrait très bien vous bannir pour utiliser un client tiers. Rien ne les en empêche, donc soyez conscient de ça.

Merci à Lorenper pour le partage !

Open WebUI – Une interface graphique pour Ollama

Par : Korben
11 mai 2024 à 20:06

Open WebUI débarque pour changer notre façon d’interagir avec Ollama grâce à une interface graphique intuitive et ergonomique ! Parce que l’IA, c’est cool, mais si c’est simple à utiliser, c’est encore mieux. Ollama pour rappel, c’est un outil qui permet de faire tourner des LLM en local et qui s’utilise soit via du code, soit directement en ligne de commande.

Avec Open WebUI, vous allez enfin avoir une interface web personnalisable avec votre thème, sombre pour les hackers en herbe ou clair pour les âmes sensibles, dans la langue de votre choix, de l’anglais au klingon en passant par le français, et vous pourrez ainsi causer avec Ollama comme si vous étiez sur ChatGPT. Avec le support de Markdown, de LaTeX et de la coloration syntaxique, vous pourrez même lui faire cracher du code et des formules mathématiques comme jamais.

Open WebUI permet même d’utiliser plusieurs modèles en parallèle, comparer leurs réponses, et même les faire discuter entre eux… Et si vous voulez de l’interaction plus poussée, lâchez-vous avec les fonctionnalités de Récupération Augmentée (RAG). Vous pourrez intégrer des documents externes dans vos conversations et même aller les chercher directement sur le web grâce à une fonction de navigation intégrée.

Avec l’outil de création de fichiers modèle (modelfiles), vous pouvez également définir des agents conversationnels sur mesure et les partager avec la communauté Open WebUI.

Bien sûr, comme tout bon logiciel qui se respecte, Open WebUI gère la reconnaissance vocale, la synthèse Text-to-Speech et même la génération d’images avec DALL-E et d’autres systèmes compatibles. Cadeau bonux, l’intégration avec les API compatibles OpenAI, pour encore plus de possibilités déjantées.

Pour plus d’informations sur ces fonctionnalités et comment les configurer, consultez la documentation officielle d’Open WebUI.

C’est open source, c’est puissant, c’est customisable à outrance alors que vous soyez un champion du dev ou comme moi, juste un curieux qui veut s’amuser avec l’IA, vous allez vous régaler.

Avant de vous lancer dans l’installation d’Open WebUI, assurez-vous d’avoir les prérequis suivants :

  • Docker installé sur votre machine
  • Une URL de base pour Ollama (OLLAMA_BASE_URL) correctement configurée

Pour configurer l’URL de base d’Ollama, vous pouvez soit la définir en tant que variable d’environnement, soit la spécifier dans un fichier de configuration dédié.

Une fois les prérequis remplis, vous pouvez procéder à l’installation d’Open WebUI en utilisant Docker :

docker run -d -p 3000:8080 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Cette commande va télécharger l’image Docker d’Open WebUI et lancer un conteneur accessible sur http://localhost:3000.

Amusez-vous bien et si vous voulez en savoir plus, toutes les infos sont ici.

Llamafile – Exécutez des modèles de langage en un seul fichier !

Par : Korben
11 mai 2024 à 19:13

llamafile est un projet complètement barré qui va vous permettre de transformer des modèles de langage en exécutables. Derrière se cache en fait la fusion de deux projets bien badass : llama.cpp, un framework open source de chatbot IA, et Cosmopolitan Libc, une libc portable pour compiler des programmes C multiplateformes. En combinant astucieusement ces deux technos, les petits gars de Mozilla ont réussi à pondre un outil qui transforme les poids de modèles de langage naturel en binaires exécutables.

Imaginez un peu, vous avez un modèle de langage qui pèse dans les 4 gigas, dans un format .gguf (un format couramment utilisé pour les poids de LLM). Et bien avec llamafile, vous pouvez le transformer en un exécutable standalone qui fonctionnera directement sur le système sur lequel il est sans avoir besoin d’installer quoi que ce soit. Ça va permettre de démocratiser l’utilisation et la diffusion des LLM.

Et niveau portabilité, c’est le feu puisque ça tourne sur six OS, de Windows à FreeBSD en passant par macOS. Les devs ont bien bossé pour que ça passe partout, en résolvant des trucs bien crados comme le support des GPU et de dlopen() dans Cosmopolitan et croyez-moi (enfin, croyez-les) ça n’a pas été une mince affaire !

Niveau perf aussi c’est du brutal ! Sur Linux llamafile utilise pledge() et SECCOMP pour sandboxer le bousin et empêcher les accès fichiers non désirés et avec les derniers patchs de Justine Tunney, la perf CPU pour l’inférence en local a pris un boost de malade du genre 10 fois plus rapide qu’avant. Même sur un Raspberry Pi on peut faire tourner des petits modèles à une vitesse honnête.

Allez, assez parlé, passons à la pratique !

Voici comment tester vous-même un llamafile en un rien de temps :

  1. Téléchargez l’exemple de llamafile pour le modèle LLaVA (licence : LLaMA 2, OpenAI) : llava-v1.5-7b-q4.llamafile (3,97 Go). LLaVA est un nouveau LLM qui peut non seulement discuter, mais aussi analyser des images que vous uploadez. Avec llamafile, tout se passe en local, vos données ne quittent jamais votre PC.
  2. Ouvrez le terminal de votre ordinateur.
  3. Si vous êtes sous macOS, Linux ou BSD, vous devrez autoriser l’exécution de ce nouveau fichier. (À faire une seule fois) :
    chmod +x llava-v1.5-7b-q4.llamafile
  4. Sous Windows, renommez simplement le fichier en ajoutant « .exe » à la fin.
  5. Lancez le llamafile, par exemple :
    ./llava-v1.5-7b-q4.llamafile
  6. Votre navigateur devrait s’ouvrir automatiquement sur une interface de chat. (Sinon, ouvrez-le et allez sur http://localhost:8080)
  7. Quand vous avez fini, retournez dans le terminal et faites Ctrl-C pour arrêter llamafile.

Évidemment, Mozilla ne compte pas s’arrêter là et continue de bosser comme des dingues pour suivre le rythme des nouveaux modèles qui sortent et avec le support des dernières architectures dès leur sortie.

Il est même prévu qu’on puisse bientôt générer nos propres llamafiles en un seul clic ! D’ailleurs, Hugging Face est déjà dans la boucle pour héberger tout ce petit monde. Bref, je vous le dis, les amis, llamafile est un projet à suivre absolument !

Alors on dit merci qui ?

Merci Mozilla ! 🙏🦊

Le marché gris des clés de jeux PC – Un voyage en zone trouble

Par : Korben
11 mai 2024 à 18:30

Je viens de regarder une chouette vidéo de Monsieur Plouf sur le marché de revente de clés de logiciels et jeux vidéos et comme j’ai appris pleins de trucs, et bien je la partage avec vous. Perso, je m’étais jamais intéressé au sujet plus que ça car je ne suis pas gamer mais je pensais quand même que c’était un truc réglo.

Alors, c’est quoi ce marché gris dont il parle ?

En gros, c’est un peu comme les brocantes du dimanche matin, sauf qu’au lieu de chiner des vieilles babioles, on chine des clés de jeux pas chères. Ces clés permettent d’activer un jeu sur une plateforme comme Steam et normalement, elles sont fournies par les développeurs ou les éditeurs. Mais sur le marché gris dont parle Monsieur Plouf, elles débarquent d’on ne sait où, revendues par ces sites un peu louches.

Kinguin, G2A, Instant Gaming… etc, vous les connaissez peut-être, ce sont les principaux acteurs du marché gris, et ils ne sont pas vraiment copains avec les développeurs ni les éditeurs car ils revendent des clés sans leur accord, et souvent à des prix défiant toute concurrence. Pour y parvenir, ces sites achètent en réalité des clés dans des pays où les jeux sont moins chers, genre en Argentine ou en Turquie, ou en récupère via des fuites diverses et variées pour les revendre partout ailleurs. Des combines pas très réglo que développeurs ne voient pas d’un bon œil.

Bref, si vous pouvez éviter, c’est mieux surtout que Steam est parti en guerre contre ça et risque de désactiver vos clés, donc autant être patient et attendre les soldes.

Submariner – Le meilleur client Subsonic dispo sous Mac !

Par : Korben
11 mai 2024 à 09:00

Je vous ai déjà parlé à plusieurs reprises de Subsonic, un logiciel qui permet de monter sur votre serveur un clone de Spotify / Deezer / Apple Music… Et évidemment, qui dit serveur, dit client !

Et l’un des meilleurs clients du moment, c’est Submariner. Il fonctionne sous macOS et va vous permettre d’écouter aussi bien votre musique que vos podcasts auto-hébergés.

Développé à l’origine par Rafaël Warnault, le projet était un peu en pause ces derniers temps mais depuis 2022, Calvin Buckley a repris le flambeau pour lui redonner une seconde jeunesse et l’adapter aux dernières versions de macOS et de Subsonic.

La nouvelle version 3.0 vient donc de sortir et c’est du lourd ! Fini Electron, on est sur du 100% natif (Swift) pour d’excellentes performances et une intégration parfaite à macOS. Ça respecte les conventions d’Apple jusqu’au bout des ongles.

Avec Submariner, vous allez pouvoir streamer votre bibliothèque musicale et vos podcasts depuis votre propre serveur Subsonic ou les alternatives compatibles comme Navidrome. C’est hyper simple à configurer, il suffit de rentrer l’URL de votre serveur, vos identifiants et c’est parti mon kiki !

L’interface est bien pensée avec un design aux petits oignons et vous y retrouverez vos artistes, albums et playlists directement dans une jolie sidebar. Vous pouvez mettre des likes sur vos morceaux et albums préférés, et ça se synchronisera directement avec le serveur.

Côté fonctionnalités, y’a de quoi faire : lecture des formats sans perte, mini-lecteur accessible par raccourci, AirPlay, illustrations des albums qui s’affichent en grand quand on clique dessus, gestion des podcasts, égaliseur, scrobbling (suivi automatique de vos habitudes), mode sombre… Et même le support d’AppleScript pour contrôler la lecture via vos propres scripts. Ça c’est cool pour ceux qui aiment bidouiller.

Puis les petits détails bien pratiques comme pouvoir glisser-déposer un morceau de l’appli vers une playlist, ou des fichiers sur l’icône du dock pour les importer dans la bibliothèque, le choix de l’ordre de tri des albums, la purge des fichiers téléchargés, le support du tactile avec les gestes de navigation…

Bref, si vous avez un serveur Subsonic et un Mac, je vous le recommande.

Merci à j0j0b4rj0 pour l’info !

À partir d’avant-hierFlux principal

HTTP Toolkit – Un super outil pour simuler et debugger des requêtes HTTP(S)

Par : Korben
10 mai 2024 à 09:00

Si vous êtes développeur, vous connaissez sûrement les galères quand on doit débugger des applis web ou mobiles à savoir intercepter les requêtes HTTP pour voir ce qui s’y passe, simuler des API… etc.

Et bien bonne nouvelle, puisqu’il y a un outil parfait pour ça : HTTP Toolkit ! C’est un soft open source développé par un certain Tim Perry, qui fonctionne sous Windows, Linux, macOS et qui permet :

  • D’intercepter en temps réel le trafic HTTP/HTTPS de n’importe quel client (browser, mobile, scripts, containers Docker…)
  • D’explorer, filtrer et inspecter en détail les requêtes et réponses (URL, statut, headers, body…)
  • De faire des breakpoints et éditer le trafic à la volée (modifier requête, simuler réponse, injecter erreurs…)
  • Mais également de prototyper entièrement des API, créer des règles pour router les requêtes sur vos endpoints

Et encore, je vous la fais courte mais y a 1000 autres features et c’est super simple à prendre en main grâce à une interface plutôt soignée avec plein de petites explications. De plus, ça s’intègre avec l’éditeur Monaco de VS Code, les DevTools, le protocole adb, les spéc Open API… Et surtout, y’a une grosse communauté de fans qui soutiennent le projet.

Avec cet outil vous pourrez par exemple intercepter en 1 clic ce qui se passe dans une fenêtre Chrome ou une application mobile spécifique sans avoir à configurer un proxy, récupérer des certificats SSL et autres joyeusetés.

Je vous invite à le tester, vous m’en direz des nouvelles. Ça se passe par ici.

Merci à Lorenper pour le soft !

RomM – Le gestionnaire de ROMs des retro gamers sérieux

Par : Korben
9 mai 2024 à 09:00

Vous galérez avec vos ROMs de jeux rétro éparpillées un peu partout sur votre PC ? Vous passez des heures à chercher le bon émulateur, les bons fichiers, les bonnes versions ? Et bien tout ça c’est fini, grâce à RomM qui est un gestionnaire de ROMs vraiment cool.

Vous lui indiquez le répertoire qui contient tous vos jeux, et hop, en quelques clics, il scanne et organise tout ce bordel avec les bonnes infos et les jolies jaquettes qu’il va récupérer direct sur IGDB. RomM gère surtout un paquet de plateformes comme la Super Nintendo, la PlayStation, la GameBoy, la MegaDrive et même des trucs plus obscurs comme le PocketStation.

Ce outil vous permet même lancer vos jeux directement dans le navigateur grâce à EmulatorJS comme ça, pas besoin d’installer 50 émulateurs, tout est intégré, propre et facile. C’est beau !

C’est également super customisable, avec support des ROMs en plusieurs fichiers pour les jeux PS1, parsing des tags des noms de fichiers pour classer par région, gestion des permissions et des utilisateurs…etc Bref, c’est du solide !

Et si vous êtes un gros noob, pas de panique, c’est pas sorcier de l’installer. Vous créez votre clé API IGDB, vous mettez vos ROMs dans le bon format de dossier, vous modifiez deux trois trucs dans le fichier docker-compose.yml et voilà, en deux temps trois mouvements vous aurez votre serveur qui tourne ! Sur le NAS par exemple, c’est top comme ça plus de galère, plus de temps perdu, juste le plaisir du jeu à l’ancienne.

Le mec derrière RomM a même fait un wiki très complet sur le GitHub du projet.

A découvrir ici !

Encore merci à Lorenper !

AlphaFold 3 – Un sacré bond en avant pour la modélisation des molécules du vivant

Par : Korben
9 mai 2024 à 07:34

Vous vous souvenez d’AlphaFold 2, ce modèle d’IA assez dingue de Google DeepMind qui avait fait des avancées majeures dans la prédiction des structures de protéines ? Eh bien, la version 3 vient de débarquer et elle repousse encore un peu plus les limites !

AlphaFold 3, c’est comme si on passait d’un film noir et blanc du genre la Vache et Le Prisonnier à un film en 3D style Avatar, car non seulement il prédit avec une précision impressionnante la structure 3D des protéines, mais il est également capable de modéliser leurs interactions avec tout un tas d’autres molécules : l’ADN, l’ARN, les petites molécules organiques comme les médicaments, et même les modifications chimiques.

Concrètement, ça veut dire qu’on va pouvoir mieux comprendre comment toutes ces molécules qui nous composent s’assemblent et fonctionnent ensemble, comme les rouages de l’horloge cosmique de la viiiie. Un sacré bond en avant pour décrypter les processus biologiques fondamentaux et leurs dysfonctionnements à l’origine des maladies.

Son secret, évidemment, c’est une architecture de réseau de neurones encore plus puissante et entraînée sur une montagne de données moléculaires. Le cœur du système repose sur un module Evoformer amélioré, couplé à une nouvelle approche basée sur des réseaux de diffusion qui partent d’un nuage d’atomes pour converger vers la structure moléculaire la plus probable.

Et les résultats sont vraiment impressionnants puisque sur les jeux de données de référence, AlphaFold 3 bat des records avec des améliorations significatives par rapport aux méthodes existantes. Pour certaines catégories d’interactions, comme celles avec les médicaments, il augmente même nettement la précision des prédictions. Et tout ça sans même avoir besoin de données structurales en entrée.

Mais le plus cool, c’est que c’est open source (Edit : Apparemment, ça ne l’est plus malheureusement – Merci à Enthuo pour la correction) et accessible gratuitement à la communauté scientifique via le nouveau serveur AlphaFold. Cet outil permet à n’importe quel chercheur de générer des prédictions pour ses protéines d’intérêt en quelques clics, là où il fallait avant un travail titanesque et des moyens conséquents. Bref, de quoi démocratiser la biologie structurale et accélérer les découvertes !

Évidemment, avec une telle puissance vient aussi de grandes responsabilités, alors les gros cerveaux derrière DeepMind ont longuement planché avec de nombreux experts et organismes pour définir un cadre éthique et limiter les risques de mésusage comme on dit. Parce qu’autant un AlphaFold entre de bonnes mains, ça peut faire avancer la science et la médecine de façon spectaculaire, autant on n’a pas envie de voir débarquer des virus ou des prions tueurs conçus par des apprentis sorciers.

Mais j’ai hâte de voir ce que la communauté scientifique va réussir à faire avec cet outil génial. Peut-être de nouvelles enzymes pour des applications industrielles, des matériaux bio-inspirés aux propriétés uniques, ou des protéines thérapeutiques plus efficaces ? En tout cas une chose est sûre, la révolution biotech ne fait que commencer et nul doute qu’AlphaFold 3 en sera l’un des acteurs clés !

Source

Raspberry Pi Connect – Accédez à votre Pi depuis n’importe où !

Par : Korben
9 mai 2024 à 07:07

Ah, les joies du Raspberry Pi… On en achète un, puis deux, puis trois… Et avant de s’en rendre compte, on se retrouve avec une armée de petits ordinateurs dispersés aux quatre coins de la maison, du garage et du jardin. Du coup, pas facile de s’y retrouver, surtout quand il faut jongler avec VNC, SSH et autres joyeusetés pour y accéder à distance.

Mais ne vous inquiétez pas, les gens de la Raspberry Pi Foundation ont pensé à tout et viennent de nous pondre Raspberry Pi Connect, un nouvel outil bien pratique pour accéder aux Pi à distance, et ce, depuis n’importe quel navigateur web. Comme ça, plus besoin de se prendre la tête aevec la configuration réseau, des ports à ouvrir et des adresses IP à retenir.

Pour utiliser ce truc, il vous faut d’abord un Raspberry Pi 4, 5 ou 400 équipé d’une version 64 bits de Raspberry Pi OS Bookworm avec l’interface graphique Wayland. Une fois votre Pi à jour, ouvrez un terminal et entrez la commande magique :

sudo apt install rpi-connect

Quelques secondes plus tard, après un petit redémarrage, vous devriez voir apparaître une nouvelle icône dans la barre des tâches, en haut à droite de votre écran. Cliquez dessus, choisissez « Sign in » et suivez les instructions pour associer votre Pi à un compte Raspberry Pi. N’oubliez pas d’activer la double authentification.

Et là, c’est le moment « Waouh » : depuis n’importe quel ordinateur, tablette ou téléphone équipé d’un navigateur web, rendez-vous sur connect.raspberrypi.com, connectez-vous et… tadaa ! Vous voilà en train d’utiliser votre Raspberry Pi à distance, via un accès sécurisé et chiffré à votre bureau.

En fait, quand vous utilisez Raspberry Pi Connect, une connexion pair-à-pair (P2P) est établie entre votre navigateur et votre Pi grâce à la technologie WebRTC (si vous ne connaissez pas, c’est ce qui est utilisé par Zoom, Slack ou Google Meet pour la visio). Le démon rpi-connect installé sur votre Pi se charge alors de négocier la meilleure connexion possible avec le serveur VNC intégré. Comme ça, dans la plupart des cas, une connexion directe est possible, sans passer par les serveurs de Raspberry Pi. Mais si jamais ce n’est pas faisable, pas de stress, le trafic sera alors relayé de manière sécurisée et chiffrée via les serveurs de la Raspberry Pi Foundation, en utilisant le protocole DTLS.

Pour le moment, il n’y a qu’un seul serveur relais, situé au Royaume-Uni, donc cela peut entraîner un peu de latence si vous êtes loin des côtes anglaises. Mais d’autres serveurs sont prévus pour garantir une bonne expérience utilisateur. Et vous pouvez même vérifier si votre connexion est directe ou relayée en passant votre souris sur l’icône de cadenas dans votre navigateur.

L’équipe de Raspberry Pi Connect a bien sûr l’intention de garder le service gratuit pour les utilisateurs, tant qu’une connexion directe est possible, et ce, quel que soit le nombre d’appareils utilisés. Et pour le moment, les connexions relayées sont, elles aussi gratuites, le temps de voir combien de personnes en ont besoin et quelle quantité de bande passante est nécessaire.

Bref, ça tombe à pic, surtout depuis le passage de Raspberry Pi OS à Wayland qui empêchait d’utiliser la fonction d’accès distant intégrée au protocole X11. Avec ce nouvel outil, on retrouve donc ce confort d’utilisation qui a fait la réputation des Pi et en quelques clics, on peut accéder à sa petite merveille et bidouiller tout ce qu’on veut depuis n’importe où.

Si ça vous dit, tout est expliqué ici !

Source

Fabric – Un framework open source pour travailler main dans la main avec l’IA

Par : Korben
8 mai 2024 à 09:00

Depuis que l’IA a débarqué dans nos vies, il est maintenant possible de lui déléguer une grande partie de nos tâches fastidieuses et chronophages, ce qui nous permet de nous concentrer sur l’essentiel. Des outils comme ChatGPT ont évidemment démocratisé l’accès à cette technologie, mais ses capacités vont bien au-delà d’un simple agent conversationnel.

En effet, l’IA peut devenir un véritable assistant personnel pour booster à la fois notre créativité et notre productivité. Perso, je ne peux plus m’en passer, et que vous soyez développeur, designer, écrivain ou entrepreneur, il existe de nombreuses façons de l’intégrer dans vos workflows. Génération de code, création de visuels, rédaction et correction de texte, analyse de données, relecture de contrats, automatisation de tâches… La liste est infinie pour peu que vous ayez un peu d’imagination.

C’est là qu’entre en scène le projet open-source Fabric qui permet justement de créer des workflows basés sur l’IA totalement sur-mesure en combinant différents modèles et différentes APIs. Comme ça vous pourrez concevoir vos propres assistants adaptés à vos propres besoins.

Concrètement, Fabric fonctionne comme un framework avec différents composants réutilisables :

  • Des Patterns qui sont des templates de prompts répondant à un besoin précis (ex : résumer un article, extraire les idées clés d’une vidéo, etc).
  • Des Stitches qui permettent d’enchaîner plusieurs Patterns pour créer des workflows avancés.
  • Un serveur central appelé Mill qui héberge et sert les Patterns.
  • Des apps clientes appelées Looms qui invoquent les Patterns via des APIs.

Plutôt que d’utiliser des services IA fermés, Fabric vous donne le contrôle total sur vos workflows. Comme ça, vous pouvez héberger vous-même les différents composants et garder vos données en local. Le tout étant bien sûr basé sur des standards ouverts et interopérables.

L’idée pour les gens derrière Fabric, c’est de rendre l’intégration de l’IA aussi simple que l’utilisation de commandes Unix. Par exemple, pour résumer le contenu d’une page web avec l’IA, il vous suffit de chaîner les deux commandes suivantes :

curl https://example.com | fabric --pattern summarize

Vous pouvez même créer des aliases pour vos patterns les plus utilisés. Par exemple pour analyser un article :

alias analyze="fabric --pattern analyze" cat article.txt | analyze

Bien sûr, tout ceci nécessite un peu de pratique et de changements dans vos habitudes de travail mais une fois les bons réflexes pris, le gain de temps sera considérable.

Certains craignent que l’IA nous mette tous au chomage mais je pense au contraire qu’elle va surtout nous aider à torcher rapidement les tâches ingrates pour nous permettre d’être plus créatifs et de bosser sur les sujets de fond avec plus de valeur ajoutée.

Si ça vous dit d’essayer Fabric, la doc est ici.

Skyvern – Plus besoin de vous prendre la tête pour automatiser une tâche web (scraping, saisie de formulaire…etc)

Par : Korben
7 mai 2024 à 09:00

Qui n’a jamais rêvé d’automatiser n’importe quelle tâche web peu importe sa complexité, pour évidemment se la couler douce ?

C’est précisément ce que vous propose Skyvern, un outil qui allie intelligence artificielle et vision par ordinateur pour interagir avec les sites web comme vous le feriez vous-même.

Plus besoin de scripts qui pètent à tout bout de champs, de XPath qui changent tous les 4 matins et de parseurs de DOM capricieux puisque Skyvern est capable de comprendre visuellement ce qu’il y a sur une page web et ainsi générer un plan d’interaction en temps réel.

Cela signifie que Skyvern est capable d’agir sur des sites qu’il n’a jamais vus auparavant, le tout sans avoir besoin de code spécifique. Il analyse les éléments visuels de la page pour déterminer les actions nécessaires pour répondre à votre demande, ce qui en fait un outil immunisé contre les changements de design de sites, contrairement à votre bon vieux scrapper.

Grâce aux modèles de langage (LLM) qu’il embarque, il est capable de « raisonner » donc par exemple, de remplir un formulaire qui vous pose plein de questions, ou de comparer des produits.

Vous voulez voir Skyvern à l’œuvre ? Voici un petit aperçu en vidéo :

Sous le capot, Skyvern s’inspire des architectures d’agents autonomes comme BabyAGI et AutoGPT, avec une couche d’automatisation web en plus, basée sur des outils comme Playwright.

Et comme d’hab, vous pouvez installer la bête sur votre machine et commencer à automatiser tout votre boulot en quelques commandes.

Vous devrez donc avoir Python 3.11, puis installez poetry :

brew install poetry

Ensuite, clonez le dépôt git et aller dans le dossier :

git clone https://github.com/Skyvern-AI/skyvern.git

cd skyvern

Puis lancez le script d’install :

./setup.sh

Une fois que c’est fini, démarrez le serveur :

./run_skyvern.sh

Et voilà, vous pouvez maintenant envoyer des requêtes au serveur, mais ne vous inquiétez pas, y’a une interface graphique :). Pour la lancer :

./run_ui.sh

Ouvrez ensuite http://localhost:8501 dans votre navigateur pour y accéder. Vous verrez alors ce genre d’interface. A vous de remplir les champs qui vont bien pour créer votre première automatisation.

En commande cURL, ça ressemble à ça (pensez bien à mettre votre clé API locale dans la commande) :

curl -X POST -H 'Content-Type: application/json' -H 'x-api-key: {Votre clé API locale}' -d '{
    "url": "https://www.geico.com",
    "webhook_callback_url": "",
    "navigation_goal": "Naviguer sur le site Web jusqu\'à ce que vous obteniez un devis d\'assurance automobile. Ne pas générer de devis d\'assurance habitation. Si cette page contient un devis d\'assurance automobile, considérez l\'objectif atteint",
    "data_extraction_goal": "Extraire toutes les informations de devis au format JSON, y compris le montant de la prime et le délai du devis",
    "navigation_payload": "{Vos données ici}",
    "proxy_location": "NONE"
}' http://0.0.0.0:8000/api/v1/tasks

Vous voyez, on peut vraiment faire des trucs pointu. Et le petit plus, c’est qu’on peut voir toutes les interactions puisque Skyvern enregistre chaque action avec une capture d’écran correspondante pour vous permettre de débugger facilement vos workflows.

Bref, pour en savoir plus, c’est sur le Github. Et sur leur site officiel.

Reprogrammer Tetris NES en pleine partie – Un hack vraiment dingue ?

Par : Korben
7 mai 2024 à 08:59

Tetris sur NES – c’est un classique indémodable, un monument du jeu vidéo mais c’est aussi un terrain de jeu sans fin pour les hackers et les bidouilleurs de génie. Tenez-vous bien, ces derniers ont trouvé un moyen de reprogrammer Tetris en pleine partie ! Je vous jure, c’est pas une blague. Ils arrivent à exécuter leur propre code en partant d’une cartouche normale, sans aucune modification matérielle.

Voici comment ça marche :

En atteignant des scores très élevés (comme le niveau 155) et en entrant des noms bien spécifiques dans le tableau des high scores, ils réussissent à réécrire des portions de la RAM du jeu. Concrètement, ils peuvent modifier les règles, ajouter des fonctionnalités, ce qu’ils veulent.

Mais le plus dingue, c’est quand ils font leur tour de magie. Bah oui, vous connaissez le fameux kill screen de Tetris ? C’est ce moment où après une partie marathon, il y a tellement de données que le jeu plante… Et bien nos petits génies provoquent volontairement ce crash qui en réalité, devient leur porte d’entrée pour injecter leur code personnel.

Techniquement, ils exploitent une faille dans la gestion des manettes car sur les Famicom, il y avait un port d’extension pour brancher des manettes supplémentaires et quand le jeu crashe, il perd les pédales et va interpréter n’importe quoi comme instruction, y compris les fameuses entrées de manettes. Résultat : vous appuyez sur des boutons bien précis au bon moment, et ça redirige l’exécution du programme exactement où vous voulez !

Évidemment, tout ça c’est d’un niveau de difficulté extrême, il faut connaître le jeu et la console sur le bout des doigts. Mais comme ils ont désassemblé le code de Tetris en langage machine, ils savent exactement ce que fait chaque octet de la ROM. Et la beauté de la chose, c’est que ça fonctionne sur une NES standard, avec une cartouche originale. Pas besoin d’un Game Genie ou d’un émulateur. Du 100% pur jus rétro

Par contre, il ne faut pas être trop gourmand non plus. On parle de reprogrammer un jeu en passant par les high scores, donc vous n’aurez jamais de quoi coder un truc plus complexe… et puis il faut rusher le truc à chaque partie, parce que dès que vous éteignez la console, pouf ça s’efface. C’est vraiment de la bidouille éphémère, il faut aimer l’art pour l’art.

Mais je trouve ça cool car il y a un côté  »hacker la Matrice » assez jouissif. Ça me donne presque envie de ressortir ma vieille NES pour essayer… Mais je suis pas encore assez bon à Tetris. Mais si vous voulez essayer chez vous, il vous faudra :

  • Une NES (ou une Famicom)
  • La cartouche Tetris
  • 2 manettes NES supplémentaires (ou un adaptateur pour manettes NES sur Famicom)
  • De la patience et de la persévérance

Ensuite, vous devrez franchir chacune de ces étapes :

  • Étape 1 : Atteignez le level 155 en mode A-Type. Assurez-vous qu’une seule ligne vous sépare du level suivant.
  • Étape 2 : Effacez cette ligne SANS appuyer sur bas (pour ne pas marquer de points) et en affichant la pièce suivante dans la zone Next.
  • Étape 3 : Branchez vos deux manettes NES supplémentaires (appelons-les manette 3 et manette 4).
  • Étape 4 : Sur la manette 3, maintenez Haut. Sur la manette 4, appuyez simultanément sur Gauche, Bas et Droite (bonne chance…).
  • Étape 5 : Maintenant, préparez-vous à entrer dans la partie la plus délicate : l’écriture de votre programme via les high scores ! L’astuce consiste à utiliser les noms et scores pour y cacher des instructions destinées directement au processeur de la NES. Pour cela, vous devez placer judicieusement certains caractères dans les high scores. Par exemple, mettez (G comme 2ème lettre du nom en 1ère position du tableau B-Type. Cela indique au processeur de sauter vers une autre zone du tableau et de lire la suite comme un bout de code. Ensuite, en 2ème position B-Type, commencez le nom par )). Puis continuez à remplir les noms et scores suivants selon votre programme. Attention, vous êtes très limité dans les instructions possibles ! Vous ne pouvez utiliser que les 43 caractères autorisés pour les noms et les 10 chiffres pour les scores. La plupart des opcodes du processeur sont impossibles à reproduire ainsi. Mais avec de l’astuce, c’est jouable. Par exemple, essayez ceci pour votre 1ère position en A-Type : (A name of '))"-P)' . Ce code basique injecte deux zéros dans les digits de poids fort du score, ce qui limite son augmentation et retarde le crash du jeu (sans le corriger complètement).
  • Étape 6 : Validez le high score. Le jeu va planter, c’est normal. Maintenez les boutons enfoncés sur les manettes 3 et 4.
  • Étape 7 : Tadaa ! Votre code personnalisé s’exécute. Vous pouvez maintenant modifier le comportement du jeu. Mais attention, tout s’efface à la prochaine coupure !

Voilà, vous savez tout. Avec un peu d’entraînement, vous pourrez à votre tour hacker Tetris comme un pro mais n’oubliez pas, c’est un grand pouvoir qui se mérite et qui implique de grandes responsabilités ! (non)

Happy hacking !

Source

ZTDNS – Microsoft renforce la sécurité DNS pour Windows

Par : Korben
7 mai 2024 à 08:00

Tiens, Microsoft nous prépare un nouveau bébé baptisé Zero Trust DNS, ou ZTDNS pour les intimes. Alors c’est quoi encore ce truc ? Eh bien c’est tout simplement un système permettant de sécuriser le DNS sur nos chers Windows.

Pour ceux qui auraient loupé un épisode, le DNS c’est un peu comme l’annuaire téléphonique d’Internet. Il permet de traduire les noms de domaine tout mignons comme korben.info en adresses IP bien moins sexy. Le problème, c’est que jusqu’à présent, le DNS c’était un peu le maillon faible de la sécurité. Les communications n’étaient pas chiffrées, ce qui ouvrait la porte à plein de menaces comme l’espionnage, le détournement de trafic ou même les attaques de type « DNS spoofing« . D’ailleurs, selon une étude de Cisco, plus de 70% des attaques de phishing utilisent des techniques de DNS spoofing pour tromper leurs victimes.

Mais ça, c’était avant ! Avec ZTDNS, Microsoft promet de changer la donne. Déjà, toutes les communications entre les clients Windows et les serveurs DNS seront chiffrées et authentifiées grâce aux protocoles DNS over HTTPS (DoH) ou DNS over TLS (DoT), ce qui devrait rendre la vie plus difficile aux vilains cyber criminels qui voudraient mettre leur nez dans nos petites affaires.

Ensuite, et c’est là que ça devient vraiment intéressant, ZTDNS va permettre aux admins réseau de contrôler finement quels domaines peuvent être résolus par les serveurs DNS. En gros, si un domaine n’est pas sur la liste blanche, et bien le client Windows ne pourra tout simplement pas s’y connecter !

Mais attention, mettre en place un truc pareil, ça ne va pas être une partie de plaisir. Il va falloir bien planifier son coup pour éviter de tout casser, du genre bloquer sans faire exprès l’accès à des services importants ! Mais bon, c’est le prix à payer pour renforcer la sécurité et se rapprocher doucement d’un modèle « Zero Trust » où on ne fait confiance à personne par défaut.

Alors concrètement, comment ça va marcher ?

Eh bien déjà, il faudra que les serveurs DNS supportent les protocoles de chiffrement comme DoH ou DoT. Ça tombe bien, ZTDNS est conçu pour être compatible avec tout ça. Pas besoin de réinventer la roue.

Ensuite, lorsqu’un client Windows aura besoin de résoudre un nom de domaine, il va discuter avec un des fameux serveurs DNS « protecteurs » et si le domaine est autorisé, le serveur lui filera l’adresse IP correspondante. Et hop, le pare-feu Windows sera dynamiquement mis à jour pour autoriser la connexion vers cette IP. Par contre, pour le reste, c’est niet ! Le trafic sera bloqué direct !

Bon après, faut quand même avouer qu’il y aura des trucs qui vont morfler à cause de ZTDNS. Tous les protocoles réseaux un peu exotiques qui n’utilisent pas le DNS, comme le multicast DNS (mDNS) par exemple, ça va être coupé. Pareil pour les partages de fichiers sur le réseau local ou les imprimantes qui utilisent des protocoles de découverte archaïques. Ça risque donc de râler dans les chaumières !

Mais heureusement, les ingénieurs de Microsoft ne sont pas nés de la dernière pluie et ont prévu pas mal de mécanismes pour « mitiger » ces problèmes. Par exemple, on va pouvoir définir des exceptions pour autoriser certaines plages d’adresses IP sans passer par le DNS. Ou encore favoriser des solutions plus modernes et sécurisées, comme l’impression via Universal Print qui passe, lui, gentiment par le DNS.

Un autre truc à prendre en compte, c’est que certaines applications un peu spéciales risquent de ne plus fonctionner du tout avec ZTDNS. Celles qui utilisent des adresses IP codées en dur ou des mécanismes de résolution maison, c’est mort. Mais bon, ce sera l’occasion de faire le ménage et de moderniser tout ça.

Microsoft a d’ailleurs prévu un mode « Audit » qui permet dans un premier temps de voir ce qui serait bloqué par ZTDNS, sans pour autant péter la prod. Comme ça, on peut analyser tranquillement les flux réseau et identifier les applications ou les flux problématiques. C’est un bon moyen d’anticiper les éventuels soucis avant de passer en mode bloquant !

Bon après, faut pas non plus se voiler la face. Même avec ZTDNS, il restera toujours des failles de sécurité potentielles. Les connexions VPN ou SASE/SSE par exemple, qui encapsulent le trafic dans un tunnel chiffré, pourront toujours passer entre les mailles du filet si on n’y prend pas garde. Sans parler des technologies de virtualisation qui court-circuitent carrément la pile réseau de Windows !

Mais bon, rien n’est parfait et il faut bien commencer quelque part… ZTDNS représente déjà une sacrée avancée pour renforcer la sécurité réseau des parcs Windows et avec un peu de rigueur et de persévérance, les admins sys pourront en tirer le meilleur parti.

Pour l’instant, ZTDNS est en preview privée chez Microsoft. On ne sait pas encore exactement quand il débarquera dans nos Home Sweet Home. En attendant, je vous invite à aller jeter un œil à l’article sur le blog Techcommunity qui rentre dans les détails techniques de la bête. C’est dense mais ça vaut le coup de s’y plonger si vous voulez être informé.

Source

Discutez avec les interviews de Steve Jobs !

Par : Korben
7 mai 2024 à 07:00

Fans de Steve Jobs, réjouissez-vous !

Grâce à la magie de l’intelligence artificielle, vous allez pouvoir discuter avec votre gourou préféré. Enfin, quand je dis « discuter », c’est un bien grand mot. Disons plutôt que vous allez pouvoir poser des questions à un modèle de langage entraîné sur une petite quantité d’interviews et discours de Steve Jobs himself.

Pour cela, le créateur de ce chatbot a utilisé un service nommé Jelli.io qui permet justement de chatter avec des vidéos et le résultat est plutôt cool, même si le chatbot n’incarne pas directement Steve Jobs (pour des questions éthiques j’imagine et pour n’énerver personne…)

Bref, de quoi vous inspirer et vous motiver sans forcement mater des heures et des heures d’interviews.

❌
❌