Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 21 mai 2024Flux principal

iTerm2 – l’IA fait son entrée dans votre terminal macOS préféré

Par : Korben
21 mai 2024 à 15:40

iTerm2, le terminal préféré des développeurs sur macOS, revient avec une nouvelle version majeure : la version 3.5, sortie le 20 mai 2024. Celle-ci apporte de nombreuses fonctionnalités nouvelles qui vont ravir les amateurs de ligne de commande. On y retrouve tout ce qui fait le succès de ce terminal depuis des années : une interface personnalisable à l’infini, un support des couleurs 24 bits, la possibilité de diviser les fenêtres en panneaux, une recherche avancée, utiliser des fonctions comme Shell Integration pour automatiser certaines tâches et tout un tas d’options pour les utilisateurs avancés.

Mais la grande nouveauté de cette version, c’est l’intégration de ChatGPT, le célèbre agent conversationnel d’OpenAI. Vous pouvez désormais discuter avec une IA directement dans votre terminal et lui demander de l’aide pour vos tâches de développement. Besoin de générer une regex complexe ? De convertir un JSON en YAML ? De documenter votre code ? ChatGPT est là pour vous assister.

Pour utiliser cette fonctionnalité, il suffit d’ouvrir un nouveeu terminal, puis d’utiliser le raccourci CMD + Y pour arriver sur une fenêtre de prompt :

L’outil va alors vous proposer une commande que vous n’aurez plus qu’à lancer dans le terminal. Une autre fonctionnalité IA baptisé Codecierge (contraction de Code et de Concierge) permet également de vous guider étape par étape dans la réalisation de vos projets.

Cette version introduit également des améliorations comme la navigation plus facile entre les panneaux. Auparavant, il fallait utiliser la souris ou des raccourcis peu intuitifs. Désormais, on peut passer d’un panneau à l’autre avec ⌘← et ⌘→. La recherche a aussi été revue pour être plus réactive. Les résultats s’affichent au fur et à mesure qu’on tape, sans bouton à cliquer. Le filtrage et la colorisation syntaxique fonctionne à la volée.

iTerm ajoute la prise en charge des thèmes clair et sombre, qui s’adaptent à vos préférences système. Vos yeux fatigués apprécieront en fin de journée. C’est d’ailleurs personnalisable dans les réglages.

Autre petite nouveauté bien pensée : l’intégration avec le gestionnaire de mots de passe 1Password. Plus besoin de le garder ouvert en permanence. Vous pouvez récupérer vos secrets directement dans le terminal. Pratique pour scaler son app sans avoir à ressaisir ses 150 mots de passe ! Tout est chiffré de bout en bout évidemment. Et ça se configure dans les paramètres d’intégration.

iTerm c’est aussi tout un tas de petites options bien pensées qui simplifient la vie des barbus : synchronisation du presse-papier, recherche dans l’historique des commandes, profils par hôte SSH, notifications intelligentes… Bref, une véritable boîte à outils pour les zamoureux de la ligne de commande.

Et en plus c’est open source !

Un grand merci à Lorenper pour l’information sur cette mise à jour.

Pour plus de détails, direction le site officiel.

Reverse engineering de Choplifter, le classique de l’Apple II

Par : Korben
21 mai 2024 à 09:56

Vous avez déjà entendu parler de Choplifter ? Non, c’est PÔ PÔSSIBLE puisque c’est l’un des jeux vidéo les plus mythiques de l’Apple II ! Sorti en 1982, année glorifiée par ma naissance, ce classique de Dan Gorlin a marqué toute une génération de gamers avec un gameplay novateur et son scrolling horizontal révolutionnaire pour l’époque.

Pour mieux comprendre l’importance de Choplifter, il faut connaître un peu l’histoire de l’Apple II. Cette série d’ordinateurs, commercialisée de 1977 à 1993, a vu la création de centaines de milliers de logiciels, dont des dizaines de milliers de jeux. Parmi tous ceux là, seuls quelques-uns sont alors vraiment marquants, et Choplifter figure assurément en tête de liste aux côtés d’autres classiques comme Lode Runner. Ce qui est particulièrement impressionnant avec ce jeu, c’est sa longévité puisqu’il est resté l’un des meilleurs jeux sur Apple II pendant seize ans, malgré la sortie de jeux étonnants comme Knights of Legend et Space Rogue vers la fin de la vie de cette machine.

Mais comment cet œuvre a-t-elle été codée ?

C’est la question que s’est posée Quinn Dunki, développeuse et hackeuse de talent qui armée de ses outils et de sa curiosité, elle s’est lancée dans une rétro-ingénierie complète de Choplifter, pour en décortiquer les mécanismes internes et percer tous ses secrets ! Elle a donc passé 8 semaines intenses à désassembler, analyser et commenter le code source de ce jeu culte.

La première chose qui saute aux yeux, c’est avant tout l’incroyable prouesse technique réalisée par Dan Gorlin à l’époque. Rappelons qu’on est en 1982, l’Apple II est encore jeune, les outils de développement sont rudimentaires et malgré tout cela, ce génie a réussi à tirer le maximum de la machine en exploitant astucieusement ses capacités graphiques et sonores. Choplifter intègre des innovations folles pour l’époque : des sprites animés pixel par pixel, de la rotation et de l’inclinaison des hélicos en temps réel, un scrolling horizontal fluide et des collisions parfaitement gérées. Tout cela avec un processeur 8 bits cadencé à 1 MHz et 48 Ko de RAM, vous vous rendez compte ?

Une autre prouesse du jeu est la qualité de son game design. Dan Gorlin a passé un temps fou à peaufiner le gameplay, à équilibrer la difficulté et à rendre le pilotage fun et accessible. Les mécanismes sous le capot sont d’une finesse incroyable et Quinn a pu retracer les choix et les astuces du développeur, tel que son système de vecteurs pour passer les paramètres aux fonctions et ses algorithmes de tri des entités pour gérer le rendu dans le bon ordre.

Parmi les découvertes les plus étonnantes, on trouve un moteur 3D maison que Dan avait commencé à coder pour gérer la rotation des sprites. Oui, de la 3D sur Apple II en 1982 ! Bien que cette fonctionnalité n’ait pas été utilisée dans la version finale, elle témoigne de l’avant-gardisme du dev.

En plus de décortiquer le code, Quinn a également réussi l’exploit de recompiler le jeu pour obtenir un binaire à l’octet près identique à l’original. Elle a même découvert un petit bug dans les listes chaînées que Dan cherchait probablement à l’époque!

Pour les passionnés de technologie et de culture geek que vous êtes, je vous invite à découvrir les coulisses d’un monument du jeu vidéo et à vous familiariser avec le développement 6502 old-school en allant lire l’autopsie de Choplifter sur le blog de Quinn Dunki. C’est un voyage fascinant dans l’univers de la programmation des années 80.

Le code source complet de Choplifter est également sur GitHub.

Vibe – Une app de transcription audio compatible macOS, Windows et Linux

Par : Korben
21 mai 2024 à 09:31

Vibe est un nouvel outil open source de transcription audio multilingue qui va vous faire vibrer ! Terminé le temps où vous deviez vous contenter de sous-titres approximatifs ou attendre des plombes pour obtenir une transcription potable.

Pour cela, il utilise l’IA Whisper, développé par les génies d’OpenAI et dont je vous ai parlé à maintes reprises. Ce modèle de reconnaissance vocale dernier cri est capable de transcrire un nombre ahurissant de langues avec une précision bluffante, ce qui permet de faire de Vibe une véritable solution audio polyvalente bourrée de fonctionnalités.

Vous pouvez par exemple transcrire des fichiers audio et vidéo par lots, prévisualiser le résultat en temps réel, exporter dans une flopée de formats (SRT, VTT, TXT…), et même personnaliser les modèles selon vos besoins. Il fonctionne entièrement hors ligne, donc pas de risque que vos données sensibles se retrouvent dans les griffes des GAFAM et ça tourne sous macOS, Windows et Linux. Pour cela, il vous suffit de vous rendre sur la page des releases GitHub et de télécharger la version qui correspond à votre OS.

Le support pour Apple Silicon est optimisé ce qui offre une performance accrue et pour Windows, la version 8 ou plus sera nécessaire, mais bon, je pense que vous êtes tous ou presque déjà sous Windows 10/11. Les utilisateurs Linux, quand à eux, peuvent installer Vibe via un fichier .deb, et les utilisateurs d’Arch Linux peuvent utiliser debtap pour convertir le paquet en fonction de leurs besoins.

Côté performance, c’est du gâteau puisque comme vous vous en doutiez, les ordinateurs Mac ont droit à une petite optimisation GPU qui booste les résultats. Mais même sur un vieux coucou Windows, Vibe est capable de s’adapter à vos ressources sans broncher via à ses réglages avancés. Et pour les Linuxiens, sachez que le support de l’audio système et du micro est prévu pour bientôt.

Bref, c’est à tester si vous êtes dans le business du sous-titre ou de la transcription.

Source

GritQL – Le langage de requête pour manipuler du code source

Par : Korben
21 mai 2024 à 09:00

Aujourd’hui, je vous présente GritQL qui va vous permettre de fouiller et triturer du code source, sans avoir besoin d’être un crack en AST ou en parsing. Le truc génial avec ce langage de requête pour la recherche, l’évaluation et la modification du code, c’est que n’importe quel bout de code est une requête valide. Vous mettez un extrait de code entre guillemets simples, et hop, GritQL vous trouve tous les endroits où ce pattern apparaît !

Bon OK, vous allez me dire : « Mouais, mon grep il sait faire ça aussi… » sauf que GritQL est boosté aux stéroïdes notamment grâce à son moteur en Rust capable d’analyser des repos de 10 millions de lignes en un clin d’œil. Votre vieux grep, il peut aller se rhabiller ! 😜

Vous pouvez même utiliser des variables ($comme_ça) dans vos patterns pour identifier des bouts de code puis appliquer des transformations en mode « rechercher/remplacer » pour refactoriser à la volée.

Pour l’installer :

curl -fsSL https://docs.grit.io/install | bash

Et si par exemple, vous voulez remplacer tous vos console.log par des winston.log, c’est facile :

grit console.log($msg) => winston.log($msg)

Et bim, votre code est mis à jour !

GritQL dispose également d’une bibliothèque standard avec plus de 200 patterns réutilisables, comme ça, plus besoin de réinventer la roue pour les tâches courantes. Et si vous avez des patterns spécifiques, vous pouvez même les partager avec la communauté.

Autre point fort : une fois que vous maîtrisez GritQL, vous pouvez l’utiliser avec tout un tas de langages. Que vous codiez en JavaScript, Python, Java, Go, Rust ou même en SQL, plus besoin d’apprendre 15 outils différents, un seul suffit !

Et cerise sur le gâteau, il permet d’inclure facilement des règles de « auto-fix » dans vos patterns. Comme ça, vous pouvez corriger et nettoyer votre code en même temps que vous le cherchez. Pratique pour maintenir la qualité sans se prendre la tête ! 👌

Bref, je vous conseille vraiment d’aller jeter un œil à GritQL sur GitHub.

Happy hacking !

Recall de Microsoft – Un outil super pratique ou un gros risque pour votre vie privée ?

Par : Korben
21 mai 2024 à 08:06

Microsoft nous la jouent à nouveau façon Big Brother et il est possible que les dernières nouvelles vous fassent froid dans le dos ! Vous vous souvenez de l’épisode flippant de Black Mirror où les gens avaient une puce derrière l’oreille qui enregistrait tout ? Et bien dites-vous que c’est en train de devenir réalité, sauf que c’est sur nos ordis !

Lors de la conférence Build de lundi, Microsoft a révélé une nouvelle feature alimentée par l’IA appelée « Recall » qui permettra aux utilisateurs de Windows 11 de rechercher et récupérer leurs activités passées sur leur PC. Concrètement, Recall va enregistrer tout ce que vous faites : les applications que vous utilisez, vos communications en réunion, vos recherches web, tout ! Soi-disant pour vous permettre de retrouver facilement un truc que vous avez fait il y a 3 mois. Mais bon, de prime abord ça pue un peu le cramé côté vie privée…

Recall prend des images de votre écran toutes les quelques secondes, les chiffre et les stocke sur votre disque dur. Vous pourrez ensuite les retrouver via une recherche ou une timeline. Ça scannera même vos réunions en ligne pour les retranscrire et les traduire grâce à une fonctionnalité alimentée par l’IA. Pratique ? Peut-être. Flippant ? Carrément !

Imaginez que quelqu’un accède à votre session Windows et fouille dans votre historique Recall. Il pourra voir TOUT ce que vous faites, même les trucs pas très catholiques ^^… Évidemment, Microsoft jure que les données restent en local (pour le moment ?) et sont chiffrées et heureusement, il y aura des options pour mettre en pause ou supprimer des contenus.

Plus précisément, Microsoft précise que les captures d’écran sont uniquement liées à un profil utilisateur spécifique et ne sont pas partagées avec d’autres utilisateurs ni utilisées par Microsoft pour des publicités ciblées (pour le moment ?). Recall ne prendra pas de captures des sessions de navigation InPrivate dans Microsoft Edge ou des contenus protégés par DRM mais ne cachera pas les informations sensibles comme les mots de passe.

Si vous voulez quand même utiliser cette fonctionnalité, il faudra acheter un « Copilot+ PC », les seuls capables de faire tourner ce truc. Et il faudra aussi avoir de la place sur le disque, au moins 256 Go dont 50 Go pour Recall.

Mais attendez moussaillons, ce n’est pas fini ! Sur les Mac, ça s’y met aussi avec Recall Memory ! Ce n’est pas un outil officiel Apple, mais comme son nom l’indique très subtilement, il enregistre aussi ce que vous faites pour la « mémoriser ». Il capture l’écran actif chaque seconde, mais ne stocke que les changements significatifs, sûrement pour ne pas exploser le disque dur.

Et comme chez Microsoft, les dev de cet outil jurent que les données resteront sur votre Mac, chiffrée et jamais uploadées. Vous contrôlez quelles applications sont capturées et combien de données sont sauvegardées. De plus, les sessions de navigation privée sur Safari et Chrome sont automatiquement ignorées.

En bref, ces nouvelles fonctionnalités rappellent un peu la Timeline de Windows 10, mais en 1000 fois plus intrusif. Il y a bien des systèmes de favoris, de recherche et de contrôle de ce qui est capturé. Alors oui, il y a des garde-fous, des promesses de confidentialité, de chiffrement, de données qui restent locales, mais comme je le disais en intro, je ne peux pas m’empêcher de penser à cet épisode de Black Mirror (S01E03) où le mec devient parano et pète un câble parce qu’il peut voir les souvenirs de sa femme.Pour rappel, cet épisode montre une société où une technologie permet d’enregistrer tout ce qu’un individu voit et entend, et où ces souvenirs deviennent sources de paranoïa.

On n’en est pas encore là, mais ça y ressemble de plus en plus…

Après, je ne dis pas, ça peut être pratique pour retrouver un truc qu’on a vu il y a longtemps, ou pour les personnes qui ont des trous de mémoire, mais je trouve ça assez risqué comme truc… Puis la place que ça prend sur le disque dur… mdr.

Source

Le web s’efface au fil des années – Est-ce un problème ?

Par : Korben
20 mai 2024 à 17:14

Vous l’ignorez peut-être mais le web que nous connaissons et aimons est en réalité d’une nature bien plus éphémère qu’il n’y paraît, car derrière cette apparente stabilité se cache une menace insidieuse qui ronge lentement mais sûrement notre précieux patrimoine numérique : le redoutable déclin numérique !

Selon une étude approfondie menée par le Pew Research Center, c’est près de 38% des pages web qui existaient en 2013 qui se sont volatilisées dans les limbes du cyberespace en l’espace d’une décennie. Une conclusion formulée après avoir examiné un échantillon représentatif de pages web provenant des archives de Common Crawl pour chaque année de 2013 à 2023. Et ce triste sort est partagé par un quart des pages publiées entre 2013 et 2023, qui se retrouvent aujourd’hui inaccessibles, leur contenu perdu à tout jamais… snif…

C’est vrai que le web est en perpétuelle mutation. Les sites changent d’adresse, les serveurs rendent l’âme, les hébergeurs mettent la clé sous la porte… et les dégâts ne s’arrêtent pas là puisque cette cyber gangrène s’attaque aussi aux liens. Telles les routes d’un royaume oublié envahies par les mauvaises herbes, on estime que 23% des liens présents sur les sites d’actualités et 21% sur les sites de gouvernements mènent aujourd’hui vers des destinations disparues, avalées par le temps. Des pages uniques ont été supprimées ou déplacées, mais parfois, c’est le site entier qui disparaît.

Même Wikipédia, pourtant réputée pour la qualité de ses sources, n’est pas épargnée. En effet, 54% des articles de l’encyclopédie collaborative ont au moins une référence qui pointe vers une page aux abonnés absents. De quoi faire trembler les fondations du temple du savoir !

Quant aux réseaux sociaux, c’est encore pire. Sur Twitter (devenu X, merci Elon pour ce nom de merde !), près de 20% des tweets disparaissent dans les mois qui suivent leur publication. Cette volatilité est encore plus marquée pour les tweets en langues turque ou arabe, dont plus de 40% disparaissent dans les trois mois. Sur Twitter, les comptes utilisant les paramètres de profil par défaut sont également plus susceptibles de voir leurs tweets supprimés. Plus de 60% des tweets non visibles étaient dûs à des comptes rendus privés, suspendus ou supprimés, et 40% étaient des tweets individuels supprimés par leurs auteurs.

Face à cette hémorragie de données, la fondation Internet Archive et son célèbre site Wayback Machine, s’échinent à sauvegarder des pans entiers du web avant qu’il ne soit trop tard… mais il faudra davantage d’efforts et d’imagination. car le web croît à une vitesse prodigieuse, et la préservation de ce patrimoine immatériel de l’humanité reste un défi de taille.

En attendant de trouver la solution miracle, pensez à sauvegarder régulièrement vos sites et vos contenus favoris, faites des archives que chacun peu s’approprier, et n’hésitez pas à signaler les liens morts à leurs propriétaires ! Car le web est notre bien commun et nous devons le protéger des ravages du temps. Perso, j’avoue, je supprime automatiquement mes tweets au bout de quelques mois mais en ce qui concerne les archives de mon site, rares sont les pages qui ont disparu… J’essaye de maintenir tout ça à flot, même si j’avoue que ça me parait un peu inutile vu que beaucoup de mes vieux contenus sont périmés en terme d’information.

Source

Votre lecteur PDF.js préféré peut exécuter du code malveillant !

Par : Korben
20 mai 2024 à 16:57

La bibliothèque JavaScript de visualisation de PDF développée par Mozilla, connue sous le nom de PDF.js, est au centre d’une nouvelle découverte de sécurité assez préoccupante ! Une faille dans le code de rendu des polices permet à un attaquant d’exécuter du JavaScript arbitraire simplement en ouvrant un PDF malveillant. Et attention, cela affecte toutes les applications utilisant PDF.js, y compris Firefox, certains éditeurs de code et navigateurs de fichiers. Aïe aïe aïe !

En gros, lorsque PDF.js affiche une police spéciale, il convertit la description des glyphes en instructions pour dessiner ces glyphes. Cependant, un hacker mal intentionné peut injecter son propre code dans la description de la police, résultant en l’exécution de ce code par le navigateur.

La vulnérabilité, estampillée CVE-2024-4367, repose donc sur une manipulation des commandes de rendu de polices. La commande transform utilisant fontMatrix est exploitée pour insérer du code JavaScript puis PDF.js compile dynamiquement les descriptions de polices pour optimiser les performances. Normalement, ce tableau contient uniquement des nombres, toutefois, cette faille permet d’y injecter des chaînes de caractères. Et en insérant du code JavaScript dans ce tableau, il est possible de déclencher du code lors du rendu d’une police.

Un exploit bien forgé permettrait diverses attaques telles que l’exécution de code arbitraire, le vol de données, ou même la prise de contrôle complète du système via des attaques XSS ou l’exécution de code natif. La vulnérabilité touche actuellement les versions de PDF.js inférieures à 4.2.67.

Selon les chercheurs de Codean Labs, cette vulnérabilité affecte non seulement les utilisateurs de Firefox (<126), mais également de nombreuses applications web et basées sur Electron utilisant indirectement PDF.js pour la fonctionnalité d’aperçu. Ils soulignent également que cette faille exploite une partie spécifique du code de rendu de la police, un segment que les développeurs devraient vérifier attentivement.

Bref, pensez à mettre à jour PDF.js vers une version supérieure à la 4.2.67 et à mettre à jour vos outils vers des version égales ou supérieures à Firefox 126, Firefox ESR 115.11 et Thunderbird 115.11.

Source

Faille RCE critique dans llama-cpp-python – Plus de 6000 modèles d’IA affectés

Par : Korben
20 mai 2024 à 16:45

Imaginez télécharger un modèle d’IA apparemment inoffensif sur une plateforme de confiance comme Hugging Face et découvrir qu’il ouvre en fait une porte dérobée permettant à des attaquants de prendre le contrôle de votre système ! C’est le risque que pose la faille critique CVE-2024-34359, découverte récemment dans le célèbre package Python llama-cpp-python.

Ce package très utilisé permet d’intégrer facilement des modèles d’IA écrits en C++ dans des projets Python. Pour cela, il utilise la bibliothèque de templates Jinja2 qui est capable de faire un rendu dynamique du HTML à partir des données. Une lib surpuissante mais potentiellement risquée si c’est mal configuré !

Et c’est justement là que le bât blesse. Le package llama-cpp-python utilise Jinja2 pour traiter les métadonnées des modèles au format .gguf, mais sans activer les protections nécessaires comme le bac à sable. Du coup, en injectant un template malicieux dans les métadonnées d’un modèle, un pirate peut exécuter du code arbitraire sur le système hôte !

Les dégâts potentiels sont énormes : vol de données, prise de contrôle totale, interruption de services… Surtout que les systèmes IA manipulent souvent des données ultra sensibles. Et vu la popularité de llama-cpp-python, l’impact est massif : plus de 6000 modèles vulnérables rien que sur Hugging Face ! Selon un article détaillé de Checkmarx, cette faille permet des attaques de la chaîne d’approvisionnement, où un acteur malveillant peut injecter du code dans un modèle téléchargé et redistribuer ce modèle compromis pour attaquer les développeurs d’IA.

Découverte par Patrick Peng (alias retro0reg), cette vulnérabilité repose comme je vous l’expliquait sur une mauvaise implémentation du moteur de templates. Cette faille de score CVSS critique de 9.7, permet l’injection de template côté serveur, conduisant à une exécution de code à distance (RCE). Un proof-of-concept a même été publié sur Hugging Face, démontrant comment un modèle compromis peut exécuter du code arbitraire lorsqu’il est chargé ou lors d’une session de chat.

Cela met en lumière un problème plus large : la sécurité des systèmes d’IA est intimement liée à celle de leur chaîne logicielle. Une vulnérabilité dans une dépendance tierce peut compromettre tout un système. Il faut donc redoubler de vigilance à tous les niveaux. Les modèles d’IA étant souvent utilisés au sein de projets critiques et manipulant des volumes importants de données sensibles, la moindre faille peut avoir des conséquences catastrophiques.

Mais rassurez-vous, une solution existe ! La version 0.2.72 de llama-cpp-python corrige le tir en ajoutant une validation des entrées et un bac à sable robuste autour de Jinja2. Si vous utilisez une version antérieure, la mise à jour est plus que recommandée.

Comment savoir si vos modèles sont touchés ? Regardez s’ils utilisent :

  • Le package llama-cpp-python en version < 0.2.72
  • Le format de fichier .gguf
  • Des templates Jinja2 dans les métadonnées

Si c’est le cas, passez immédiatement à la 0.2.72 ! Vous pouvez aussi auditer le code de vos modèles et regarder les permissions avec vos yeux de lynx.

Bref, comme d’hab, une petite faille peut vite tourner au désastre

Source

GPS – Les risques de brouillage et de leurrage expliqués

Par : Korben
20 mai 2024 à 10:08

Vous utilisez probablement le GPS tous les jours sans y penser, que ce soit sur votre smartphone, dans votre voiture ou même dans un avion. Cette technologie de positionnement par satellites, et ses cousines comme GLONASS, Galileo et Beidou, sont devenues tellement courantes qu’on en oublierait presque qu’elles sont vulnérables. Et quand je dis vulnérables, je ne parle pas d’un bug ou d’un plantage logiciel, non. Je parle de menaces bien réelles qui peuvent rendre votre GPS complètement dingue !

Vous voyez, le GPS repose sur des signaux radio ultra faibles émis par des satellites à des milliers de kilomètres. Pour vous donner une idée, c’est un peu comme si vous essayiez d’entendre quelqu’un vous chuchoter quelque chose depuis l’autre bout d’un stade pendant un concert de rock ! Autant dire que c’est le bordel pour entendre quoi que ce soit.

Du coup, pas besoin d’être un génie pour comprendre qu’il est facile de noyer le signal GPS dans un gros brouhaha radio. C’est ce qu’on appelle le brouillage. Avec quelques watts seulement, on peut rendre le GPS inutilisable dans un rayon de plusieurs kilomètres ! Pas besoin d’un doctorat en électronique, un petit bricolage fait maison peut suffire. Évidemment, c’est complètement illégal, mais ça n’empêche pas certains de s’amuser à le faire.

Mais pourquoi brouiller le GPS ? Eh bien, en cas de conflit par exemple, c’est bien pratique pour empêcher l’ennemi de savoir où il est et où tirer ses missiles et ses drones. C’est d’ailleurs ce qui se passe en ce moment autour de l’Ukraine. Des zones de brouillage apparaissent régulièrement, rendant la navigation aérienne hasardeuse.

Mais le brouillage peut aussi servir à des fins moins guerrières. Tenez, en Chine, il paraît que des boîtes de pub brouillent le GPS des drones de leurs concurrents pendant des shows aériens pour leur faire perdre le contrôle et ruiner le spectacle ! De la concurrence de haut vol, sans mauvais jeu de mots.

Et les dégâts collatéraux dans tout ça ?

Parce que mine de rien, on ne dépend pas du GPS uniquement pour savoir si on doit tourner à gauche ou à droite au prochain croisement. Les réseaux de téléphonie mobile s’en servent également pour synchroniser leurs antennes relais. Ainsi, quand le GPS déconne, c’est toute la 4G/5G qui peut partir en vrille !

Mais si vous trouvez que le brouillage c’est déjà costaud, attendez de découvrir le leurrage ! Là, on passe au niveau supérieur. Le leurrage, c’est carrément une technique qui permet d’envoyer de faux signaux GPS pour faire croire à votre récepteur qu’il est ailleurs. Un peu comme si un petit rigolo changeait les panneaux sur la route pour vous faire croire que vous allez vers le sud de la France, alors que vous roulez vers le Nord.

Alors bien sûr, générer un faux signal GPS crédible, c’est autrement plus coton que simplement brouiller la fréquence. Il faut recréer toute une constellation de satellites virtuels avec les bons timings, les bonnes orbites, cohérents entre eux. Un vrai boulot d’orfèvre ! Mais une fois que c’est au point, imaginez le potentiel de nuisance ! Vous pourriez faire atterrir un avion de ligne à côté de la piste. Téléguidez un drone militaire en territoire ennemi ou envoyer un navire s’échouer sur des récifs. Ça fait froid dans le dos…

Heureusement, il existe des parades pour durcir les récepteurs GPS contre ces attaques : Utiliser des antennes directionnelles qui filtrent les signaux ne venant pas du ciel. Analyser en détail les signaux pour repérer les incohérences et les satellites suspects. Recouper avec d’autres capteurs comme les centrales inertielles. La version militaire du GPS dispose déjà de pas mal de protections dont du chiffrement.

Mais pour le GPS grand public dans nos smartphones et nos bagnoles, on est encore loin du compte. À part quelques modèles haut de gamme, la plupart gobent à peu près tout et n’importe quoi tant que ça ressemble à un signal GPS et il va falloir que ça change, et vite !

Scott Manley, un expert en la matière que vous connaissez peut-être pour ses vidéos sur les fusées, aborde en profondeur ces questions dans une vidéo bien documentée sur le sujet. Non seulement il analyse les risques de brouillage et de leurrage, mais il examine aussi les contre-mesures possibles, comme l’utilisation d’antennes directionnelles et l’analyse détaillée des signaux pour repérer d’éventuelles incohérences. Je vous mets la vidéo ici, ça vaut le coup d’œil :

On a beau être fan des nouvelles technos qui nous rendent la vie plus facile, faut quand même garder à l’esprit qu’elles ont leurs failles et leurs limites. Ça ne veut pas dire qu’il faut revenir à la bonne vieille carte Michelin et à la boussole, mais un petit cours de rattrapage en navigation à l’ancienne, ça ne ferait pas de mal !

Perso, la prochaine fois que mon appli Waze me dira de tourner à gauche direct un lac, je me méfierai…

Source

Extensions Chrome – Attention aux ralentissements !

Par : Korben
20 mai 2024 à 09:15

On s’en doutait, mais là c’est prouvé scientifiquement : Les extensions Chrome peuvent sérieusement ralentir vos séances de surf !

C’est en tout cas ce que révèlent les tests menés par la bande de geeks de DebugBear qui ont passé au crible les 5000 extensions Chrome les plus populaires pour voir l’impact sur les performances. Et c’est décevant… Prenez par exemple Monica, un outil IA avec ses 2 millions d’utilisateurs. Et bien elle rajoute tranquillement 1,3 seconde de temps de traitement sur chaque page, même les plus basiques ! Pas glop…

Un autre exemple concerne Honey, un outil qui propose des coupons de réduction et qui compte 20 millions d’utilisateurs. Quand vous surfez sur un site de shopping comme Ikea, ce petit malin s’active et vous colle 1,5 seconde de CPU en plus. Bonjour l’addition !

Mais le pire du pire, c’est MaxAI et ses 800 000 utilisateurs. Cet outil infernal ajoute carrément 2,3 secondes de traitement à chaque page ! What the heck ? On n’est pas tous équipés d’un super GPU quantique de la mort pour compenser le laxisme des dev…

Notons aussi que « Superagent – Automatic cookie consent » cause plus de 4 secondes de traitement par page. Certains programmes de récompenses pour les compagnies aériennes présentent un impact similaire, ajoutant encore plus de délai lorsqu’ils sont actifs.

Heureusement, la plupart des extensions ne sont pas si terribles. 86% ont un impact négligeable, avec moins de 50 millisecondes de temps CPU supplémentaire. Ouf ! Par contre, il y en a quand même 1,7% qui dépassent allègrement la demi-seconde et ça c’est pas cool.

En creusant un peu, on voit que pas mal d’extensions VPN ou de gestionnaires de mots de passe ralentissent sévèrement le chargement des pages. Forcément, elles font transiter les données par des serveurs souvent lents à l’autre bout du monde, donc ça aide pas…

Mais il y a quand même une bonne nouvelle dans ce merdier ! Les bloqueurs de pubs, eux, accélèrent carrément la navigation. Normal, ils empêchent le chargement de tout un tas de contenus indésirables. uBlock Origin, l’un des plus populaires avec ses 37 millions d’utilisateurs, fait fondre le temps de traitement de 57 secondes à moins de 4 secondes sur les sites pleins de pubs ! Magique, mais pensez quand même à le débloquer sur mon site pour me soutenir ou à rejoindre mon Patreon si un jour l’un de mes articles vous a aidé et que vous appréciez mon boulot !

Et au niveau des données téléchargées, ça change la vie. Sans bloqueur, un site bourré de pubs pèse 41 Mo. Avec uBlock Origin, on tombe à moins de 3 Mo. Impressionnant ! Bon après, AdBlock et AdBlock Plus, je vous les déconseille car ils sont moins efficaces. Peut-être à cause du programme des « publicités acceptables » qui peut être désactivée pour améliorer les performances ? Va savoir…

Bref, avis aux développeurs d’extensions : optimisez votre code s’il vous plait ! Chargez le strict minimum, faites tourner vos scripts après le chargement de la page, pas avant. Et laissez les gens tranquilles, n’activez pas vos outils sur tous les sites par défaut quand ça n’a pas lieu d’être !

Google devrait aussi mettre un peu la pression et promouvoir les extensions légères et bien foutues car les gros scripts bien lourds qui se lancent de partout, ça va bien 5 minutes !

Bref, c’est le printemps (même s’il pleut tout le temps), alors profitez en pour faire le tri dans vos extensions ! Virez celles qui ne vous servent à rien et qui bouffent de la ressource comme pas permis ou à minima, désactivez-les quand vous n’en avez pas besoin. Votre navigateur vous dira merci !

Source

LLMLingua – Compresser les prompts pour accélérer les LLM et réduire les coûts

Par : Korben
20 mai 2024 à 09:00

Vous êtes-vous déjà retrouvé frustré par les limites de tokens lorsque vous demandiez à ChatGPT de résumer de longs textes ? Ou découragé par les coûts élevés de l’API GPT-3.5/4 malgré d’excellents résultats ? Si c’est le cas, LLMLingua est fait pour vous !

Développé par des chercheurs de Microsoft, LLMLingua-2 est un outil révolutionnaire de compression de prompts qui permet d’accélérer l’inférence des grands modèles de langage (LLM) comme GPT-3 et GPT-4. Grâce à des techniques avancées d’identification et de suppression des tokens non essentiels, il peut réduire jusqu’à 20 fois la taille des prompts, tout en préservant les performances des modèles.

Que vous soyez un développeur cherchant à optimiser ses coûts d’API ou un utilisateur souhaitant dépasser les limites de contexte, LLMLingua vous offre de nombreux avantages :

  • 💰 Réduction des coûts : En compressant à la fois les prompts et les réponses générées, LLMLingua permet de réaliser des économies significatives sur votre facture d’API.
  • 📝 Support de contextes étendus : Fini le casse-tête du « perdu au milieu » ! LLMLingua gère efficacement les longs contextes et booste les performances globales.
  • ⚖️ Robustesse : Pas besoin d’entraînement supplémentaire pour les LLM. LLMLingua fonctionne de manière transparente.
  • 🕵️ Préservation des connaissances : Toutes les informations clés des prompts originaux, comme l’apprentissage en contexte et le raisonnement, sont conservées.
  • 📜 Compression du cache KV : Le processus d’inférence est accéléré grâce à l’optimisation du cache clé-valeur.
  • 🪃 Récupération complète : GPT-4 est capable de reconstituer l’intégralité des informations à partir des prompts compressés. Bluffant !

Prenons un exemple simple et imaginons que vous vouliez compresser le prompt suivant avec LLMLingua :

python from llmlingua import PromptCompressor

llm_lingua = PromptCompressor()

prompt = "Sam a acheté une douzaine de boîtes contenant chacune 30 surligneurs, pour 10 $ chacune..."

compressed_prompt = llm_lingua.compress_prompt(prompt)

print(compressed_prompt)

Et voilà le travail ! En quelques lignes de code, vous obtenez un prompt compressé prêt à être envoyé à votre modèle favori :

Sam acheté boîtes contenant chacune 30 surligneurs, 10 $ chacune.

Avec un taux de compression de 11,2x, le nombre de tokens passe de 2365 à seulement 211 ! Et ce n’est qu’un début. Sur des exemples plus complexes comme les prompts Chain-of-Thought, LLMLingua maintient des performances similaires avec un taux de compression allant jusqu’à 20x.

Alors bien sûr, pour l’avoir bien testé, faut quand même comprendre que vous n’obtiendrez pas forcement un résultat identique entre le prompte compressé et celui non compressé mais pour un gain de 60 / 70 voire 80%, le résultat généré à partir du prompt compressé reste précis à hauteur de 70 / 80 %, ce qui est très bien.

Pour démarrer avec LLMLingua, rien de plus simple. Installez le package avec pip :

pip install llmlingua

Puis laissez libre cours à votre créativité ! Que vous soyez un adepte du Retrieval Augmented Generation (RAG), des réunions en ligne, du Chain-of-Thought ou même du code, LLMLingua saura répondre à vos besoins. De nombreux exemples et une documentation complète sont à votre disposition pour vous guider.

Perso, je l’ai testé sur de longs prompts que j’avais dans mes scripts, avec Claude3 d’ailleurs et pas ChatGPT et le résultat est top !

A tester ici !

Créez vos niveaux Super Mario 64 avec Mario Builder 64

Par : Korben
20 mai 2024 à 08:02

Oyez, oyez braves gens, je me reveille et j’apprends que des développeurs de choc ont créé un hack de Super Mario 64 qui permet de créer ses propres niveaux ! Oui, vous allez pouvoir réaliser vos propres niveaux dans ce jeu mythique de la Nintendo 64. Enfin !

Alors, parlons un peu de Mario Builder 64. Déjà c’est un outil plutôt intuitif et bien conçu. Pas besoin d’être développeur pour s’en servir et avec un peu de prise en main, vous allez pouvoir façonner les niveaux de vos rêves en un rien de temps. Placez des plateformes par-ci, des ennemis par-là, ajoutez des pièces à collectionner, des power-ups, des passages secrets… Bref, laissez libre cours à votre créativité pour créer des niveaux fun, challengeants ou complètement WTF, un peu comme vous le feriez dans un Minecraft en mode créatif !

Techniquement, Mario Builder 64 est un hack de la ROM de Super Mario 64. Ça signifie qu’il faut bidouiller un peu pour le faire fonctionner mais c’est à la portée de tous. Il vous faudra une ROM de Super Mario 64, un émulateur Nintendo 64 et le patch Mario Builder 64 dispo ici, idéalement en ayant une copie légale du jeu original évidemment.

Pour installer Mario Builder 64, suivez ces étapes :

  1. Téléchargez un émulateur Nintendo 64 comme Parallel Launcher qui supporte l’émulation de carte SD virtuelle, nécessaire pour Mario Builder 64.
  2. Procurez-vous une ROM de Super Mario 64 au format .z64 (version US de préférence). Décompressez-la si besoin.
  3. Téléchargez le patch BPS de Mario Builder 64 sur Romhacking.com ou gamebanana.com.
  4. Patchez la ROM SM64 avec le fichier BPS, soit directement dans Parallel Launcher (menu Options > Manage ROM Sources > onglet BPS Patches) soit avec un outil comme Romhacking.net’s patcher. La ROM de Mario Builder 64 est alors créée !

Une fois tout installé, c’est parti pour des heures de level design intense ! L’interface de Mario Builder 64 est claire et bien pensée. Vous avez accès à une bibliothèque de plus de 100 éléments à disposer dans votre niveau : des blocs, des tuyaux, des ennemis, des obstacles, etc. Vous pouvez aussi régler des paramètres comme la musique, le temps imparti, la position de départ de Mario, et même personnaliser le thème visuel de votre niveau. Que vous souhaitiez créer un niveau speedrun, un parcours à 8 étoiles ou même une calculatrice 8-bit, vous aurez tous les outils nécessaires. Bref, c’est hyper complet !

Vos créations sont stockées sur une carte SD virtuelle créée automatiquement par l’émulateur au premier lancement. Dans Parallel Launcher, cliquez sur le bouton à côté du menu déroulant de la carte SD puis « Browse Files » pour accéder au dossier « Mario Builder 64 Levels » contenant tous vos niveaux au format .mb64.

Mais le plus cool, c’est qu’il est ultra simple d’accéder aux niveaux créés par la communauté. Il suffit de placer les fichiers .mb64 téléchargés dans ce même dossier sur votre carte SD. Que vous soyez fan de niveaux rétro ou de plateformes kaizo hardcore, vous trouverez forcément votre bonheur sur des sites comme Level Share Square ou le serveur Discord Roundtable de Rovertronic. Et si vous ne trouvez pas ce que vous voulez, vous pouvez toujours le créer vous-même !

En plus de tout ça, Mario Builder 64 propose même un thème spécial ‘Beyond the Cursed Mirror‘ qui intègre des éléments issus du hack du même nom, comme le système de ‘Badges’ donnant des power-ups permanents déblocables au joueur, ou encore un boss inédit appelé Showrunner. De quoi pousser encore plus loin les possibilités de création !

Et une fois que votre chef-d’œuvre est terminé, vous pourrez le partager avec le monde entier ! C’est génial de pouvoir jouer aux niveaux créés par d’autres, de voir leur ingéniosité et parfois de s’arracher les cheveux sur des niveaux bien hardcores et inversement, c’est super cool de voir sa création appréciée et commentée par d’autres joueurs.

Bref, j’espère que ce petit article vous aura donné envie de tester Mario Builder 64. A vous de créer maintenant !

Source

Zippy – Boostez vos ebooks avec la bionification

Par : Korben
19 mai 2024 à 18:57

Les livres électroniques ont vraiment modifié mon rapport à la lecture… Je peux emporter toute une bibliothèque dans ma poche, acheter des livres directement depuis le kindle, prendre des notes, lire dans le noir…etc. Mais est ce que vous saviez qu’il est également possible d’optimiser encore plus votre expérience de lecture numérique grâce à la bionification ? Oui terme chelou mais je crois que c’est comme ça qu’on dit.

Je vous en ai déjà parlé y’a quelques années mais cette technique nouvelle, inspirée de recherches en sciences cognitives, consiste à mettre en gras les premières lettres des mots pour faciliter leur reconnaissance visuelle et accélérer la vitesse de lecture. Des études ont ainsi montré que notre cerveau ne lit pas lettre par lettre mais plutôt mot par mot, en se basant sur sa forme globale. Ainsi, en accentuant le début des mots, la bionification guide l’œil pour une lecture plus fluide et efficace.

Évidemment, bionifier manuellement chaque livre de votre bibliothèque serait un travail titanesque. C’est là qu’intervient Zippy, un outil en ligne de commande développé en Python qui automatise le processus pour les ebooks au format ePub. Avec juste quelques lignes de code, vous pouvez transformer n’importe quel livre en version bionique, prête à être transférée sur votre liseuse Kindle ou autre.

Pour en profiter, la première étape est de cloner le dépôt de Zippy sur GitHub :

git clone https://github.com/nimish-ks/zippy.git cd zippy

Pour éviter tout conflit intergalactique entre les dépendances Python, on va ensuite créer un environnement virtuel et y installer les bibliothèques requises via pip :

python -m venv venv source venv/bin/activate # Sous Windows, utilisez plutôt `venv\Scripts\activate` pip install -r requirements.txt

Voilà, votre laboratoire secret est fin prêt pour lancer la bionification à grande échelle ! La formule magique est la suivante :

python zippy.py <fichier_entrée> <fichier_sortie> [--algorithm <algorithme>]

Remplacez <fichier_entrée> par le chemin vers le livre ePub original et <fichier_sortie> par le nom du fichier bionifié à générer. Par exemple :

python zippy.py "Hypérion.epub" "Hypérion_Bionique.epub"

Et hop, quelques nanosecondes plus tard, vous obtenez une version dopée aux hormones de croissance de votre bouquin préféré de science-fiction ! L’algorithme de bionification par défaut, noté "- 0 1 1 2 0.4", détermine le nombre de lettres à mettre en gras en fonction de la longueur des mots et d’autres critères. Mais tel un savant fou, vous pouvez concocter votre propre formule en passant le paramètre --algorithm.

Maintenant que vous maîtrisez le pouvoir de la bionification, vous allez pouvoir dévorer « Hypérion » et tous les autres tomes du cycle d’Endymion à une vitesse supraluminique ! Fini les voyages interstellaires qui durent des plombes, les bouquins bioniques vous téléporteront en un éclair dans des univers extraordinaires.

Comme Zippy s’intègre dans votre flux de travail, vous pouvez adapter les ebooks à vos préférences avant de les transférer sur votre liseuse. Vos yeux vous diront merci !

Évidemment, en bon cyberrebelle, vous pouvez bionifier tous les ebooks qui vous passent sous la main, même ceux protégés par des DRM abusifs. Un petit coup de Calibre et de DeDRM pour les libérer, et hop, à vous la lecture augmentée !

En bidouillant un peu le code de Zippy, vous pourriez même imaginer plein d’autres optimisations à appliquer à vos bouquins voire en faire un plugin pour Calibre. Si c’est le cas, dites le moi, ça m’intéresse.

A vous de jouer !

Source

À partir d’avant-hierFlux principal

WebCopilot : L’ultime outil d’automatisation pour les chasseurs de bugs 🚀

Par : Korben
19 mai 2024 à 09:00

Les chasseurs de bugs et les experts en sécurité web sont toujours à la recherche d’outils pour optimiser leur boulot et dénicher des vulnérabilités et justement, il y a un nouveau venu qui risque bien de faire parler de lui : WebCopilot !

Open source, cet outil d’automatisation combine les fonctionnalités de dizaines d’autres outils réputés comme Subfinder, Nuclei, Amass ou encore SQLMap histoire de vous faire gagner un temps précieux en prenant en charge de A à Z les tâches répétitives et chronophages de l’énumération des sous-domaines, du filtrage des paramètres à risque et du scan des vulnérabilités les plus critiques.

Pour cela, il suffit de lancer WebCopilot sur un domaine cible et il s’occupe de tout :

  • Énumération des sous-domaines via une batterie d’outils (Assetfinder, Sublist3r, Amass, Findomain…)
  • Crawl de tous les endpoints des sous-domaines identifiés
  • Filtrage des paramètres potentiellement vulnérables aux failles XSS, SQLi, LFI, SSRF, Open Redirect… grâce aux patterns de l’outil gf
  • Et enfin, scan des vulnérabilités via des outils comme Nuclei, Dalfox, kxss, SQLMap ou crlfuzz

Vous obtiendrez ensuite un rapport complet qui répertoriera tous les points d’entrée intéressants.

             
                                ──────▄▀▄─────▄▀▄
                                ─────▄█░░▀▀▀▀▀░░█▄
                                ─▄▄──█░░░░░░░░░░░█──▄▄
                                █▄▄█─█░░▀░░┬░░▀░░█─█▄▄█
 ██╗░░░░░░░██╗███████╗██████╗░░█████╗░░█████╗░██████╗░██╗██╗░░░░░░█████╗░████████╗
░██║░░██╗░░██║██╔════╝██╔══██╗██╔══██╗██╔══██╗██╔══██╗██║██║░░░░░██╔══██╗╚══██╔══╝
░╚██╗████╗██╔╝█████╗░░██████╦╝██║░░╚═╝██║░░██║██████╔╝██║██║░░░░░██║░░██║░░░██║░░░
░░████╔═████║░██╔══╝░░██╔══██╗██║░░██╗██║░░██║██╔═══╝░██║██║░░░░░██║░░██║░░░██║░░░
░░╚██╔╝░╚██╔╝░███████╗██████╦╝╚█████╔╝╚█████╔╝██║░░░░░██║███████╗╚█████╔╝░░░██║░░░
░░░╚═╝░░░╚═╝░░╚══════╝╚═════╝░░╚════╝░░╚════╝░╚═╝░░░░░╚═╝╚══════╝░╚════╝░░░░╚═╝░░░
                                                      [●] @h4r5h1t.hrs | G!2m0

Usage:
webcopilot -d <target>
webcopilot -d <target> -s
webcopilot [-d target] [-o output destination] [-t threads] [-b blind server URL] [-x exclude domains]

Flags:  
  -d        Add your target [Requried]
  -o        To save outputs in folder [Default: domain.com]
  -t        Number of threads [Default: 100]
  -b        Add your server for BXSS [Default: False]
  -x        Exclude out of scope domains [Default: False]
  -s        Run only Subdomain Enumeration [Default: False]
  -h        Show this help message

Example: webcopilot  -d domain.com -o domain -t 333 -x exclude.txt -b testServer.xss
Use https://xsshunter.com/ or https://interact.projectdiscovery.io/ to get your server

Fini les heures passées à lancer des dizaines de commandes et à corréler les résultats comme ça, vous pourrez vous concentrer sur l’analyse des vulnérabilités.

Côté utilisation, c’est ultra simple. Il suffit de cloner le repo Github, d’installer les dépendances…

git clone https://github.com/h4r5h1t/webcopilot && cd webcopilot/ && chmod +x webcopilot install.sh && mv webcopilot /usr/bin/ && ./install.sh

…et vous pouvez lancer des scans en une seule commande :

webcopilot -d domain.com -o rapport

Et si vous voulez pousser la configuration plus loin, pas de problème ! WebCopilot propose tout un tas d’options bien pratiques comme :

  • -s pour ne faire que de l’énumération de sous-domaines
  • -x pour exclure certains domaines du scan
  • -b pour spécifier un serveur « blind XSS » externe
  • -t pour régler le nombre de threads et accélérer les scans

Bref, c’est l’outil pratique pour industrialiser encore un peu plus votre processus de bug bounty.

A découvrir ici !

Brancher un vieux Windows sur le Net ? La roulette russe numérique !

Par : Korben
18 mai 2024 à 21:34

Vous pensiez que les vieux Windows étaient devenus inoffensifs avec le temps ? Détrompez-vous ! Le bidouilleur Eric Parker s’est récemment amusé à exposer directement sur Internet des machines tournant sous Windows XP, 2000 et 98, sans aucune protection… et le résultat est franchement flippant.

Parce que oui, même en 2024, quand on branche en direct un vieux Windows sur le net, sans pare-feu matériel pour filtrer les connexions non désirées, c’est le scénario catastrophe assuré. Votre antiquité numérique se retrouve à poil sur les réseaux, à la merci du premier script kiddie venu. Et ça ne fera pas long feu avant que votre bécane ne soit infestée de malwares !

Commençons par Windows 98. Lors de son test, Eric a eu beau patienter, rien ne s’est passé. Pas l’ombre d’un ver, backdoor ou cheval de Troie à l’horizon. Il semblerait que la vieille bécane bénéficie d’une forme de « sécurité par l’obscurité ». Avec si peu de Windows 98 encore connectés, les hackers ne prennent plus la peine d’écrire des exploits dédiés. Ouf !

Passons à Windows 2000. Là, c’est une tout autre histoire ! À peine connecté, les scans de ports ont révélé la présence de SMB, le protocole d’échange de fichiers, réputé pour ses failles béantes. Et quelques minutes plus tard, patatra ! Un bel écran bleu, suivi d’un redémarrage en boucle. En inspectant le système, Eric a découvert une backdoor signée « Shang Xen Smartphone Technology », des modifications de fichiers systèmes et même un mystérieux exécutable caché dans un dossier Temp. De quoi transformer la machine en parfait zombie à la solde des pirates !

Et Windows XP dans tout ça ? Pareil, 10 minutes chrono pour chopper un premier trojan « conhost.exe ». S’en sont suivis la création d’un compte administrateur, l’apparition d’un serveur FTP ouvert aux quatre vents, et tout un tas de saletés en provenance de Russie, le tout bien planqué dans le système. En bonus, un malware s’est même amusé à éjecter Malwarebytes, l’anti-virus qu’Eric avait installé. Bref, un joyeux bazar et une prise de contrôle totale de la machine, malgré un semblant de résistance du pare-feu intégré de XP.

Alors oui, ces expériences peuvent paraître un peu artificielles. Après tout, qui serait assez fou pour connecter directement un Windows préhistorique sur le net aujourd’hui ? Mais elles illustrent bien les progrès en matière de sécurité, et l’importance cruciale des protections réseau modernes (merci le NAT et les pare-feu !).

Et la morale de l’histoire ?

Primo, ne jamais sous-estimer les vieux Windows, ils sont toujours aussi vulnérables qu’à l’époque. Deuxio, faites tourner vos antiquités dans une VM ou un réseau isolé si vous y tenez. Tertio, soyez vigilants même sur les OS récents, les hackers affinent toujours leurs techniques pour exploiter la moindre faille.

Prenez soin de vos ordi, et à demain 🙂

Source

Des distrib Linux commencent à interdire le code généré par l’IA

Par : Korben
18 mai 2024 à 20:50

Ça chauffe du côté des distributions UNIX open source, mes amis. Gentoo et NetBSD viennent de dégainer leur arme anti-IA en bannissant purement et simplement le code généré par de l’intelligence artificielle. Bye bye Copilot, au revoir ChatGPT, votre code IA devient persona non grata chez les irréductibles du libre !

Mais pourquoi tant de haine ? Eh bien nos amis de Gentoo et NetBSD ont plus d’un arguments dans leur sac banane. Premier grief : le copyright. Avec ces IA qui pompent allègrement du code à droite à gauche, on ne sait plus trop à qui appartient quoi. Pas question donc de se retrouver avec du code « contaminé » qui violerait les sacrosaintes licences open source.

Deuxième point noir : la qualité. Vous avez déjà essayé de faire générer du code par ChatGPT ? C’est joli, ça a l’air de marcher… mais y’a quand même souvent des bugs ! Hors de question donc pour Gentoo et NetBSD de laisser entrer du code foireux dans leur précieux dépôts. Ils tiennent à leur réputation de stabilité et de fiabilité, nom d’un kernel en mousse !

Ah et puis il y a aussi la question de l’éthique. Leur point de vue, c’est qu’entre la consommation gargantuesque d’énergie, les violations de copyright pour les entraîner et leur utilisation pour spammer et arnaquer à tout-va, y a de quoi refuser tout ça en bloc. Ils ne veulent pas tremper là-dedans. Et d’un côté, je peux les comprendre.

Alors bien sûr, cette décision va à contre-courant de la hype actuelle mais Gentoo et NetBSD ne sont pas du genre à suivre la mode aveuglément et croient dur comme fer à l’importance du travail humain. Cela ne veut pas dire qu’ils rejettent complètement l’IA évidemment… Ils restent ouverts mais pour l’instant, c’est trop hasardeux. D’autres distrib comme Debian hésitent encore à rejoindre ce mouvement…

Perso, je pense que la question éthique et celle du copyright sont des vraies problématiques pour tous les projets libres car cela pourrait ruiner leurs efforts quand à la licence qu’ils s’attribuent ou leurs objectifs écolo… exactement comme Microsoft qui, en ce moment, est en train de ruiner tous ses efforts de développement durable de ces dernières années en poussant l’IA à fond…

Par contre, je ne suis pas vraiment d’accord avec eux sur la qualité du code produit. Certes, il y a des bugs mais exactement comme avec un humain. Donc, à mon sens, c’est pas pire ou pas mieux, surtout que le dev qui utilise l’IA est quand même censé repasser dessus et corriger les bugs éventuels.

On verra bien quelles distributions suivront ce mouvement éthique. Perso, je suis plutôt très chaud sur l’IA, comme vous le savez, mais en ce qui concerne ce cas spécifique du logiciel libre, je pense que Gentoo et NetBSD prennent la bonne décision en jouant la prudence. Pour le moment, ce n’est pas encore pour eux et ce serait prendre trop de risques.

Mais un jour, ça changera peut-être… On verra bien.

Source

Discord LLMCord – Quand les chatbots s’invitent dans Discord

Par : Korben
18 mai 2024 à 18:48

Vous êtes fan de Discord et vous aimez bidouiller des trucs ?? Alors préparez-vous à découvrir Discord LLMCord. C’est un petit bout de code qui va vous permettre de causer avec des IA directement dans vos canaux, comme si c’étaient vos potes. Et ça marche avec à peu près tous les modèles de langage, qu’ils soient hébergés à distance ou en local sur votre bécane.

Pour lancer une conversation, il suffit de tagger le bot et hop, c’est parti mon kiki. Vous pouvez continuer la discussion en répondant aux messages et ainsi construire des fils de discussion complets. Vous pouvez par exemple :

  • Poursuivre votre propre conversation ou celle de quelqu’un d’autre.
  • « Rembobiner » une discussion en répondant à un vieux message.
  • Poser une question sur n’importe quel message de votre serveur en taguant le bot.

En plus, si vous envoyez plusieurs messages à la suite, ils seront automatiquement mis bout à bout et si vous répondez juste au dernier, le bot verra tous les précédents. Vous pouvez aussi déplacer une conversation dans un fil sans perdre le fil (lol). Il vous suffit de créer un thread à partir d’un message et de tagger le bot dedans pour continuer à papoter.

Côté compatibilité, ça supporte les modèles distants d’OpenAI, Mistral, Anthropic et plein d’autres grâce à LiteLLM. Si vous voulez faire tourner un modèle en local, pas de souci non plus puisque ça marche avec OLLaMa, OobaBooga, Jan, LM Studio ou n’importe quel serveur d’API compatible OpenAI.

Le bot gère même les images si vous utilisez un modèle de vision comme GPT-4, Claude-3 ou LLaVA. Il a un prompt système personnalisable et vous pouvez lui parler en DM pour plus d’intimité (pas besoin de le tagger).

Si vous utilisez l’API OpenAI, LLMCord est également capable de reconnaître l’identité des utilisateurs. De plus, les réponses s’affichent en temps réel, avec un joli dégradé de vert quand c’est fini et s’il cause trop, il coupe automatiquement ses messages en plusieurs morceaux. Pratique pour éviter de se faire ban par Discord ! Il affiche aussi des avertissements utiles si besoin, genre « J’utilise seulement les 20 derniers messages » quand vous dépassez la limite. Bref, c’est un bot bien élevé.

Sous le capot, il utilise un dico global avec des mutex pour mettre en cache les données des messages de manière efficace et thread-safe, comma ça, ça réduit les appels à l’API Discord et ça évite les fuites de mémoire. Le tout totalement en asynchrone.

Pour l’installer, c’est fastoche. Vous clonez le repo GitHub, vous installez les dépendances Python avec pip et vous créez un fichier .env avec vos clés d’API et les paramètres du bot. Lancez le script et tada, l’URL d’invitation de votre bot s’affiche dans la console. Pour plus de détails, suivez ce guide :

  1. Installer Python : Téléchargez et installez Python à partir de python.org.
  2. Cloner le dépôt git : Ouvrez un terminal et clonez le dépôt : bash git clone https://github.com/jakobdylanc/discord-llm-chatbot.git cd discord-llm-chatbot
  3. Installer les packages nécessaires : bash pip install -r requirements.txt
  4. Créer un fichier .env : bash cp .env.example .env
  5. Configurer les variables d’environnement : Ouvrez .env et remplissez les champs nécessaires : plaintext DISCORD_BOT_TOKEN=YOUR_DISCORD_BOT_TOKEN OPENAI_API_KEY=your-openai-api-key MODEL_NAME=local/openai/YOUR_MODEL_NAME
  6. Exécuter le script : Dans le terminal, lancez : bash python llmcord.py

Ah et j’oubliais, LLMCord est open source (vive le libre !), donc si vous voulez contribuer ou l’adapter à vos besoins, forkez et PR sans modération.

Avec ça, votre Discord ne sera plus jamais pareil et je sens que vous allez bien vous marrer ! Alors merci à Lorenper pour l’info car c’est une chouette découverte !

Source

YouTube censure injustement une vidéo d’Adrien de Linuxtricks

Par : Korben
18 mai 2024 à 12:07

Salut les rebelles, aujourd’hui je voudrais vous parler d’Adrien de Linuxtricks qui vient de faire les frais d’une censure injuste de la part de YouTube.

Le pauvre a vu sa dernière vidéo au sujet de VMware Workstation qui passe en gratuit (j’en ai parlé ici), supprimée et sa chaîne sanctionnée. Cette vidéo, mise en ligne ce vendredi 17 mai, avait pourtant été analysée et jugée conforme par les algo de YouTube…

La raison invoquée par Youtube, c’est comme d’habitude. Soi-disant qu’il enfreindrait les règles de la communauté. En réalité, Adrien n’a fait que relayer une bonne nouvelle pour tous les Linuxiens qui voudraient tester la virtualisation tranquillou. Il a même cité les sources officielles comme le blog de VMware. Sauf que YouTube n’a pas aimé… Leurs robots ont bégayé et vu ça comme du piratage. Bref, une fois encore, ces boîtes de conserve américaines ne comprennent rien à rien.

Pour Adrien, c’est vraiment injuste car même si YouTube a des règlements assez stricts, le gros problème, c’est que tout est automatisé. Il a dont tenté de faire appel, mais sans succès et sa demande a été rejetée ce samedi. Sa chaîne écope maintenant d’un avertissement impactant sûrement son référencement, d’une suspension des publications et d’une interdiction de diffuser en direct. Imaginez l’impact sur une chaîne comme la sienne qui compte plus de 54 760 abonnés et sur son moral ! Surtout que les revenus générés par sa chaîne lui permettent de payer l’hébergement de son site, de soutenir des associations comme la Ligue contre le Cancer et de faire des dons à des projets libres. Bref, c’est moche.

Perso, je ne peux pas faire grand chose car je ne connais personne chez Youtube mais je fais tourner. On sait jamais, peut-être qu’en en parlant, ça arrivera aux oreilles d’un humain de chez Google (s’il en reste…) qui prendra enfin le temps d’évaluer la situation de manière juste pour Adrien. L’équipe YouTube France peut d’ailleurs le contacter via l’adresse mail associée à son compte YouTube ou sous son tweet relayant sa lettre ouverte.

Bon courage Adrien, on est avec toi !

Merci à Christophe d’avoir attiré mon attention là dessus.

Créez votre avatar IA en un clin d’oeil avec PuLID

Par : Korben
18 mai 2024 à 11:38

Développé par une équipe de chez ByteDance (mais si, TikTok, votre réseau social préféré), ce modèle baptisé PuLID va vous permettre de créer des images sur-mesure à partir de photos existantes et tout ça en un clin d’œil.

Basé sur le principe d’alignement contrastif, PuLID vous offre une customisation d’identité ultra rapide et de haute qualité. Pour cela, il utilise une architecture qui apprend à la volée les caractéristiques clés d’une identité source (des photos de vous) pour les transposer efficacement sur de nouvelles images cibles (images générées par IA). On obtient alors des visuels uniques générés en quelques secondes à peine, tout en préservant la cohérence des photos d’origine.

Bon, ok, ça peut paraître un peu barbare dit comme ça mais c’est super simple à utiliser. Si vous êtes flemmard, vous pouvez aller directement sur Huggingface ou pour les plus courageux, l’installer sur votre machine. Tout ce dont vous avez besoin, c’est d’un bon vieux Pytorch (version 2.0 minimum svp) et de quelques lignes de code pour démarrer l’entraînement.

PuLID (Pure and Lightning ID Customization via Contrastive Alignment) fonctionne en utilisant des techniques de machine learning pour aligner des représentations latentes en comparant des paires d’images ou d’identités. L’objectif est de maximiser la similarité pour des identités similaires et de minimiser la similarité pour des identités différentes. En ajustant ces représentations grâce à l’alignement contrastif, PuLID permet de créer des images uniques avec une grande précision et rapidité.

Si vous bossez dans la comm et que ous avez déjà quelques concepts arts sympas d’un personnage, mais vous aimeriez voir à quoi il ressemblerait dans différents environnements ou avec des styles graphiques variés, pas de souci ! Vous balancez vos images dans PuLID avec les bonnes instructions et le tour est joué. Vous obtiendrez alors tout un tas de variations stylées de votre personnage, tout en gardant son visage reconnaissable.

L’équipe de ByteDance a pensé à tout : PuLID est 100% open-source et disponible sur GitHub. Vous pouvez donc bidouiller le code comme bon vous semble pour l’adapter à vos besoins. Y’a même des tutoriels et des exemples pour vous aider à prendre en main le bouzin rapidement.

Et pour les plus impatients d’entre vous, voici un petit tuto d’installation pour commencer à jouer avec PuLID :

Pré-requis :

Étapes d’installation :

  1. Cloner le dépôt PuLID :
git clone https://github.com/ToTheBeginning/PuLID.git
cd PuLID

Créer et activer l’environnement conda :

conda create --name pulid python=3.10
conda activate pulid

Installer les dépendances :

pip install -r requirements.txt

Installer PyTorch : Suivez les instructions sur le site de PyTorch pour installer la version compatible avec votre système. Par exemple, pour CUDA 11.7 :

conda install pytorch torchvision torchaudio cudatoolkit=11.7 -c pytorch

Lancer l’application :

python app.py

Pour en savoir plus sur PuLID et récupérer le code source, rendez-vous sur le repo GitHub.

Allez, je vous laisse vous amuser avec votre nouveau jouet. Un grand merci à Lorenper pour l’info. Grâce à toi, on va pouvoir personnaliser nos avatars comme jamais.

Source

❌
❌