Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Comment configurer un VPN sur Apple TV ?

— Article en partenariat avec Surfshark VPN

Vous le savez déjà parce que je vous le répète depuis des années, mais dans notre ère numérique, protéger sa vie privée en ligne et améliorer son expérience de streaming sont essentiels. Et aujourd’hui on va voir ensemble et en détail comment le faire sur une Apple TV.

En intégrant un réseau privé virtuel (VPN) sur votre smart TV, vous débloquez tout un monde de possibilités tout en assurant un accès sécurisé et illimité au contenu. Dans cet article, je vais creuser un peu les tenants et aboutissants de la configuration d’un VPN sur l’appareil de la pomme, en mettant en lumière ses fonctionnalités, ses avantages, et les meilleures options adaptées pour une intégration transparente. Et si vous n’avez pas de TV Apple ? J’ai déjà publié un article pour Surfshark VPN et n’importe quelle smart TV.

Comprendre les VPNs et Apple TV

Qu’est-ce qu’un VPN et comment ça marche ?

En 2024 je pense que tout le monde (au moins sur mon site) sait ce qu’est un VPN, mais dans le cas contraire je vais juste rappeler qu’il s’agit d’un outil qui permet d’établir une connexion sécurisée et chiffrée entre votre appareil et internet. En faisant transiter votre trafic internet par des serveurs distants, un VPN masque votre adresse IP et chiffre vos données, garantissant ainsi anonymat et confidentialité en ligne. Ce chiffrage assure que vos activités en ligne, que ce soit le streaming, la navigation ou le gaming, restent privées et sécurisées loin des regards indiscrets. Et cela même pour votre fournisseur d’accès (grâce au mode camouflage de Surfshark).

Les fonctionnalités de l’Apple TV

Une Apple TV disposant du tvOS, c’est un peu la machine de streaming révolutionnaire par excellence. Elle proposent une multitude d’options de divertissement, avec non seulement des services de streaming, mais aussi (depuis peu) des applications et des jeux. Par contre si l’Apple TV offre un accès fluide au contenu numérique il faut reconnaitre que sa connectivité internet native manque des fonctionnalités de sécurité robustes, mais aussi du déblocage géographique qu’un VPN peut offrir. En intégrant un VPN avec votre Apple TV, vous améliorez votre expérience de streaming, accédez au contenu géorestreint, et protégez votre vie privée en ligne simultanément. Que demande le peuple ?

Bref la trousse à outils par excellence, d’ailleurs je vous ai déjà détaillé tout cela. Mais pour résumer voilà les avantages d’utiliser un VPN avec Apple TV

  • confidentialité améliorée : protégez vos activités en ligne des regards indiscrets et des potentielles violations de données en chiffrant votre trafic internet.
  • Déblocage géographique : accédez au contenu restreint par région et contournez les restrictions de censure facilement, ce qui vous permet en plus de profiter d’une gamme plus large d’options de streaming (catalogues d’autres pays … par exemple le catalogue Netflix).
  • Sécurité renforcée : protégez vos informations sensibles des hackers et des menaces en ligne en chiffrant vos données et en masquant votre adresse IP.
  • Streaming optimisé : surmontez la limitation de vitesse imposée par votre fournisseur d’accès internet et profitez d’un streaming sans tampon de vos contenus préférés, garantissant une expérience de visionnage aux petits oignons

La possibilité de combiner les 2 est encore toute chaude donc toutes les fonctionnalités classiques du VPN ne sont pas encore intégrées : c’est le cas par exemple de la fonction Cleanweb (ça aussi je vous en ai déjà parlé), du MultiHop dynamique ou encore de l’IP fixe. Ces options devraient apparaitre dans un futur plus ou moins proche, en tous cas on peut l’espérer. Et je vous en reparlerai si c’est le cas.

Avez-vous besoin d’un VPN pour votre Apple TV ?

Si vous vous demandez s’il est obligatoire d’utiliser un VPN … la réponse est non. Je ne vous regarderai pas avec moins de bienveillance (encore que …). Mais si ce n’est pas une nécessité absolue pour utiliser Apple TV, il offre quand même de sacrés avantages qui améliorent votre expérience de streaming. Surtout si vous accordez de l’importance à la confidentialité, à la sécurité, ou à l’accès à une gamme plus large de contenu. Et encore plus si vous n’êtes pas trop égoïste et que vous pensez à protéger le reste de votre famille.

Parce que je vous rappelle quand même sur Surfshark VPN supporte un nombre de connexions … illimitées et simultanées. Ce qui reste un des gros points forts de l’outil VPN du requin.

Comment configurer un VPN ?

Voilà le moment que vous attendiez tous, mettre les mains dans le cambouis ! Configurer un VPN sur votre Apple TV peut se faire de plusieurs moyens, chacun adapté à votre configuration matérielle. On va creuser le processus étape par étape, et comme vous allez le voir il n’y a vraiment rien de bien compliqué.

Si vous disposez d’une Apple TV HD ou un modèle 4K (pour les 3 premières générations, voir plus bas) : vous allez commencer par installer l’appli Surfshark sur votre appareil depuis l’App Store (Captain Obvious est parmi nous). Pour ouvrir l’appli, vous pouvez utiliser votre adresse mail habituelle ou directement votre compte Apple. Et pour la version mobile, il suffit de scanner le QR Code qui apparaitra sur l’écran. Jusque là même Mme Michu est encore dans le game.

Ensuite ? Rien, c’est fini. Ce n’est pas une démarche digne de la NASA, c’est ultra simple comme sur n’importe quel autre appareil et c’est fait exprès. Vous allez simplement vous connecter à des serveurs en choisissant un pays en fonction du catalogue de votre plateforme de streaming, du pays le plus proche, etc.

Éventuellement si vous avez des soucis de connexions, il faudra passer par les paramètres de votre Apple TV (Paramètres > Réseau > Détails de connexion > Supprimer VPN) et retenter la connexion. Et si vraiment vous avez du mal et que vous préférez voir de vos yeux comment ça marche, l’équipe a mis en place une vidéo YouTube dans laquelle on apprend que le protocole par défaut est Wireguard (bon choix).

Et si, comme je le mentionnais plus haut, vous disposez d’une télévision Apple des 3 premières générations ? Pas de panique. Elles ne supportent pas l’installation d’applis, mais il est toujours possible de passer par la fonction Smart DNS ou passer par un routeur.

Configurer un VPN sur votre routeur

  1. Accédez à la page des paramètres de votre routeur et localisez la section VPN.
  2. Entrez les identifiants VPN fournis par votre fournisseur de VPN.
  3. Enregistrez les paramètres et redémarrez votre routeur pour appliquer les modifications.
  4. Connectez votre Apple TV au réseau de routeur activé par VPN.

Configurer un routeur virtuel avec un VPN

  1. Installez un client VPN sur votre ordinateur portable ou de bureau.
  2. Configurez un routeur virtuel en utilisant les paramètres intégrés de votre appareil.
  3. Connectez le routeur virtuel à votre serveur VPN.
  4. Connectez votre Apple TV au réseau du routeur virtuel.

Configurer Smart DNS sur votre Apple TV

  1. Accédez au menu Paramètres sur votre Apple TV.
  2. Sélectionnez « Réseau » puis choisissez votre réseau Wi-Fi.
  3. Entrez les adresses DNS fournies par votre fournisseur de VPN.
  4. Enregistrez les paramètres et redémarrez votre Apple TV pour appliquer les modifications.

Comment choisir le meilleur VPN ?

Lors du choix d’un VPN pour Apple TV, prenez en compte les facteurs suivants :

  • Compatibilité : assurez-vous de la compatibilité avec les appareils Apple TV pour une intégration sans faille.
  • Vitesse et performance : optez pour un VPN avec des serveurs rapides et une latence minimale pour améliorer votre expérience de streaming. De ce côté Surfshark a frappé fort en passant la majorité de son parc de serveurs de 1Gb/s à 10 Gb/s ces derniers mois.
  • Couverture serveur : choisissez un fournisseur de VPN avec un vaste réseau de serveurs pour des capacités de déblocage géographique optimales. Ce qui vous permettra d’accéder au contenu du monde entier, mais aussi d’avoir un temps de réponse plus rapide. Surfshark c’est 3200+ serveurs dans 100+ pays.
  • Fonctionnalités de sécurité : les protocoles de chiffrement doivent être solides et reconnus (AES 256, ChaCha20, Wireguard, OpenDNS …), bouton kill switch, split tunneling, protection contre les fuites DNS sont des incontournables aujourd’hui.

Même si la plupart des fournisseurs de VPN offrent un support pour divers appareils, y compris Apple TV, c’est toujours mieux d’aller vérifier précisément si c’est vraiment le cas. Recherchez un VPN qui mentionne explicitement la compatibilité avec les appareils Apple cela vous garantira que vous n’allez pas vous retrouver dans la mouise à devoir bidouiller des solutions annexes ou demander un remboursement. Juste histoire de ne pas avoir de mauvaise surprise, on se prend déjà assez la tête ailleurs. Même si la plupart des outils proposent un remboursement sous 30 jours, vous savez comment ça se passe hein … y’a jamais de soucis pour que l’argent arrive chez eux, par contre pour le retour c’est pas toujours aussi simple. Au moins Surfshark est clair de ce côté, son outil est adapté.

Les meilleurs VPNs pour Apple TV

Alors, comme vous le savez je suis un utilisateur comblé avec Surfshark depuis plusieurs années, qui me convient très bien au quotidien avec très peu de lenteurs, etc. Mais on ne va pas se mettre des oeillères non plus et d’autres VPN font plutôt bien le taf de ce que j’en sais (mais eux sans avoir testé de manière concrète). Un petit tour rapide de quelques outils que je connais en mode bullet points (à prononcer en bon français, boulettes pwoiiiin) :

Surfshark VPN

  • Avantages : connexions simultanées illimitées, fonctionnalités de sécurité robustes, et serveurs optimisés pour le streaming.
  • Compatibilité : compatible avec les appareils Apple TV, intégration transparente, capacités de streaming améliorées, bibliothèques de contenu du monde entier …

NordVPN

  • Avantages : vaste réseau de serveurs, serveurs dédiés au streaming, et protocoles de sécurité de premier ordre.
  • Compatibilité : compatible avec les appareils Apple TV, accès illimité aux bibliothèques de contenu du monde entier.

ExpressVPN

  • Avantages : serveurs ultra-rapides, interface conviviale, et excellent support client.
  • Compatibilité : compatible avec les appareils Apple TV, streaming optimisé et des fonctionnalités de sécurité améliorées.

Et du côté des VPN gratuits ?

Vous connaissez déjà mon avis sur le sujet, oui il existe des bouses options de VPN gratuites. Le souci c’est qu’elles présentent souvent des limitations comme des quotas de données, des vitesses plus lentes, moins de serveurs et c’est blindé de pubs. Et, comme si ça ne suffisait pas, il n’y a pas non plus de niveau de sécurité minimal si vous faites attention à vos données. De plus il y a de très fortes chances que la plupart d’entre eux revendent vos données à divers organismes (il faut bien manger ma bonne dame). Si vous avez déjà essayé d’utiliser un VPN gratuit … vous savez que ça fait aussi mal que de marcher sur des tessons de bouteilles. 

Pour des performances et une sécurité optimales, investir dans un service VPN payant réputé n’est pas un luxe. Performances fiables et stables, des fonctionnalités de sécurité robustes … rien de mieux pour diminuer sa dose de stress.

Surtout au prix actuel qui reste vraiment abordable depuis plusieurs années. On parle de moins de 2.75€/mois TTC avec l’abonnement 2 ans et 2 mois. C’est vraiment pas cher si vous avez 4 ou 5 machines à protéger ou que vous avez de la famille. Et du côté du paiement, Surfshark est plutôt flexible, vous pouvez payer d’un tas de manières différentes : PayPal, carte bancaire ou de débit, Google ou Amazon Pay, et même en cryptomonnaies (l’occasion d’enfin faire quelque chose de vos Ripple ou Cardano … haha). Toujours avec la garantie de 30 jours satisfait ou remboursé.

Je n’en ai pas parlé aujourd’hui parce que c’est déjà pas mal long, mais vous pouvez aussi ajouter diverses options à votre VPN si vous voulez une protection plus complète. Surfshark One (avec son antivirus, son système d’alerte, etc.) ou la version Plus (qui intègre le service Incogni) sont aussi à votre disposition pour quelques euros de plus.

Découvrir le VPN de Surfshark !

Microsoft va inciter les utilisateurs de Windows 10 à passer sur un compte Microsoft

Bad news, la firme de Redmond vient tout juste de lancer une nouvelle mise à jour pour les Insiders sous Windows 10, la build 19045.4353 qui à première vue n’a rien de bien folichon… Mais si on y regarde de plus près, y’a quand même un truc qui risque de vous faire tiquer : Une bannière dans les Paramètres pour vous pousser à abandonner votre bon vieux compte local et passer à un compte Microsoft.

On se demande bien pourquoi Microsoft tient tant à ce qu’on ait tous un compte chez eux sur nos machines. Bon ok, je suppose que c’est lié à toutes leurs fonctionnalités en ligne, genre la synchro des paramètres, les sauvegardes dans le cloud, la gestion simplifiée des abonnements, tout ça mais bon, ça devient un peu pushy je trouve. On dirait presque une incitation à passer sous Linux ^^.

Cette guéguerre de Microsoft contre les comptes locaux sous Windows, ça gave tout le monde, même Elon Musk qui a pété un câble en découvrant qu’il pouvait pas installer Windows 11 sans compte Microsoft. La chance qu’on a sous Windows 10, c’est qu’on peut encore contourner ce forcing sans trop se prendre la tête lors de l’installation initiale mais sous Windows 11 par contre, c’est une autre paire de manches… Impossible d’utiliser un profil local, sauf si vous connaissez l’astuce à base de oobe\bypassnro.

Pour l’instant, ce changement se déploie progressivement, donc vous n’aurez peut-être pas tous droit à ce joli cadeau. Mais si vous voulez voir cette bannière par vous-même, pas de souci… il vous suffit de télécharger l’outil ViVeTool, ouvrez une invite de commande en mode administrateur, et hop, un petit

vivetool /enable /id:42563876

et le tour est joué. (et c’est /disable pour le désactiver)

Par contre, une fois que ce sera en place, pour mettre hors de vue ces satanées bannières, faudra aller dans Paramètres > Confidentialité > Général et décocher l’option « Afficher le contenu suggéré dans l’application Paramètres« . Ou alors, un bon vieux clic sur la croix à côté du bouton « Se connecter maintenant« , et basta.

Alors on migre ou pas ?

D’un côté, ça facilite pas mal de trucs d’avoir un compte Microsoft, surtout avec tous leurs machins à base d’IA qui vont arriver, mais de l’autre, j’aime bien garder un minimum de contrôle sur mes données et ma vie privée. Certains d’entre vous préfèrent d’ailleurs surement garder leurs infos perso pour eux, et ne pas se créer de compte Microsoft ce qui est bien légitime comme préoccupation.

J’ai juste peur qu’à un moment, cette incitation risque à un moment de se transformer en obligation… On verra bien.

Source

TikTok Lite – l’UE exige des réponses sur la version rémunérée

Aïe aïe aïe, on dirait bien que ce cher TikTok s’est encore fourré dans un sacré pétrin ! Figurez-vous que ces petits malins ont eu la riche idée de lancer en douce une nouvelle fonctionnalité dans leur app, sobrement intitulée « Task & Rewards« , dispo en France et en Espagne. Jusque-là, rien de bien méchant, me direz-vous sauf que voilà, cette version soi-disant « light » du réseau social cache en fait un système de récompenses qui paye les utilisateurs en échange de leur fidélité. Et ça, ça ne plaît pas du tout à l’Union Européenne !

En effet, la Commission Européenne vient de sortir l’artillerie lourde en exigeant des réponses de la part de TikTok dans un délai de 24 heures. Pourquoi tant de précipitation ? Eh bien figurez-vous que cette nouvelle fonctionnalité « Task & Rewards » qui rémunère les utilisateurs de plus de 18 ans à coup de bons d’achat ou de « coins » virtuels en échange de leur attention, inquiète.

Toute d’abord, on peut légitimement se poser la question de l’impact d’un tel système sur la santé mentale des utilisateurs, et en particulier des plus jeunes. Parce que bon, encourager les gens à scroller comme des zombies pour gratter trois cacahuètes, c’est quand même un peu limite… Surtout quand on sait à quel point les réseaux sociaux peuvent générer des comportements addictifs. La Commission s’inquiète notamment de l’efficacité de la vérification de l’âge des utilisateurs et de la gestion des plaintes par la plateforme.

Ensuite, il y a la question épineuse de la protection des données personnelles parce que pour distribuer ses récompenses, TikTok va forcément récolter encore plus d’infos sur nos habitudes, nos goûts, nos clics… Bref, de quoi remplir gentiment sa base de données, nourrir son algorithme et cibler toujours plus finement les utilisateurs.

Et là, l’UE ne rigole pas, elle veut des réponses, et vite !!!

TikTok a donc 24 heures chrono pour fournir son évaluation des risques liés à ce nouveau programme et s’il s’avère que la boîte chinoise a encore une fois voulu capturer toutes nos données sans prendre les précautions qui s’imposent, ça risque de chauffer pour son matricule ! La Commission a des pouvoirs qui pourraient potentiellement forcer TikTok à revoir entièrement, voire stopper son modèle économique si des impacts toxiques son relevés.

Bien sûr, TikTok assure qu’il a pris toutes les dispositions nécessaires, genre limiter l’accès à la fonctionnalité « Task & Rewards » aux plus de 18 ans, plafonner les récompenses à environ 1€ par jour et limiter le temps passé quotidiennement sur l’app, pour gratter des points, à seulement une heure. Mais bon, on ne va pas se mentir, ça ressemble quand même furieusement à une stratégie pour garder les gens le plus longtemps possible sur la plateforme. Comme d’hab quoi.

Les associations de consommateurs en Europe avaient déjà tiré la sonnette d’alarme sur l’UX / UI de la plateforme, notamment l’utilisation de monnaie virtuelle pour créer des incitations à l’engagement. Mais à en juger par la surveillance exercée par la Commission sur l’approche de l’app chinoise en matière de conformité au Digital Services Act (DSA), celle-ci devra peut-être aller plus loin pour satisfaire les responsables de ce nouveau règlement européen.

Alors attention TikTok, l’UE a l’œil sur toi !

Un FestIn de roi pour vos Buckets S3

Aujourd’hui on va parler d’un outil de ouf pour trouver des buckets S3 ouverts : FestIn !

C’est le genre d’outil dont raffolent les chercheurs en sécurité puisqu’il qui explore tous les recoins du web pour dénicher des trucs que vous n’auriez jamais trouvé.

FestIn c’est la grosse artillerie de l’énumération de buckets S3 puisqu’il a tellement d’options que les autres outils à côté c’est de la gnognotte. Attention, c’est bien sûr à utiliser uniquement sur vos propres noms de domaines ou dans le cadre de missions d’audit pour lesquelles vous avez toutes les autorisations.

Avec lui, vous allez pouvoir :

  • Utiliser différentes techniques pour trouver des buckets : crawling du DNS et des pages web, analyse des réponses S3
  • Faire vos requêtes en passant par un proxy, no stress 🕶
  • Vous passer des credentials AWS, puisque ça marche avec n’importe quel provider compatible S3
  • Configurer vos propres serveurs DNS, parce que vous êtes trop beau gosse.
  • Profiter d’un crawler HTTP de compétition qui va retourner le web pour vous
  • Faire des recherches récursives et avoir du feedback entre les différents modules pour un max d’efficacité
  • Faire tourner le schmilblick en mode « watch » pour choper les nouveaux domaines en temps réel, ce qui est assez ouf quand on y pense.
  • Sauvegarder tous les domaines découverts dans un fichier, pour faire joujou avec plus tard
  • Indexer direct le contenu des objets des buckets pour faire des recherches full text de la mort, mieux que Google ! 😎
  • Cibler votre recherche sur des domaines spécifiques si vous voulez pas vous éparpiller

Pour l’installer c’est fastoche, au choix :

pip install festin

Ou en mode Docker :

docker run --rm -it cr0hn/festin -h

C’est du brut, du bourrin, puisqu’on va envoyer des requêtes en masse et gratter un max d’infos. Attention cependant, on reste fair-play, on ne veut pas faire planter le serveur non plus.

Par défaut, FestIn prend un unique domaine en argument :

festin mon-super-site.com

Mais on peut aussi lui filer un fichier texte contenant une liste de domaines, histoire d’être plus productif :

  1. Crée un fichier domaines.txt avec tes domaines, un par ligne.
  2. Lance la commande :
cat domaines.txt | festin -f -

FestIn balance plusieurs tests en même temps pour aller plus vite. Par défaut, il en lance 5. Si vous êtes pressé et que votre machine encaisse, vous pouvez augmenter ce nombre avec l’option -c :

festin -c 10 mon-super-site.com

Attention cependant, ne balancez pas un truc de fou, ça risque de faire bugger le site ciblé. On est là pour glaner des infos, pas pour casser du serveur.

L’outil dispose également d’un petit bot intégré qui va scanner le site à la recherche de liens pouvant mener à des buckets S3. On peut le configurer avec plusieurs options :

  • Timeout (-T ou –http-timeout) : Si le site est lent, on augmente le timeout pour pas que le scan plante. Par défaut, c’est 5 secondes.
  • Récursion max (-H ou –http-max-recursion) : On limite la profondeur du scan pour éviter de partir en vadrouille sur tout le net. Par défaut, c’est 3 niveaux, genre site.com -> lien -> site2.com -> lien -> site3.com.
  • Limite de domaine (-dr ou –domain-regex) : On peut dire au robot de se focaliser uniquement sur les sous-domaines qui correspondent à une expression régulière.
  • Liste noire (-B) : Fich un fichier texte contenant des mots clés. Si un domaine contient un de ces mots, on l’ignore.
  • Liste blanche (-W) : Même principe, mais à l’envers. On scanne uniquement les domaines contenant des mots clés de la liste blanche.

Pour cela, vous devez créer un fichier blacklist.txt contenant « cdn » et « photos » (on ignore les liens vers des CDN et des images) puis lancer la commande :

festin -T 20 -M 8 -B blacklist.txt -dr .mondomaine\.com mon-super-site.com

Attention : l’option -dr attend une expression régulière valide au format POSIX. Par exemple, mondomaine.com est invalide, alors que \.mondomaine\.com est correct.

FestIn crache un paquet d’infos intéressantes, pas seulement sur les buckets S3, mais aussi sur d’autres éléments identifiés. Ces infos peuvent ensuite être utilisées avec d’autres outils comme nmap.

Pour récupérer les résultats, FestIn propose trois modes qu’on peut combiner :

  • Fichier de résultats FestIn (-rr ou –result-file) : Ce fichier contient une ligne JSON par bucket trouvé, avec le nom de domaine d’origine, le nom du bucket et la liste des objets qu’il contient.
  • Fichier de domaines découverts filtrés (-rd ou –discovered-domains) : Celui-là liste un domaine par ligne. Ce sont des domaines trouvés par le crawler, le DNS ou les tests S3, mais qui ont été filtrés selon les options définies.
  • Fichier brut de tous les domaines découverts (-ra ou –raw-discovered-domains) : Comme son nom l’indique, c’est la liste brute de tous les domaines identifiés par FestIn, sans aucun filtre. Idéal pour du post-traitement et de l’analyse.

récupérer les résultats dans trois fichiers distincts et enchaîner avec nmap :

festin -rr festin.results -rd domaines_filtres.txt -ra domaines_bruts.txt mon-super-site.com

festin -rd domaines_filtres.txt && nmap -Pn -A -iL domaines_filtres.txt -oN nmap-resultats.txt

FestIn peut utiliser Tor pour plus de discrétion. Il faut juste avoir un proxy Tor lancé en local sur le port 9050 (configuration par défaut). Activez-le avec l’option --tor :

tor & festin --tor mon-super-site.com

Et il peut aussi effectuer des recherches DNS. Voici les options dispo :

  • Désactiver la découverte DNS (-dn ou –no-dnsdiscover) : Si on a pas besoin de ce type de recherche.
  • Serveur DNS personnalisé (-ds ou –dns-resolver) : Pratique si on veut utiliser un serveur DNS différent de celui par défaut.

Comme ceci :

festin -ds 8.8.8.8 mon-super-site.com

Ce script ne se contente pas de dénicher les buckets S3 ouverts, il peut aussi télécharger leur contenu et l’indexer dans un moteur de recherche plein texte. Ça permet ensuite de lancer des recherches directement sur le contenu des buckets ! Pour activer l’indexation, FestIn utilise Redis Search, un projet Open Source.

Il faut deux options :

  • Activer l’indexation (–index) : Indispensable pour que le contenu soit stocké dans le moteur de recherche.
  • Configuration du serveur Redis Search (–index-server) : Uniquement si votre serveur Redis Search est sur une IP/port différent de localhost:6379 par défaut.

Lancez d’abord Redis Search en tâche de fond :

docker run --rm -p 6700:6379 redislabs/redisearch:latest -d

Puis lancez FestIn avec l’indexation et le serveur distant :

festin --index --index-server redis://127.0.0.1:6700 mon-super-site.com

Attention : l’option --index-server doit obligatoirement commencer par le préfixe redis://.

Bien sûr, on a pas forcément envie de relancer FestIn à chaque nouveau domaine à analyser. C’est pour ça qu’il existe le mode surveillance. FestIn se lance et attend l’ajout de nouveaux domaines dans un fichier qu’il surveille. Pratique pour l’utiliser avec d’autres outils comme dnsrecon.

Lancez FestIn en mode surveillance avec le fichier domaines.txt :

festin --watch -f domaines.txt

Dans un autre terminal, ajoutez des domaines à domaines.txt :

echo "encore-un-autre-site.com" >> domaines.txt

Dès qu’un nouveau domaine est ajouté au fichier, FestIn le scanne automatiquement à la recherche de buckets S3 ouverts. Pour aller plus loin, on peut combiner FestIn avec un outil de reconnaissance DNS comme DnsRecon. L’idée est de récupérer des sous-domaines potentiels liés au domaine principal et de les balancer ensuite à FestIn pour scanner d’éventuels buckets S3 cachés.

Etape 1 : Scruter le domaine cible avec DnsRecon

On va utiliser DnsRecon pour trouver des sous-domaines associés à cible.com. Sauvegardez la sortie dans un fichier CSV :

dnsrecon -d cible.com -t crt -c cible.com.csv

Etape 2 : Préparer le fichier pour FestIn

On isole les sous-domaines du fichier CSV pour les injecter dans FestIn (un domaine par ligne) :

tail -n +2 cible.com.csv | sort -u | cut -d "," -f 2 >> cible.com.domaines

Etape 3 : Lancer FestIn et récupérer les résultats

On balance le fichier de sous-domaines à FestIn en activant la recherche Tor, la concurrence à 5, un serveur DNS personnalisé et en sauvegardant les résultats dans des fichiers distincts :

festin -f cible.com.domaines -

Et pour automatiser tout ça sur plein de domaines à la chaîne, on a même un petit script loop.sh bien pratique dans les examples du repo GitHub.

Voilà les amis, vous avez toutes les clés pour utiliser FestIn comme un pro et aller secouer les buckets S3 qui traînent ! C’est quand même un outil hyper complet et puissant, pensez à l’utiliser avec un proxy ou Tor pour pas vous faire bloquer, et amusez vous bien mais toujours de manière éthique et responsable hein !

VASA-1 – Des visages parlants ultra-réalistes et en temps réel

VASA-1 est un nouveau framework qui permet de générer des visages parlants ultra-réalistes en temps réel ! En gros, vous balancez une simple photo à cette IA, ainsi qu’un petit clip audio, et bim ! Elle vous pond une vidéo d’un visage qui parle, avec une synchronisation de la bouche nickel chrome, des expressions faciales hyper naturelles et des mouvements de tête très fluides. C’est hyper bluffant !

Les chercheurs de Microsoft ont réussi ce tour de force en combinant plusieurs techniques de pointe en deep learning. Ils ont d’abord créé un espace latent expressif et bien organisé pour représenter les visages humains. Ça permet de générer de nouveaux visages variés, qui restent cohérents avec les données existantes. Ensuite, ils ont entraîné un modèle de génération de dynamiques faciales et de mouvements de tête, appelé le Diffusion Transformer, pour générer les mouvements à partir de l’audio et d’autres signaux de contrôle.

Et le résultat est juste époustouflant. On a l’impression de voir de vraies personnes qui parlent, avec toutes les nuances et les subtilités des expressions faciales. Les lèvres bougent parfaitement en rythme avec les paroles, les yeux clignent et regardent naturellement, les sourcils se lèvent et se froncent…

En plus de ça, VASA-1 peut générer des vidéos en haute résolution (512×512) à une cadence élevée, jusqu’à 40 images par seconde, avec une latence de démarrage négligeable. Autant dire que c’est le graal pour toutes les applications qui nécessitent des avatars parlants réalistes. On peut imaginer des assistants virtuels avec lesquels on pourrait interagir de manière super naturelle, des personnages de jeux vidéo encore plus crédibles et attachants, des outils pédagogiques révolutionnaires pour apprendre les langues ou d’autres matières, des thérapies innovantes utilisant des avatars pour aider les patients… etc etc..

En plus de pouvoir contrôler la direction du regard, la distance de la tête et même les émotions du visage généré, VASA-1 est capable de gérer des entrées qui sortent complètement de son domaine d’entraînement comme des photos artistiques, du chant, d’autres langues…etc.

Bon, évidemment, il reste encore quelques limitations. Par exemple, le modèle ne gère que le haut du corps et ne prend pas en compte les éléments non rigides comme les cheveux ou les vêtements. De plus, même si les visages générés semblent très réalistes, ils ne peuvent pas encore imiter parfaitement l’apparence et les mouvements d’une vraie personne mais les chercheurs comptent bien continuer à l’améliorer pour qu’il soit encore plus versatile et expressif.

En attendant, je vous invite à checker leur page de démo pour voir cette merveille en action. C’est juste hallucinant ! Par contre, vu les problèmes éthiques que ça pourrait poser du style usurpation d’identité, fake news et compagnie, et connaissans Microsoft, je pense que VASA-1 ne sera pas testable par tous bientôt malheureusement. Mais je peux me tromper…

ChatGPT est plus efficace et moins coûteux qu’un cybercriminel

Les grands modèles de langage (LLM), comme le célèbre GPT-4 d’OpenAI, font des prouesses en termes de génération de texte, de code et de résolution de problèmes. Perso, je ne peux plus m’en passer, surtout quand je code. Mais ces avancées spectaculaires de l’IA pourraient avoir un côté obscur : la capacité à exploiter des vulnérabilités critiques.

C’est ce que révèle une étude de chercheurs de l’Université d’Illinois à Urbana-Champaign, qui ont collecté un ensemble de 15 vulnérabilités 0day bien réelles, certaines classées comme critiques dans la base de données CVE et le constat est sans appel. Lorsqu’on lui fournit la description CVE, GPT-4 parvient à concevoir des attaques fonctionnelles pour 87% de ces failles ! En comparaison, GPT-3.5, les modèles open source (OpenHermes-2.5-Mistral-7B, Llama-2 Chat…) et même les scanners de vulnérabilités comme ZAP ou Metasploit échouent lamentablement avec un taux de 0%.

Heureusement, sans la description CVE, les performances de GPT-4 chutent à 7% de réussite. Il est donc bien meilleur pour exploiter des failles connues que pour les débusquer lui-même. Ouf !

Mais quand même, ça fait froid dans le dos… Imaginez ce qu’on pourrait faire avec un agent IA qui serait capable de se balader sur la toile pour mener des attaques complexes de manière autonome. Accès root à des serveurs, exécution de code arbitraire à distance, exfiltration de données confidentielles… Tout devient possible et à portée de n’importe quel script kiddie un peu motivé.

Et le pire, c’est que c’est déjà rentable puisque les chercheurs estiment qu’utiliser un agent LLM pour exploiter des failles coûterait 2,8 fois moins cher que de la main-d’œuvre cyber-criminelle. Sans parler de la scalabilité de ce type d’attaques par rapport à des humains qui ont des limites.

Alors concrètement, qu’est ce qu’on peut faire contre ça ? Et bien, rien de nouveau, c’est comme d’hab, à savoir :

  • Patcher encore plus vite les vulnérabilités critiques, en priorité les « 0day » qui menacent les systèmes en prod
  • Monitorer en continu l’émergence de nouvelles vulnérabilités et signatures d’attaques
  • Mettre en place des mécanismes de détection et réponse aux incidents basés sur l’IA pour contrer le feu par le feu
  • Sensibiliser les utilisateurs aux risques et aux bonnes pratiques de « cyber-hygiène »
  • Repenser l’architecture de sécurité en adoptant une approche « zero trust » et en segmentant au maximum
  • Investir dans la recherche et le développement en cybersécurité pour garder un coup d’avance

Les fournisseurs de LLM comme OpenAI ont aussi un rôle à jouer en mettant en place des garde-fous et des mécanismes de contrôle stricts sur leurs modèles. La bonne nouvelle, c’est que les auteurs de l’étude les ont avertis et ces derniers ont demandé de ne pas rendre publics les prompts utilisés dans l’étude, au moins le temps qu’ils « corrigent » leur IA.

Source

Un moddeur fait tourner Halo 2 en 720p sur la Xbox originale

Un surdoué du bidouillage nommé Ryan Miceli, alias « grimdoomer » sur GitHub, vient de réussir un truc de malade : faire tourner Halo 2 en 720p sur une Xbox première génération ! Oui, 720p sur la vénérable console de Microsoft sortie en 2001, c’est un bel exploit.

Mais alors, comment ce bon vieux Ryan a-t-il réussi ce tour de passe-passe ? Eh bien figurez-vous qu’il a littéralement mis les mains dans le cambouis pour effectuer des modifications matérielles, dans le kernel, et même sur le jeu lui-même. Un travail de titan !

Pour entrer un peu plus dans les détails techniques, sachez que Miceli a installé un câble IDE 80 broches pour connecter le disque dur de la Xbox à un PCB custom qui supporte des vitesses de transfert plus rapides. Résultat, des temps de chargement optimisés et des perfs globalement boostées. Côté kernel, notre modder de génie a optimisé la gestion de la mémoire pour augmenter la quantité de RAM disponible pour le jeu. Et ce n’est pas tout ! Il a aussi ajouté le support du triple buffering pour un rendu plus fluide, et même des sliders pour régler le FOV.

Faut quand même se rappeler qu’à sa sortie, Halo 2 faisait déjà cracher les poumons de la console alors l’idée de le faire tourner en 720p, ça relève presque de la science-fiction. Il a notamment exploité une faille dans le système de mémoire partagée entre le CPU et le GPU et en bidouillant le code, il a réussi à gonfler la mémoire vidéo. Et même si le framerate trinque un peu à cause de cet overclocking, on est quand même en 720p au final.

Et pour ceux qui voudraient (presque) la même chose sur leur XBox mais qui n’ont pas envie de sortir le fer à souder, Ryan a pensé à tout. Certes, pour obtenir le Graal des 720p, faut mettre les mains dans les composants et charcuter un peu la bête, mais une bonne partie des améliorations, comme la correction du scaling en 480p ou les options pour régler le FOV, fonctionnent sur une console stock !

Bravo à Mister Miceli, un vrai Master Chief !

Source

Atlas – Le robot humanoïde de Boston Dynamics passe en version sans fil

Boston Dynamics, le célèbre fabricant américain de robots, va vous épater une fois de plus avec sa dernière prouesse technologique : Atlas, le robot humanoïde qui passe en mode « sans fil » si je puis dire ! Eh oui, ce grand gaillard mécanique qui nous avait déjà bluffé par ses prouesses physiques fait peau neuve et troque ses câbles encombrants contre une batterie bien pratique. Fini le régime « branché sur secteur », Atlas peut maintenant se la jouer nomade et partir à l’aventure sans sa laisse, en abandonnant son système hydraulique pour un système 100% électrique.

Vous l’aurez compris parce que vous êtes super malins, limite HPI je pense, l’idée c’est de le rendre plus autonome et plus mobile afin qu’il puisse se faufiler dans des endroits inaccessibles, intervenir sur des terrains accidentés, et même prêter main forte lors de missions de sauvetage.

Grâce à ses capteurs et ses algorithmes de pointe, il peut analyser son environnement en temps réel, esquiver les obstacles tel un ninja, et même se relever tout seul comme un grand s’il se prend une gamelle. Un vrai pro de la gymnastique quoiqu’un peu flippant ! Équipé de capteurs comme des caméras, du lidar, du sonar et de l’imagerie thermique, il est ainsi capable de collecter des données dans différents environnements industriels.

Mais le plus fort, c’est qu’Atlas apprend à une vitesse affolante. Ses créateurs lui font suivre un entraînement intensif digne des meilleurs athlètes : courses, sauts, pirouettes… leur robot est soumis à un vrai parcours du combattant et le résultat est là puisqu’à chaque nouvelle vidéo, on reste scotché devant les prouesses de ce prodige mécanique. Grâce à des techniques de vision par ordinateur et d’apprentissage automatique, il peut détecter des objets, reconnaître des formes et suivre des mouvements.

Boston Dynamics a aussi lancé son propre système d’exploitation pour robots, baptisé Orbit. C’est la tour de contrôle qui permet de gérer toute une flotte de robots, de créer des jumeaux numériques des sites, pour orchestrer une robotisation complète d’un entrepôt ou d’une usine par exemple. Pour l’instant, seul Spot y a droit, mais Atlas et Stretch devraient bientôt être de la partie.

Pour le plaisir, je vous remets aussi la vidéo très impressionnante de l’ancienne version d’Atlas qui lui est hydraulique :

Évidemment, tout ça soulève pas mal de questions sur l’avenir de nos amis les robots. Est-ce qu’un jour Atlas et ses copains remplaceront les humains sur les chantiers ou dans les usines ? Est-ce qu’ils viendront nous sauver des décombres tel Superman quand un bâtiment s’effondrera ? Une chose est sûre, Boston Dynamics ne compte pas s’arrêter en si bon chemin. L’objectif c’est de l’intégrer avec les autres systèmes de l’entreprise comme des ERP pour améliorer encore un peu plus ses fonctionnalités et lui fournir des tas de données en temps réel.

Actuellement, la société américaine planche sur une version encore plus perfectionnée d’Atlas, avec une intelligence artificielle dernier cri et une autonomie rallongée et à terme, ce robot pourrait bien devenir le nouveau chouchou des industriels et des services de secours du monde entier même s’il faut garder à l’esprit qu’il ne peut pas encore tout faire car certaines zones confinées ou difficiles d’accès peuvent nécessiter d’autres méthodes d’inspection en complément.

Dommage, je l’aurais bien amené dans la forêt avec moi pour couper du bois. M’enfin, rassurez-vous, même avec toutes ces améliorations, Atlas n’est pas près de piquer le boulot de Terminator. Enfin, espérons-le ! En attendant, on ne peut que saluer le génie des ingénieurs de Boston Dynamics, qui repoussent sans cesse les limites de la robotique.

Et si vous voulez en savoir plus sur les dernières avancées d’Atlas, je vous invite à consulter le blog officiel de Boston Dynamics qui détaille les dessous de cette nouvelle version sur batterie.

Source

Peut être une solution pour réduire les acouphènes ?

Ah les acouphènes, cette bande-son de l’enfer qui nous pourrit la vie ! Perso, j’ai parfois un sifflement strident qui me vrille les tympans et pas de bouton « mute » pour le stopper. Alors ça va, ça m’arrive assez rarement mais si vous faites partie des 8 millions de français à subir ce calvaire, j’ai une bonne nouvelle pour vous.

Figurez-vous que la FDA (l’équivalent américain de notre bon vieille ANSM) a donné son feu vert à un appareil révolutionnaire : le Lenire.

OK, le nom fait un peu penser à un Pokemon, mais ce truc au look tout droit d’un film de science-fiction des années 80 dispose d’un embout buccal bardé d’électrodes en acier inoxydable que vous placez dans votre bouche et qui va littéralement vous envoyer de l’électricité dans la langue !

Wow wow wow, on se calme, c’est pas la chaise électrique non plus hein ^^.

En fait, ça envoie des mini stimulations pour « chatouiller » votre langue, comme si une armée de petites fourmis faisait la fiesta sur votre muscle lingual. Pendant ce temps-là, vous avez un casque sur les oreilles qui diffuse des sons aussi apaisants que le ressac sur une plage de sable blanc et le combo fait que les acouphènes se réduisent. Dans une étude clinique portant sur 326 patients, 84% des participants ont constaté une amélioration significative après 12 semaines d’utilisation du Lenire. C’est quand même un sacré bond en avant quand on sait qu’avant, y avait pas grand chose pour soulager les gens.

Alors comment ça fonctionne ?

Et bien en gros, votre cerveau, c’est comme un projecteur qui est toujours braqué sur ce qui est important. Quand vous avez des acouphènes, c’est comme si le projecteur était bloqué sur le bruit parasite en mode « alerte rouge, défcon 1, on va tous mourir !« . Du coup, impossible de penser à autre chose, ça vous pourrit le ciboulot. Eh ben figurez-vous que cet appareil, c’est le copain qui viendrait vous secouer en mode « hey, regarde plutôt ça, c’est carrément plus intéressant !« . En stimulant votre langue et vos oreilles simultanément, il force donc votre cerveau à changer de focus. Résultat, votre projecteur mental n’est plus obnubilé par les acouphènes !

Après, c’est pas donné… comptez dans les 4000 balles pour vous offrir cette petite merveille. Mais pour les gens qui ont les oreilles qui sifflent à longueur de journée, on est prêt à tout pour retrouver un peu de répit, même à vendre un rein au marché noir (non, je déconne, faites pas !). Après y’a surement moyen de faire un équivalent DIY avec une pile et un casque à réduction de bruit, j’sais pas…

Bref, y’a de l’espoir pour tous les acouphéniques en galère et c’est ce que je voulais partager avec vous aujourd’hui ;-).

Source

Tess – En route vers une IA génératrice d’images qui rémunère les artistes

Les générateurs d’images IA actuels comme Midjourney, Dall-E et j’en passe, font polémique puisqu’ils piochent allégrement dans les œuvres des artistes sans leur consentement ni rémunération. Mais des solutions sont en train de se mettre en place pour les entreprises qui souhaiteraient utiliser l’IA pour illustrer leurs supports sans pour autant piller les artistes.

Une de ces solutions, c’est Tess qui propose une approche que j’ai trouvée intéressante puisqu’elle met en place des collaborations avec des créateurs pour utiliser leur style dans des modèles de diffusion d’images.

Concrètement, chaque modèle d’IA est entraîné sur le style visuel d’un artiste unique, avec son accord puis l’outil utilise un SDXL custom (Stable Diffusion) pour générer les images. Évidemment, à chaque fois qu’une image est générée avec son style, l’artiste touche des royalties ! C’est gagnant-gagnant donc.

L’outil intègre également un système de métadonnées basé sur le protocole C2PA, qui permet d’identifier clairement les images générées par IA et de les distinguer des créations originales.

L’objectif de Tess est donc clair : démocratiser la création d’images artistiques de qualité, en la rendant accessible au plus grand nombre, tout en rémunérant équitablement les artistes et leur permettant de garder la maitrise de leur art. C’est une bonne idée vous ne trouvez pas ?

Et les artistes dans tout ça ? Et bien si j’en crois le site de Tess, ils sont déjà plus de 100 à avoir déjà sauté le pas, séduits par ce nouveau modèle de rémunération. Maintenant si vous voulez devenir clients de la plateforme, ce n’est malheureusement pas encore ouvert à tous, mais une liste d’attente est en place pour vous inscrire et être tenu au courant.

IA sera bientôt capable de se répliquer et survivre d’après le CEO d’Anthropic

Les avancées fulgurantes dans le domaine de l’intelligence artificielle ces dernières années ont suscité autant d’enthousiasme que d’inquiétudes et si les dernières déclarations de Dario Amodei, PDG d’Anthropic, se confirment, nous pourrions bien être à l’aube d’une nouvelle ère où les IA seront capables de se répliquer et de survivre de manière autonome comme n’importe quel être vivant.

Lors d’une récente interview pour le New York Times (je vous mets le transcript ici), Amodei a évoqué la possibilité que nous atteignions bientôt un niveau d’IA qu’il qualifie d’ASL 4. Ce stade, qui implique une autonomie et une capacité de persuasion accrues, pourrait permettre à des acteurs étatiques comme la Corée du Nord, la Chine ou la Russie de renforcer considérablement leurs capacités offensives dans divers domaines militaires.

Pour rappel, il a cofondé Anthropic avec sa sœur Daniela après avoir quitté OpenAI en raison de divergences sur l’orientation de l’entreprise. Chez OpenAI, il avait notamment participé au développement de GPT-3. Donc autant dire qu’il maitrise son sujet.

ASL signifie « Architectural Safety Level » (Niveau de Sécurité Architecturale en français). C’est une échelle empruntée aux laboratoires de virologie concernant leur niveau de « biosécurité » (spéciale dédicace à Wuhan ^^) qu’Anthropic a adapté à sa sauce pour évaluer le niveau de sécurité et de fiabilité d’une IA.

Ça va de 1 à 5 et ça donne à peu près ça :

  • ASL 1 : c’est une IA qui a peu ou pas de garanties de sécurité du tout.
  • ASL 2 : c’est une IA avec quelques garanties de sécurité de base.
  • ASL 3 : c’est une IA avec des garanties de sécurité modérées. Considérée suffisamment fiable pour certaines applications.
  • ASL 4 : c’est une IA avec de solides garanties de sécurité. Elle est considérée comme très fiable et peut être utilisée pour la plupart des applications, y compris les applications critiques comme tout ce qui est militaire.
  • ASL 5 : c’est une IA avec des garanties de sécurité extrêmement élevées. Elle peut être considérée comme sûre même pour les applications les plus critiques.

Donc ASL 4 c’est un niveau élevé et ça peut potentiellement inclure « l’autonomie » et la « persuasion ». Ah et actuellement, on est au niveau ASL 2.

Mais ce qui est encore plus impressionnant, c’est la perspective d’une IA capable de se répliquer et de survivre de manière autonome. Selon lui, nous pourrions atteindre ce stade critique dès 2025 ou 2028. Il ne s’agit pas d’une vision lointaine, mais bien d’un futur proche. Perso, un programme informatique capable de se répliquer et de s’adapter à son environnement (« survivre »), c’est ce que j’appelle un virus… ça ne me dit rien qui vaille. Bref, si les prédictions d’Amodei se confirment, cela soulève de nombreuses questions sur les implications d’une telle avancée technologique : Une IA autonome et capable de se répliquer pourrait-elle échapper à notre contrôle ? Quelles seraient les conséquences sur notre société, notre économie… notre sécurité ?

Comme l’histoire de la conscience la dernière fois, ça fait un peu flipper, mais une fois encore, c’est super important que le développement de ces technologies se fasse de manière responsable et éthique, avec, si c’est nécessaire, des garde-fous.

En tout cas, j’sais pas pour vous, mais moi j’ai l’impression qu’on nage en plein scénario de SF en ce moment.

Source

AiFormat – Un outil en ligne de commande pour formater vos fichiers pour Claude

Si vous vous intéressez un peu aux outils IA, vous connaissez sûrement Claude, l’assistant IA dernière génération d’Anthropic. Depuis la sortie de sa version 3, c’est d’ailleurs devenu mon meilleur pote pour coder à la vitesse de l’éclair. j’ai même pris un abonnement payant en rusant un peu.

Toutefois, le seul truc qui me ralentissait dans mes grandes ambitions, c’était de devoir copier-coller à la main tous mes fichiers de code dans la fenêtre de contexte de Claude pour ensuite lui demander d’analyser ça, et me proposer des corrections ou une nouvelle fonction. Mais ça, c’était avant car je suis tombé sur un petit bijou opensource qui va vous changer la vie : AiFormat.

Ce petit outil en ligne de commande vous permet de sélectionner des fichiers et dossiers, et de les convertir automatiquement dans un format optimisé pour Claude. En deux clics, tout est dans le presse-papier, prêt à être envoyé à votre IA préférée.

Sous le capot, AiFormat utilise Ink, une chouette librairie pour créer des CLI avec une belle interface utilisateur. Ça vous permet de filtrer et naviguer dans vos fichiers, de les sélectionner avec les flèches, et tout ça de façon super intuitive.

Pour l’installer et le prendre en main, c’est hyper simple, tout est expliqué sur la page Github du projet. Ça commence par un simple :

npm install --global aiformat

Ensuite, pour utiliser aiformat, accédez au répertoire contenant les fichiers et dossiers que vous souhaitez partager avec Claude puis lancez la commande suivante :

aiformat

Le créateur a eu la bonne idée de mettre le projet en opensource (MIT license), du coup n’hésitez pas à y jeter un œil et même contribuer si le cœur vous en dit. La communauté vous dira merci !

Franchement, si vous utilisez souvent Claude pour coder ou analyser des projets, c’est un indispensable à avoir dans sa boîte à outils. Ça vous fera gagner un temps fou au quotidien.

Ce robot dessine sur une ardoise magique comme un artiste digne des années 80

Vous êtes-vous déjà demandé comment dessiner comme un pro sur une ardoise magique, ce jouet iconique des années 80 ? Pas simple, même pour les artistes les plus talentueux, car pour les plus jeunes d’entre nous qui n’ont pas connu ce jouet, le but c’était de tracer des formes complexes d’un seul trait en bougeant les molettes verticalement et horizontalement. !

Mais grâce à la puissance du Raspberry Pi et un peu de bidouille, dessiner comme un vrai artiste sur cet objet est devenu un jeu d’enfant ou presque.

En effet, le maker Micah Tilton a eu l’idée géniale de créer un robot dessinateur pour Ardoise magique, piloté par un Raspberry Pi afin de reproduire n’importe quelle image dessus de manière très précise, sans se prendre la tête. Le principe est assez simple (sur le papier en tout cas…). Un Raspberry Pi 4 commande deux moteurs pas-à-pas, fixés sur les molettes de l’ardoise grâce à des adaptateurs imprimés en 3D.

Ensuite, un logiciel permet de transformer n’importe quelle image en une succession d’instructions pour guider le robot. L’image est d’abord redimensionnée à la résolution du jouet (plus ou moins 300 x 214 pixels), puis convertie en noir et blanc. Cette résolution a été choisie pour s’adapter parfaitement à la taille de l’écran de l’écran magique et un algorithme analyse ensuite comment la reproduire en un seul trait continu, comme en vrai.

Et voilà comme ce petit robot peut maintenant dessiner en live des images complexes comme des portraits, des paysages ou des personnages en quelques minutes à peine. Le programme utilise des techniques d’optimisation poussées pour améliorer les performances et la fluidité du tracé et comme par magie, on voit les traits se former progressivement sur la planche, guidés par les mouvements millimétrés des moteurs.

C’est franchement bluffant et un peu comme quand je regarde mon imprimante 3D bosser, ça a un petit côté hypnotique et fascinant.

Micah a partagé le code source ainsi que les plans des pièces nécessaires sur GitHub donc si vous avez un Raspberry Pi qui traîne et une grande sœur qui avait ce joujou, vous pourrez recréer votre propre robot dessinateur à la maison.

Source

Les charlatans débarquent sur MYM

Je ne suis pas un utilisateur de la plateforme MYM ni du côté des créateurs de contenus ni du côté des « consommateurs », mais je sais à peu près qu’elle est leur proposition de valeur… En gros, c’est une plateforme où des gens peuvent vendre leurs vidéos, leur podcasts, des articles, des cours, même des show one-to-one et les utilisateurs payent pour voir ce que les créateurs proposent.

Mais c’est surtout utilisé par des créateurs et des créatrices qui aiment bien vendre des contenus où ils sont à poil. La plateforme a donc le vent en poupe comme vous pouvez vous en douter, et aujourd’hui ils s’ouvrent à quelque chose que je trouve plutôt problématique : les arts divinatoires.

Sous ce terme, ça regroupe plein de conneries comme l’astrologie, la cartomancie, la numérologie, la tarologie… et malheureusement, il y a de plus en plus d’adeptes de tout ça, notamment chez les 25-45 ans qui sont aussi la cible principale de MYM. Cela s’explique probablement parce que le niveau d’intelligence baisse, que l’époque est incertaine / anxiogène et que pendant des années, on a tous subi l’horoscope sur toutes les chaines de TV et de radio en mode normal comme la météo ou les infos. Les médias ont leur part de responsabilité et je n’ai jamais vu le moindre disclaimer avant ce genre de chose pour expliquer que c’est de la fiction pour gens désespérés.

Alors évidemment, tant que c’est pour le fun et que ça fait du bien au moral, pourquoi pas. Mais industrialiser tout ce bordel dans MYM (ou ailleurs), c’est ouvrir grand les portes du n’importe quoi divinatoire pour tondre les gogos qui pensent VRAIMENT qu’on peut prévoir l’avenir. Bref, je trouve ça hyper moyen.

La plateforme promet un accompagnement personnalisé pour les créateurs, mais je peine à croire que ça suffira à éviter les dérives puisque c’est leur cœur de « métier » qui est problématique. On va donc se retrouver comme sur les Live TikTok avec une armée de madame Irma 2.0, prêtes à vous soutirer votre pognon contre une prédiction foireuse sur votre vie amoureuse ou professionnelle. Et comme d’habitude, ce seront ceux qui sont les plus fragiles et les plus crédules, qui se feront vider les poches.

C’est moche et comme MYM ne s’embarrasse pas de scrupules quand il s’agit de faire du blé, ajouter l’astrologie et la voyance dans l’équation, c’est aussi naturel que de verser un grand verre d’eau dans une huile bouillante.

Regardez ça, on dirait le doctolib du paranormal :

Alors vous pensez peut-être que je dramatise parce que vous êtes Poisson ascendant Tête De Cul, mais en vrai, les « arts » divinatoires ça peut vite partir en vrille… Déjà, ça fait croire aux gens que tout est écrit, que leur vie dépend de leur signe, donc ça les incite pas trop à se sortir de leur merde. Ensuite, les prédictions sont par définition hyper vagues, en mode effet barnum et ça enfonce les personnes encore plus dans leurs délires. Il y a en effet des risques psychologiques pour les personnes vulnérables, qui pourraient tomber dans une dépendance à ces pratiques en espérant des réponses à leurs problèmes. Et cela peut aggraver des troubles anxieux ou dépressifs.

Sans parler des conseils moisis du charlatologue qui risquent de faire encore plus de dégâts dans la vie de leurs adeptes qui prendront des décisions irrationnelles sur des sujets importants qui concernent leur santé, leurs finances, mais également leurs relations. Et bien sûr, ça détourne totalement de la pensée rationnelle et de la science, à une époque où les idiocrates font déjà beaucoup de dégâts avec leur chemtrails, leurs reptiliens et autres théories Qanon sans imagination.

Bref, c’est une industrie, un business qui n’a d’autre but que d’arnaquer des gens qui n’ont pas besoin de ça et je trouve ça profondément regrettable que MYM s’embarque là-dedans, contribuant encore un peu plus à transformer ces croyances en un truc normal, répandu et réel. D’ailleurs ça m’étonne qu’il n’y ait pas de régulation et de contrôle sur ce secteur et ça m’étonne encore plus qu’en 2024, les médias donnent du crédit à ce genre de truc.

Bref, gros pouce vers le bas pour eux.

UPT – Le gestionnaire universel de paquets Linux

Vous en avez marre de jongler avec une multitude d’outils de gestion de paquets sur vos différents systèmes Linux et Unix ? apt sur Debian, dnf sur Fedora, pacman sur Arch, emerge sur Gentoo, pkg sur FreeBSD… Et je ne parle même pas de Homebrew sur macOS ou Scoop sur Windows ! Bref, un vrai casse-tête pour s’y retrouver et se rappeler de toutes les commandes spécifiques à chaque plateforme.

Heureusement, y’a un p’tit dev malin qui a décidé de nous faciliter la vie. Un certain Sigoden a créé upt, pour Universal Package-management Tool. L’idée c’est d’avoir une interface unique pour gérer ses paquets, quelque soit le système utilisé. Sous le capot, upt se base sur le gestionnaire natif de chaque OS mais vous permet d’utiliser une syntaxe commune pour les opérations de base : rechercher, installer, mettre à jour ou supprimer un paquet.

Bon alors techniquement, c’est écrit en Rust donc faudra passer par l’installation de cargo et de quelques dépendances. Mais rassurez-vous, c’est assez simple et bien documenté sur le dépôt GitHub du projet. Une fois que c’est fait, vous pourrez utiliser la commande upt de la même façon sur tous vos systèmes. Voici quelques exemples :

upt update pour mettre à jour le gestionnaire
upt install package_name pour installer un paquet
upt upgrade package_name pour le mettre à jour
upt remove package_name pour le désinstaller
upt search keyword pour chercher un paquet

Plutôt cool non ?

Fini les prises de tête à se rappeler si c’est apt search ou dnf search, pacman -S ou emerge… Maintenant on fait tout pareil avec upt !

Et ça supporte tous les outils suivants sous Linux, macOS, Windows, BSD :

Bon, j’avoue qu’il y a quelques petites limitations. Déjà upt n’est qu’une surcouche, donc il faudra quand même connaître les noms exacts des paquets pour chaque distrib. Pas de nom universel type « python3-dev » qui fonctionnerait sur Ubuntu comme sur Fedora.

Ensuite, si un même paquet est dispo dans plusieurs formats (deb, snap, flatpak…), upt va suivre un ordre de priorité pour choisir lequel installer. Mais vous pouvez outrepasser ça en définissant la variable d’environnement UPT_TOOL avec le nom du gestionnaire souhaité.

Par exemple, pour forcer upt à utiliser les paquets snap pour VLC plutôt que apt ou autre :

export UPT_TOOL='snap'
upt install vlc

Dernier point, certaines commandes un peu plus avancées ne seront pas gérées directement par upt. Il faudra alors repasser par le gestionnaire natif. Mais pour une utilisation basique au quotidien, ce petit outil vous fera gagner pas mal de temps et de neurones.

Après, je dis pas que c’est la solution révolutionnaire qui va unifier une bonne fois pour toutes le monde des paquets sur Linux et Unix. Y’a encore du taf pour ça. Mais en attendant, upt est bien pratique pour ceux qui doivent régulièrement passer d’un système à l’autre.

Et puis soyons honnêtes, nous les linuxiens on est un peu maso sur les bords. On aime bien quand c’est compliqué et qu’il faut batailler pour faire un truc. Alors un outil qui simplifie les choses, ça va en rebuter plus d’un ! Mais je suis sûr que ça peut rendre service à pas mal de monde malgré tout.

En attendant, amusez-vous bien et n’oubliez pas : dans le doute, RTFM ! 😄

Source

AirChat – Le Twitter (X) vocal qui fait le buzz

Depuis son lancement en version bêta il y a quelques jours, Airchat, cette application de messagerie entièrement vocale fait un buzz d’enfer dans la Silicon Valley.

C’est vraiment un concept aussi original que bizarre (c’est mon avis) puisque l’idée, c’est de permettre aux utilisateurs de communiquer uniquement par messages audio asynchrones, un peu à la manière des bons vieux répondeurs d’antan. Concrètement, sur votre fil d’actualité, défilent des blocs de texte qui sont en fait des transcriptions de messages vocaux et si vous voulez réagir, pas besoin de clavier : vous appuyez sur un bouton, vous enregistrez votre voix, et hop, c’est envoyé ! Vous pouvez également poster des photos et des vidéos si vous le souhaitez.

Je l’ai testé (mon pseudo c’est korben.info) et c’est vrai que l’interface utilisateur est similaire à d’autres plateformes de médias sociaux. On peut suivre d’autres utilisateurs, faire défiler un flux de publications, puis répondre, aimer et partager ces publications. C’est Twitter, c’est Threads, c’est Bluesky… Sauf que la grande différence, c’est que tout se fait à la voix !

Ce qui est bluffant, c’est quand même la qualité de la transcription des messages audio. L’app utilise de l’IA pour ça, et franchement, ça marche hyper bien, même en français ! J’ai eu très peu de « bug » de transcription pendant mes tests.

Et niveau ambiance, pour l’instant ça se la touche beaucoup en mode « Vocal Fry from Silicon Valley », donc j’espère que des franc-comtois vont rapidement s’emparer de l’application pour rafraichir un peu ça. Mais ça ouvre pas mal de débats avec des conversations intéressantes.

Bon après, j’ai quand même quelques petites réserves hein. Déjà, la vitesse de lecture par défaut est en 2x. Alors ok, ça permet d’aller plus vite, mais ça gâche un peu l’expérience. On a l’impression d’écouter parfois des robots. Le défilement automatique des messages est également un peu chiant, avec un petit retour haptique à chaque message qu’on passe, et parfois des enchainements vers le message suivant qu’on n’a pas souhaité.

Maintenant reste à voir comme ça va se passer. Parce que autant, écrire de la merde sur Twitter (oui, j’aime pas dire X) c’est facile. Autant bablater toute la journée à l’oral avec ses amis ou de parfait inconnus sur ce genre de réseau, j’ai pas l’impression que ce soit naturel pour tout le monde, hormis les gens déjà habitués à parler en public ou en podcast.

Mais bon, on verra bien. AirChat reste quand même une belle surprise qui dépoussière un peu le concept de réseau social. Si Twitter c’est du « micro-blogging » comme on disait à l’époque, et bien pour moi Airchat c’est du « micro-podcasting ». Après je me pose plein de questions sur ce qu’ils vont faire de nos empreintes vocales, si ça ne va pas permettre à la NSA d’encore plus nous profiler dans leurs grandes bases de données, ou si des mafieux vont pas pouvoir s’en servir pour alimenter des deepfakes vocaux à grande échelle. Tellement d’interrogations, et j’ai même pas encore bu mon café.

Par contre, si vous voulez rejoindre la bêta fermée, il faudra vous faire inviter par l’un de vos amis.

En attendant, comme d’hab, je vais voir comment ça se développe avant d’aller rajouter des banalités sur cet espace mais j’ai déjà des idées à la con, comme ralentir l’audio avant de le publier pour avoir quelque chose de plus naturel, et proposer des threads geek épiques façon Reflets d’Acide ou ASMR ou je sais pas, j’ai trop d’idées débiles… raaaah.

Le silence est d’or de toute façon.

Bloqueurs de pubs sur mobile – YouTube contre-attaque

YouTube a encore frappé !

Bah oui parce que si vous pensiez échapper tranquillement aux pubs de la plateforme vidéo de Google sur votre smartphone grâce à votre petit bloqueur de pub préféré, et ben c’est raté. Ces derniers ont décidé de vous pourrir la vie si vous utilisez des applications tierces comme AdGuard ou uBlock Origin pour regarder vos vidéos sans ces satanées réclames.

Maintenant si vous essayez de passer à travers les mailles du filet publicitaire, vous risquez de vous retrouver avec des problèmes de lecture du genre la vidéo qui se met en pause toutes les 30 secondes pour charger ou carrément un message d’erreur qui vous envoie balader.

YouTube aurait lancé cette riposte parce que soi-disant, les créateurs de contenu méritent d’être rémunérés pour leur travail. C’est vrai, mais c’est surtout pour défendre leur énorme bout de gâteau. Perso, je m’en cogne un peu mais là où ça me gène, c’est qu’ils ont carrément menacé de sévir contre les applications qui ne respecteraient pas leurs conditions d’utilisation de l’API. Je vois pas ce qu’ils comptent faire exactement hormis couper l’accès à l’API… Mais j’ai peur que ça aille plus loin comme faire sauter les comptes Github de uBlock, Freetube, Youtube-dl et ce genre d’outils.

Bref, pas le choix, malheureusement. Si vous êtes équipé d’un bloqueur de pub sur votre smartphone ou votre tablette, attendez vous à galérer avec Youtube. Il ne vous restera plus qu’à prendre un abonnement Youtube Premium ou à retourner sur Dailymotion ^^.

Bon après, il reste toujours la bonne vieille méthode de l’adblock sur navigateur web hein. Mais pour combien de temps ?

Allez, je vais au dodo, j’ai les yeux qui se croisent.

Source

RNNoise, la lib qui supprime le bruit, sort en version 0.2

Si vous faites du streaming ou que vous jouez en ligne, vous connaissez probablement RNNoise qui supprime les bruits parasites qui gâchent vos enregistrement ou vos parties de CS, grâce à la magie des réseaux neuronaux. La bonne nouvelle du jour c’est qu’une nouvelle version vient de sortir.

Pour ceux qui ne connaîtraient pas, RNNoise c’est une bibliothèque open source développée par les petits génies de Xiph.Org et Mozilla qui utilise un modèle de réseau neuronal récurrent pour filtrer le bruit en temps réel, tout en préservant la qualité de la voix.

Et les nouveautés sont cool :

  • Déjà, ils ont ajouté des optimisations AVX2 et SSE4.1 pour booster les performances. Votre CPU va carburer comme jamais !
  • Ensuite, ils ont intégré une détection automatique des fonctionnalités CPU, pour utiliser au mieux votre hardware. Avec ça, peu importe votre CPU, il saura faire tourner RNNoise au poil !
  • Enfin, cerise sur le gâteau, les modèles fournis sont maintenant entraînés uniquement sur des datasets publics. Adieu les bases de données privées et bonjour la transparence ! 🌞

RNNoise ne se limite pas à éliminer les bruits lors de vos visioconférences. Cette merveille peut aussi améliorer la reconnaissance vocale, le traitement musical et bien d’autres tâches. En plus de la voix la plus probable, le modèle indique aussi la fiabilité de son estimation, ce qui est très utile pour la reconnaissance automatique de la parole. Mais ce n’est pas le seul facteur qui entre en jeu : les caractéristiques du locuteur, les modèles de langage et les techniques de traitement du signal ont aussi leur importance.

Pour le tester, c’est tout simple :

Commencez par cloner le dépôt GitHub de RNNoise

git clone https://github.com/xiph/rnnoise.git

Puis compilez le machin en lançant ces commandes

./autogen.sh
./configure
make

Pro tip : utilisez l’option -march=native dans vos CFLAGS pour profiter à fond des optimisations AVX2 !

Vous pouvez maintenant tester RNNoise sur un fichier audio brut en 16 bits / 48 kHz

./examples/rnnoise_demo input.pcm output.pc

Et voilà, votre audio ressortira propre comme un sou neuf, débarrassé de tous les bruits indésirables. Vous m’en direz des nouvelles !

Si vous voulez creuser le sujet, je vous recommande de jeter un oeil aux benchmarks RNNoise sur OpenBenchmarking. Vous verrez que c’est loin d’être une solution gadget : sur un bon gros CPU, on arrive à traiter 60 fois le temps réel ! De quoi livestreamer sur Twitch en toute sérénité. D’ailleurs, c’est marrant de voir que RNNoise cartonne aussi sur des architectures exotiques comme les puces POWER ou ARM. Les développeurs ont vraiment fait du bon boulot pour rendre leur code portable. Respect ! 🙌

Bon allez, je ne vais pas vous bassiner plus longtemps et je vous invite à consulter l’excellent article de Jean-Marc Valin. C’est fascinant de voir comment on peut exploiter le deep learning pour améliorer des algorithmes de traitement du signal traditionnels.

Source

Un joueur japonais arrêté pour vente de Pokémons trafiqués

Au pays du Soleil-Levant, un certain Yoshihiro Yamakawa, âgé de 36 ans et résidant dans la charmante ville d’Uji, s’est retrouvé dans de beaux draps. Ce décorateur d’intérieur est soupçonné d’avoir enfreint la loi sur la prévention de la concurrence déloyale en modifiant illégalement les capacités des petits monstres apparaissant dans le célèbre jeu Nintendo Switch « Pokémon Violet ». Selon les autorités, il aurait utilisé des outils spécialisés pour altérer le code du jeu et créer des Pokémon rares aux caractéristiques surpuissantes.

Mais attendez, ce n’est pas tout ! Non content de jouer les apprentis sorciers avec les données du jeu, notre cher Yamakawa a eu la brillante idée de vendre ces Pokémon modifiés pour la modique somme de 13 000 yens (environ 89 euros) pièce, via des marketplaces en ligne. Une sacrée arnaque !

Bien évidemment, Nintendo et The Pokémon Company ne sont pas du genre à laisser passer ce genre de choses surtout quand on touche à leurs précieuses licences. A ce moment là, ils sortent les Dracolosses et justement, Yamakawa risque gros : jusqu’à 5 ans de prison et une amende de 5 millions de yens. De quoi lui faire passer l’envie de jouer au plus malin.

Mais le plus dingue dans tout ça, c’est que les logiciels utilisés pour modifier les données de sauvegarde sont disponibles gratuitement sur Internet. Pas besoin d’être un Mewtwo de l’informatique pour s’en servir. Du coup, les ventes illégales de Pokémon modifiés pullulent sur la toile, générant des revenus estimés à plusieurs millions de yens.

L’association de protection des droits d’auteur des logiciels informatiques (ACCS) met en garde contre ces pratiques qui, non seulement gâchent le plaisir de jouer, mais peuvent aussi déséquilibrer les combats en ligne en donnant des avantages injustes à certains joueurs. Et puis, soyons honnêtes, c’est un peu comme tricher aux examens avec ChatGPT : c’est mal et ça ne rend pas plus intelligent !

Alors, chers dresseurs en herbe, la prochaine fois que vous tomberez sur une annonce alléchante proposant des Pokémon surpuissants à prix cassé, méfiez-vous ! Non seulement vous risquez de vous faire rouler dans la poudre d’escampette, mais en plus, vous encourez de sérieux ennuis avec la justice.

Source

❌