Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 30 avril 2024Korben

WeTransfer intègre un nouveau système de paiement qui va plaire à tous les créatifs

Par : Korben
30 avril 2024 à 15:26

Avis aux créatifs de tout poil : WeTransfer vient de sortir l’artillerie lourde pour vous faciliter la vie ! Fini le temps où vous deviez courir après vos paiements comme un poulet sans tête puisque maintenant, vous allez pouvoir vendre vos petites merveilles directement sur la plateforme. C’est ti pas beau ça ?

En effet, ces derniers ont intégré un paiement via Stripe (il vous faudra donc un compte Stripe), ce qui permet à n’importe qui de recevoir son dû en un clin d’œil, sans se prendre la tête avec des changements de devises. Et si vous êtes abonné payant à WeTransfer vous n’aurez pas de frais supplémentaires, à part les frais de traitement des paiements standards de Stripe. Pour les autres, pas de panique, vous aurez un accès gratuit aux paiements intégrés sans frais de plateforme supplémentaires jusqu’à fin juin, ce qui permettra de tester. Et après, faudra raquer un peu.

Le fonctionnement est simple comme bonjour :

  1. Connectez-vous à votre compte WeTransfer
  2. Sélectionnez et uploadez le fichier que vous souhaitez vendre
  3. Dans la section « Demander un paiement« , fixez un prix en entrant un montant en euros.
  4. Partagez le lien WeTransfer avec votre client par email, réseaux sociaux ou tout autre canal de communication
  5. Quand votre client clique sur le lien et télécharge le fichier, il devra d’abord soumettre un paiement. Vous pouvez suivre les paiements et gains dans votre compte.

Pour voir ce que ça donne, je vous ai mis un fichier surprise à 20 balles. Ne l’achetez pas.

En tout cas, moi je trouve ça super malin de leur part. WeTransfer est en train de se positionner comme le meilleur ami des créatifs, en leur offrant une solution simple et efficace pour monétiser leur travail, comme ça fini le temps des galères, des paiements en retard et des nuits blanches à se demander si on va pouvoir payer le loyer. Maintenant, on upload, on vend, et on passe à autre chose !

Si tu payes pas, t’as pas le livrable. Simple, basique.

Source

GitHub Copilot Workspace – L’environnement de dev piloté par l’IA !

Par : Korben
30 avril 2024 à 13:48

J’espère que vous êtes bien installés dans votre cockpit, parce que GitHub nous a reservé une sacrée surprise : Copilot Workspace, un environnement de développement nouvelle génération entièrement propulsé par l’IA.

Vous connaissez sûrement déjà GitHub Copilot, ce fidèle acolyte qui nous assiste depuis l’année dernière en nous soufflant des suggestions de code directement dans votre IDE, et bien avec Copilot Workspace, GitHub veut carrément révolutionner la façon de concevoir des logiciels.

L’idée est simple : vous exprimez ce que vous voulez faire en langage naturel, comme si vous discutiez avec votre pote développeur et Copilot Workspace vous aide à transformer votre concept en réalité, étape par étape.

Par exemple, si vous avez une idée de fonctionnalité à ajouter à votre projet, vous ouvrez Copilot Workspace, vous saisissez une description de ce que vous voulez faire, et hop ! L’IA analyse votre requête, génère un plan d’action détaillé, et vous guide tout au long du processus de développement.

Brainstorming, planification, implémentation, tests… Chaque phase est assistée par Copilot Workspace qui vous fera des suggestions, répondra à vos questions, et automatisera un maximum de tâches fastidieuses, le tout de manière transparente et collaborative.

Le top du top, c’est que tout est « steerable » comme ils disent chez GitHub. Cela veut dire que vous gardez le contrôle à tout moment et chaque suggestion de l’IA peut être affinée, modifiée ou rejetée selon vos désirs. Bref, vous restez le pilote et Copilot n’est que votre copilote (et gardez votre culotte) !

D’ailleurs, Copilot Workspace vous permet d’orienter le système via le langage naturel à 2 endroits : en modifiant la spécification (une description de la base de code actuelle et de l’état souhaité) et en modifiant le plan (une liste d’actions à entreprendre dans chaque fichier). Cela vous permet de guider le système vers la solution que vous souhaitez mettre en œuvre. Cette capacité de pilotage est essentielle, car elle permet aux développeurs de dépasser les limites de la taille des suggestions, en imitant la façon dont ils travaillent sur des problèmes réels. Cela se traduit par un code généré plus précis et plus facile à évaluer.

Une fois votre code écrit, vous pouvez le valider et l’exécuter directement dans l’environnement, histoire de vérifier que tout roule comme sur des roulettes. Chaque Copilot Workspace permet une synchronisation en direct avec les Codespaces, ce qui vous permet d’ouvrir un terminal, d’installer des dépendances et d’exécuter votre code directement depuis l’espace de travail. Et si vous avez besoin d’outils plus avancés, hop, vous basculez dans un Codespace pour retrouver une expérience d’IDE complète dans le cloud, avec un serveur exécutant VS Code.

Côté collaboration, vous pouvez partager un instantané de votre Workspace avec vos petits camarades en un clic, pour recueillir leur feedback ou les laisser expérimenter leurs propres idées. S’ils font partie de la preview technique, ils pourront même forker votre Workspace et itérer dessus. Par contre, si vous apportez des modifications à votre Workspace après l’avoir partagé, ces changements ne seront pas reflétés dans la version partagée. Il faudra alors partager un nouveau lien pour transmettre la dernière mouture.

Et le plus chouette, c’est que Copilot Workspace est accessible de partout, même depuis votre smartphone. Comme ça, la prochaine fois que vous avez une illumination en faisant vos courses, vous pourrez directement la prototyper depuis le rayon fromages du supermarché !

Avec cette annonce, GitHub affiche clairement son ambition : démocratiser le développement logiciel en le rendant plus intuitif, plus naturel, plus humain en somme. Leur vision à long terme c’est un monde où tout le monde peut coder aussi simplement qu’on fait du vélo et je dois dire que je suis plutôt emballé par cette perspective puisque je fonctionne déjà comme ça pour mes projets de dev grâce notamment à Cursor.

Sous le capot, Copilot Workspace est propulsé par le modèle GPT-4 Turbo, que les équipes de GitHub ont jugé le plus performant pour cette tâche après avoir testé de nombreuses alternatives. D’ailleurs, c’est intéressant de comparer Copilot Workspace avec les autres fonctionnalités de la gamme Copilot.

Là où Copilot vous aide à écrire du code en faisant des suggestions au fur et à mesure que vous tapez, et où Copilot Chat permet de discuter des changements potentiels, Copilot Workspace est un véritable environnement de développement orienté tâches, qui planifie et rédige des modifications coordonnées sur plusieurs fichiers. Chacun de ces outils a son utilité, et ils se complètent à merveille.

GitHub a surtout compris l’importance d’impliquer les développeurs dans cette aventure. C’est pour ça qu’ils lancent Copilot Workspace en technical preview, histoire de recueillir un maximum de feedback et d’itérer en fonction. Si ça vous tente de jouer les beta-testeurs, c’est par ici pour vous inscrire !

Source

Surveillance et anonymat – la CJUE chamboule la donne

Par : Korben
30 avril 2024 à 12:45

Vous connaissez tous notre amie Hadopi, cette bonne vieille haute autorité qui veille au grain sur les internets français pour protéger les pauvres ayants droits en coupant la connexion des vilains pirates que vous êtes ?

Et bien figurez-vous que ces joyeux drilles viennent de se voir offrir un joli cadeau par la Cour de justice de l’Union européenne (CJUE).

Anéfé, la Cour vient de rendre un arrêt le 30 avril 2024 qui inverse sa précédente jurisprudence sur la question de l’accès aux données personnelles des internautes, et notamment aux fameuses adresses IP.

Avant, c’était motus et bouche cousue, seuls les cas de criminalité grave pouvaient justifier qu’on aille fouiner dans ces données sensibles. Mais maintenant, la CJUE autorise, sous certaines conditions, l’accès massif et automatisé à l’adresse IP associée à l’identité civile et au contenu d’une communication, sans contrôle préalable systématique par un juge ou une autorité administrative indépendante. C’est une sérieuse entaille dans le mur de la vie privée en ligne.

Hadopi est aux anges, forcément. Elle va pouvoir traquer plus facilement les vilains pirates, même si un contrôle judiciaire reste nécessaire dans certains cas. Un petit coup de fil aux FAI, et hop, voilà toutes les infos perso sur qui télécharge quoi.

Big Brother is watching you, comme dirait l’autre.

Alors OK, officiellement, c’est pour la « bonne » cause, lutter contre le piratage, tout ça mais on sait bien comment ça marche. Aujourd’hui, on autorise l’accès à votre nom, prénom et le contenu qui enfreint la loi, et demain, ce sera d’autres infos plus sensibles. D’autant que la CJUE dit aussi que bon, si les États ne jouent pas le jeu et n’appliquent pas ses décisions, elle finira par céder. C’est un peu con pour une institution censée faire respecter le droit.

Bref, c’est un coup dur pour l’anonymat en ligne, même s’il ne disparaît pas totalement. Ça risque de faire tache d’huile. Les assoces comme La Quadrature du Net sont déjà sur le pied de guerre, mais le mal est fait. Va falloir croiser les doigts pour que ça ne donne pas trop d’idées à nos chers dirigeants…

En attendant, un conseil : soyez prudents. Évitez de trop en faire sur les réseaux P2P, chiffrez vos données, sécurisez vos connexions…etc. Et si vous voulez en savoir plus sur le sujet et soutenir ceux qui se battent, allez faire un tour sur le site de la Quadrature, c’est toujours instructif.

Ruviki – Quand le Kremlin réécrit Wikipedia à sa sauce

Par : Korben
30 avril 2024 à 12:03

Vous pensiez que Wikipedia était un havre de savoir libre et ouvert à tous ?

Détrompez-vous ! En Russie, le gouvernement vient de frapper un grand coup en clonant l’encyclopédie collaborative pour en faire une version légèrement différente, histoire de réécrire l’Histoire à sa sauce.

Fini Wikipedia, place à Ruviki ! Enfin quand je dis Ruviki, c’est en fait une version modifiée de Wikipedia en russe (Wikipedia RU) mais sans les articles qui dérangent. Bref, appelez ça comme vous voulez, le principe reste le même : on prend l’encyclopédie, on vire tout ce qui nous plaît pas, et voilà, on a une Wikipedia sous stéroïdes made in Kremlin. Pratique.

Concrètement, ce projet Ruviki a été initié par Vladimir Medeyko, président de Wikimedia.ru (la version russe de la Wikimedia Foundation). Les articles sur les « agents étrangers » (comprenez tous ceux qui osent émettre une opinion sur le gouvernement sans être sponsorisés par Poutine himself), les scandales impliquant des représentants du gouvernement ou encore les rapports sur la torture dans les prisons russes ont comme par magie disparu ! Pouf ! Envolés les « détails » qui fâchent.

Mais le plus drôle dans l’histoire, c’est que même les articles sur des sujets à priori sans rapport y passent. Prenez par exemple l’article sur « 1984 » de George Orwell. Bizarrement, toute mention du « Ministère de la Vérité », l’institution chargée de la propagande et de la réécriture de l’Histoire dans le roman, s’est volatilisée de Ruviki. Étonnant, non ?

Et ne croyez pas que seuls quelques articles sont concernés. D’après une analyse du chercheur Constantine Konovalov, ce sont plus de 200 000 caractères qui ont été modifiés ou supprimés dans les articles sur la liberté d’expression, 150 000 sur les droits humains, 96 000 sur les prisonniers politiques et 71 000 sur la censure. Ça en fait de la réécriture !

Le plus ironique dans tout ça, c’est que les autorités russes présentent ce Ruviki comme une version « fiable » et « neutre » de Wikipedia. Ben voyons… C’est sûr que quand on vire tout ce qui nous arrange pas, ça devient vite plus « neutre ». Dans le genre révision historique de niveau olympique, on n’a pas fait mieux depuis l’invention du correcteur liquide.

Et comme si ça suffisait pas, la véritable Wikipedia en russe est désormais bannie en Russie. Circulez, y a plus rien à voir ! Seule la version tronquée made in Kremlin est autorisée. C’est ballot, les Russes vont devoir se contenter d’une réalité quelque peu… alternative.

Mais bon, après tout, c’est pas comme si la Russie était réputée pour sa transparence, sa liberté d’expression et son amour de la vérité vraie. Alors une encyclopédie sous contrôle étatique, c’est bien pratique pourj le gouvernement qui ne fera plus de nuits blanches en se demandant si un article compromettant va être publié.

La prochaine fois que vous consulterez Wikipedia, ayez une petite pensée pour nos amis Russes qui, eux, devront se contenter de la version caviardée… (et c’est pas du Beluga)

Source

GPT2-chatbot – Une IA mystère qui serait la prochaine évolution d’OpenAI (GPT-4.5 / GPT-5) ?

Par : Korben
30 avril 2024 à 09:51

Vous avez entendu parler de GPT2-chatbot ?

C’est un modèle de langage un peu mystérieux, accessible uniquement sur le site https://chat.lmsys.org, qui semble avoir des super pouvoirs dignes de ChatGPT. Mais attention, suspense… Personne ne sait d’où il sort !

Quand on lui pose la question, ce petit malin de GPT2-chatbot clame haut et fort qu’il est basé sur l’archi de GPT-4 sauf que voilà, ça colle pas vraiment avec son blaze GPT-2…

Du coup, les théories vont bon train. Certains pensent que c’est un coup fourré d’OpenAI, qui l’aurait lâché en mode ninja sur le site de LMSYS pour tester un nouveau modèle en douce, possiblement GPT-4.5 ou GPT-5. D’autres imaginent que c’est LMSYS qui a bidouillé son propre chatbot et qui lui a bourré le crâne avec des données de GPT-4 pour le rendre plus savant que Wikipédia.

Moi, je pencherais plutôt pour la première hypothèse. Pourquoi ? Et bien ce GPT2-chatbot partage des caractéristiques bien spécifiques avec les modèles d’OpenAI, comme l’utilisation du tokenizer maison « tiktoken » ou encore une sensibilité toute particulière aux prompts malicieux.

Au travers de mes propres tests réalisés hier soir, j’ai pu constater que les différences entre GPT2-chatbot et GPT-4 étaient assez subtiles. Les textes générés par GPT2-chatbot sont effectivement mieux construits et de meilleure qualité. Lorsque j’ai demandé à Claude (un autre assistant IA) de comparer des textes produits par les deux modèles, c’est systématiquement celui de GPT2-chatbot qui ressortait gagnant.

Ma théorie personnelle est donc qu’il s’agit bien d’une nouvelle version améliorée de ChatGPT mais je ne pense pas qu’on soit déjà sur du GPT-5. Plutôt du GPT-4.5 grand maximum car les progrès, bien réels, ne sont pas non plus renversants. C’est plus une évolution subtile qu’une révolution.

Les internautes ont aussi leurs hypothèses. Certains imaginent que GPT2-chatbot pourrait en fait être un petit modèle comme GPT-2 (d’où son nom) mais boosté avec des techniques avancées comme Q* ou des agents multiples pour atteindre le niveau de GPT-4. D’autres pensent qu’OpenAI teste en secret une nouvelle architecture ou un nouvel algorithme d’entraînement révolutionnaire permettant d’obtenir les performances de GPT-4 avec un modèle compact. Les plus optimistes voient même en GPT2-chatbot les prémices de l’AGI !

Prêt à tester les talents cachés de GPT2-chatbot ?

Alors direction https://chat.lmsys.org, sélectionnez « gpt2-chatbot », cliquez sur « Chat » et c’est parti mon kiki !

Vous avez droit à 8 messages gratos en mode « tchatche directe » et après, faut passer en mode « Battle » pour continuer à jouer. Un petit conseil : pensez à repartir d’une page blanche en cliquant sur « New Round » à chaque fois que vous changez de sujet, sinon il risque de perdre le fil.

On verra bien dans quelques semaines quelle théorie sortira gagnante de ces discussions.

Source

Rain Alarm – L’app Météo qui vous évite la pluie ☔

Par : Korben
30 avril 2024 à 09:00

J’sais pas vous, mais moi, à chaque fois que je me dis que je vais bosser dans le jardin, que ce soit pour planter des trucs ou tondre la pelouse, je me prends une averse au bout de 5 min. Pire poisseux que François Hollande sur le coup.

Mais avec Rain Alarm, mes mésaventures appartiennent au passé. Cette application d’un nouveau genre n’utilise pas les traditionnelles prévisions météo qui, avouons-le, manquent souvent de précision (A part l’app Météo Agricole à jamais dans mon cœur) mais s’appuie à la place sur des données radar fournies par les services météorologiques gouvernementaux. Ces informations sont mises à jour en temps réel, ce qui permet à l’app de détecter l’approche des précipitations avec une fiabilité inégalée.

Concrètement, Rain Alarm vous envoie une notification dès que de la pluie est détectée dans un rayon prédéfini autour de votre position. Vous pouvez ainsi savoir précisément quand sortir votre parapluie ou, au contraire, profiter d’une accalmie pour vous balader. L’app indique même l’intensité et la zone couverte par les précipitations, pour une information complète.

Autre atout de Rain Alarm c’est sa couverture mondiale. Que vous soyez aux États-Unis, au Japon, à Roubaix ou en Australie, vous pourrez bénéficier de ses alertes. L’app fonctionne dans de nombreux pays, et la liste ne cesse de s’allonger. Ce qui est pratique si comme moi, vous tondez la pelouse dans plusieurs fuseaux horaires.

Au-delà de son utilité au quotidien, Rain Alarm ouvre de nombreuses perspectives. Elle peut devenir l’alliée des agriculteurs pour optimiser l’arrosage des cultures, des organisateurs d’événements en extérieur pour sécuriser leurs manifestations, ou encore des gestionnaires de réseaux d’eau pour anticiper les risques d’inondation. Les possibilités sont nombreuses !

Si ça vous branche, sur Desktop, il suffit de télécharger Rain Alarm sur votre smartphone, via le Chrome Web Store ou le site addons.mozilla.org pour Firefox. Le site propose aussi de vous notifier directement. Et il y a bien sûr des app mobiles pour Android et iOS.

La première course de voitures autonomes a eu lieu à Abu Dhabi !

Par : Korben
29 avril 2024 à 22:32

L’avenir est en marche les amis, et il trace sa route à toute vitesse sur l’asphalte brûlant du circuit de Formule 1 d’Abu Dhabi ! Oui, je vous parle bien de la première course de Formules 100% autonomes durant laquelle il y a eu quelques crashes, des tête-à-queue et des sorties de piste intempestives, mais globalement ces bolides bourrés d’IA et de capteurs ont réussi à boucler leurs tours comme des grands, même si on est encore loin des meilleurs pilotes humains. Mais pour un coup d’essai c’est plus que prometteur !

On avait donc au départ de cette finale 4 voitures badgées Dallara (les monoplaces de Super Formula japonaise), modifiées pour embarquer un paquet de technologies de conduite autonome dernier cri : caméras, radars, LiDARs, GPS RTK, unité de calcul surpuissante, et bien sûr tout un tas de logiciels et d’algorithmes de dingue. Chaque voiture représentait une écurie talentueuse : on avait Polimove et Unimore pour l’Italie, TUM et Constructor AI pour l’Allemagne.

La course s’est déroulée en deux temps, d’abord sous régime de voiture de sécurité pour habituer les engins à rouler en peloton sur la piste, puis en mode attaque où là c’était chacun pour sa pomme ! Et autant vous dire que ça n’a pas raté, dès les premiers virages ça a commencé à partir en cacahuète, surtout dans l’épingle à cheveux en fin de ligne droite.

L’ équipe italienne Polimove, grande favorite avec les meilleurs chronos en qualif’, a mordu la poussière sur le 4ème tour avec un gros tout droit et impossible de repartir. Du coup leurs rivaux de Unimore ont pris la tête, avant de se faire dépasser par une attaque surprise de TUM. Ça a failli être le carambolage quand la voiture de tête a subitement ralenti, mais finalement tout le monde est passé !

Constructor AI n’était pas dans le rythme mais au moins ils ont franchi la ligne d’arrivée. Bref, au terme de rebondissements en pagaille, de bugs logiciels aléatoires et de dépassements limite kamikaze, c’est finalement TUM et sa voiture nommé Haley qui s’est imposé devant Unimore et Constructor AI. Un succès 100% germanique donc…

Mais cette course complètement folle, c’est surtout une première historique et un grand pas en avant pour la mobilité autonome. Elle montre qu’il est possible de faire rouler des véhicules intelligents à très haute vitesse dans un environnement complexe et dynamique, avec des progrès hallucinants d’une année sur l’autre.

Comme je vous le disais en intro, chaque voiture est équipée d’une suite de capteurs, notamment des caméras, des LIDAR, des radars et des systèmes GPS/INS, qui recueillent en permanence des données sur l’environnement de la voiture. Ces données sont transmises à un logiciel puissant qui utilise la vision par ordinateur et des algorithmes d’apprentissage automatique pour analyser et interpréter les informations en temps réel. Sur la base de cette analyse, le logiciel génère des signaux de contrôle qui dirigent les actions de la voiture, telles que la direction, l’accélération et le freinage, par le biais de moteurs électriques et de systèmes hydrauliques.

En outre, les voitures communiquent entre elles et avec l’infrastructure de la piste via des protocoles de communication dédiés, permettant une coordination et une prise de décision efficaces.

Et si vous avez jeté un œil à la vidéo, reconnaissez que c’est un sacré spectacle de voir ces engins du futur se tirer la bourre ! Ça change des habituels Grand Prix et on a vraiment l’impression de plonger dans un jeu vidéo futuriste style WipEout. D’ailleurs si vous voulez voir les choses de plus près, les organisateurs ont publié une app de réalité virtuelle qui vous place directement dans l’habitacle de ces bolides. Avec un casque VR sur la tête, c’est comme si vous y étiez !

Bref, ette première course auto 100% autonome c’est quand même un tour de force technologique, et ça ouvre un paquet de perspectives même si je doute que ça prenne un jour la place des courses automobiles « humaines » dans le cœur des spectateurs.

Source

Hier — 29 avril 2024Korben

Ikki veut jouer avec moi ?

Par : Remouk
29 avril 2024 à 14:48

— Article rédigé par l’ami Remouk (DansTonChat) – Merci à lui —
— Contient des liens affiliés Amazon —

Je ne sais pas qui a eu cette idée et encore moins qui l’a validée, mais fallait le faire. 😅 Créer une suite à Ikki (appelé aussi Boomerang ou encore Farmers Rebellion), jeu considéré comme ultra pourri, sorti dans les années 80 sur la première Nes et en salles d’arcade, mélanger son concept initial au déjà culte Vampire Survivors, y ajouter une couche multijoueur… Et voici Ikki Unite sur PC et Nintendo Switch !

Ikki Unite est donc un clone de Vampire Survivors : notre personnage, au milieu de l’écran, attaque automatiquement pour se défendre face aux vagues d’ennemis qui essayent de le buter. Haut, bas, gauche, droite, et c’est parti ! Ikki dispose tout de même de sa propre originalité, à commencer par le contexte : on incarne différents membres du peuple qui se rebellent contre le magistrat maléfique.

Il s’agit de le renverser : nous avons donc différents objectifs à accomplir (souvent combattre un boss) et pour se faire, il faudra explorer la map afin de se rendre au bon endroit, éclater un max de sbires farfelus pour faire de l’XP, ramasser objets et bonus, bref, progresser sur le chemin.

Car oui, on progresse, on débloque de nouveaux pouvoirs, de nouvelles armes, qui elles-mêmes deviennent de plus en plus puissantes. On recrute aussi d’autres personnages qui vont nous suivre et nous prêter main forte. Ça change de la formule classique, et l’aspect mignon / débile est bien rigolo aussi !

Du roguelite simple, efficace, super plaisant. L’autre originalité de Ikki Unite, et c’est dans le nom, c’est l’aspect multijoueur : on peut faire équipe jusqu’à 16 joueurs en ligne pour mener à bien la révolution ! ✊ Super chaotique et super fun. 😁 C’est là que les différentes classes de personnage (combattants, amplificateurs, explorateurs et soigneurs) prennent toute leur dimension.

Il y a d’ailleurs 16 personnages différents à jouer, de quoi varier les plaisirs et casser un peu la répétitivité inhérente à ce style de jeu. Niveau contenu y a pas mal de choses, c’est bien fourni. On sent que les développeurs se sont fait plaisir !

Pour conclure, Ikki Unite ne paie pas de mine, mais il a tout de même son charme, sa valeur ajoutée, son intérêt à lui, et rien que ça c’est cool. 🙂 Si vous appréciez le genre ça change un peu. Pour ma part, j’aurais du mal à vous dire si ça vaut ses 12 à 15€ (selon la plateforme) quand « l’original » est à 5€ maximum… Au pire, attendez une petite promo. 🙃

Retrouvez Ikki Unite sur PC (Steam) ou Nintendo Switch

weAudit – Une extension Visual Studio Code pour ceux et celles qui font de l’audit

Par : Korben
29 avril 2024 à 09:00

Salut les codeurs !

Aujourd’hui, je vais vous causer d’un truc qui va révolutionner votre façon d’auditer le code : l’extension VSCode weAudit ! C’est développé par les génies de Trail of Bits et c’est vraiment chouette, vous allez voir.

Il s’agit un outil de revue de code collaborative (d’audit quoi…) qui vous permet de prendre des notes et de traquer les bugs directement dans VSCode. Plus besoin de jongler entre 36 outils, weAudit centralise tout

Il est d’ailleurs bourré de fonctionnalités ultra pratiques :

  • Des signets pour vos trouvailles et vos notes
  • Un suivi des fichiers audités pour savoir où vous en êtes
  • De la collaboration pour bosser en équipe sans vous marcher dessus
  • La création directe d’issues GitHub bien formatées

Comme ça, plus besoin de vous prendre la tête avec des outils externes. Vous pouvez aller jeter un œil au code sur le repo GitHub.

Bon allez, je vous donne un petit exemple pour vous montrer à quel point c’est facile à utiliser. Disons que vous tombez sur un bout de code louche. Hop, vous sélectionnez ce code et vous utilisez le raccourci Cmd+J pour ajouter un signet « Finding ». Ça va surligner le code en rouge et ajouter une note dans la liste des findings. Et si vous voulez ajouter des détails sur le problème, pas de souci ! Cliquez sur le finding, remplissez les champs et même créez direct une issue GitHub.

Je ne sais pas comment on faisait avant weAudit.

Pour l’installer, rendez-vous sur le marketplace VSCode. Et si vous êtes à fond dans la sécurité des extensions VSCode, jetez aussi un œil aux articles de blog de Trail of Bits sur les vulnérabilités d’extensions VSCode mal configurées et comment s’échapper d’extensions VSCode bien configurées.

Allez, je vous laisse jouer avec weAudit. Vous m’en direz des nouvelles.

SerenityOS – Le mariage bien vintage entre une interface des années 90 et la puissance actuelle d’Unix

Par : Korben
28 avril 2024 à 09:00

Ah les années 90… L’époque bénie des interfaces old school, des systèmes bien bruts de décoffrage et du code qui sent bon le bricolage ! C’était le bon vieux temps. Mais si je vous disais qu’on peut avoir le beurre et l’argent du beurre ? Profiter de la beauté vintage d’une interface bien rétro et des muscles d’un UNIX moderne ?

Eh oui, c’est le pari un peu fou de SerenityOS, un OS fait maison avec amour qui marie l’interface cosy des 90s et le power user d’aujourd’hui.

Le look d’un Windows 95 croisé avec un Mac OS 8, mais qui repose sur un kernel custom fait à la main, avec une architecture bien clean, des applis maison et des outils qui déchirent. C’est ça SerenityOS.

Alors oui, c’est sûr que ça va pas remplacer votre Ubuntu ou votre Debian pour bosser (quoique, bossez-vous vraiment ?). Mais franchement, pour le fun, ça vaut grave le détour.

Le truc de ouf, c’est que tout est fait from scratch par une équipe de devs passionnés : le browser, la GUI, les jeux, les démos… Même le kernel et la LibC sont faits maison, c’est dire ! Et pourtant, ça reste super cohérent et intégré, avec une vraie philosophie derrière. C’est pas juste de la nostalgie, c’est aussi des idées neuves et du code au top !

Sous le capot, SerenityOS carbure à un kernel préemptif qui gère le multi-threading, un système de fichiers compatible POSIX, une stack réseau IPv4 qui cause TCP et UDP, et même un serveur graphique maison. Tout ça tourne sur du x86 64 bits, et c’est cross-compilé avec les outils modernes comme GCC et Clang. Et si vous êtes du genre power user à la recherche de la moindre killer feature, vous allez être servis :

  • Un browser digne de ce nom, avec support de JavaScript, WebAssembly et des technos web modernes
  • Des applis pour gérer votre vie numérique : mail, chat, calendar
  • Des outils pour les devs : terminal, éditeur, débogueur, profiler
  • Des jeux old-school : démineur, solitaire, échecs
  • Et même un spreadsheet façon Excel, mais en mieux !

SerenityOS c’est un peu comme si vous vous étiez tous réunis dans un garage pour faire le système de vos rêves, avec les technos d’aujourd’hui mais l’état d’esprit et le goût du pixel d’hier. C’est frais, c’est fun, ça donne envie de bidouiller et de se replonger dans les joies du code et de l’OS DIY.

Alors si vous aussi vous avez gardé votre âme de geek des 90s, foncez sur SerenityOS pour tester tout ça !

À partir d’avant-hierKorben

General Motors a espionné et revendu les données de ses clients qui ont vu leur assurance augmenter

Par : Korben
27 avril 2024 à 11:29

Vous conduisez tranquillement votre bagnole, en mode pépère. Quand tout à coup, vous recevez un mail de votre assurance : « Cher M. Kéké, au vu de votre conduite dangereuse, nous devons augmenter votre prime de 150%».

WTF ?!

Vous n’avez eu aucun accident et respectez toujours les limitations…enfin presque… Mais comment votre assureur est-il au courant de votre dernière petite pointe à 135 km/h sur l’autoroute pendant que tout le monde dormait dans la voiture ?

La réponse est simple : votre voiture est une balance ! C’est ce qu’on appelle communément les « boîtes noires », ces petites boîtes qui enregistrent tous les paramètres de conduite : vitesse, accélérations, freinages, trajets…un vrai mouchard numérique. De nombreux constructeurs ont adopté cette technologie, soi-disant pour analyser les accidents ou améliorer la sécurité mais la plupart s’en servent surtout pour faire leur beurre en revendant les données à des tiers, comme les assurances donc.

Votre vie privée passe alors à la trappe et votre portefeuille en prend un coup !

Parmi les plus gros cafteurs, on retrouve General Motors. Le géant américain de l’automobile vient de se faire gauler dans un scandale retentissant. Comme le révèle le New York Times dans une enquête édifiante, GM a espionné des millions de conducteurs pendant des années via son système OnStar, sans leur consentement.

Concrètement, ils ont modifié en catimini leurs conditions d’utilisation pour se donner le droit de collecter un max de données de conduite et de géolocalisation, de manière continue, tout ça planqué au fin fond des CGU en police 2 ! Et le pire, c’est que GM revendait ces précieuses données à des courtiers comme Verisk Analytics, qui les refilaient ensuite aux assureurs pour profiler les conducteurs à leur insu et augmenter le tarif de leur assurance. Un business juteux sur le dos des clients, qui se retrouvent pris en otage.

Après ces révélations fracassantes, GM a été contraint de mettre fin en urgence à ces pratiques déloyales et fait désormais profil bas mais le mal est fait et la confiance durablement rompue. Certains clients furieux ont même lancé un recours collectif pour se faire indemniser. Je sens qu’ils vont casquer sévère !

Alors que faire pour se prémunir de ça ? Déjà, lisez les CGU avant d’accepter quoi que ce soit ! Je sais c’est chiant mais c’est important pour savoir à quelle sauce vous allez être mangés. Ensuite, désactivez toutes les fonctions de suivi que vous pouvez dans les réglages.

Ensuite si votre véhicule est équipé d’un système OnStar ou équivalent qui envoie en permanence des data sans fil, vous pouvez essayer de désactiver tout ça dans les paramètres voire de le débrancher physiquement si c’est possible mais attention à ne pas faire n’importe quoi. Renseignez vous bien avant.

L’espionnage des conducteurs par les boîtes noires est une dérive très préoccupante de l’industrie automobile moderne ultra-connectée et on en revient toujours au même débat : la technologie doit servir les gens, pas les asservir en marchandisant leur vie privée !

Alors soyez vigilants et n’hésitez pas à défendre vos droits.

Source

De la recherche Torrent décentralisée et alimentée par l’IA

Par : Korben
27 avril 2024 à 11:24

Si vous êtes fan de partage de fichiers P2P, ça devrait vous plaire. En effet, des chercheurs de l’université de technologie de Delft qui sont derrière le projet Tribler, ont développé un moteur de recherche torrent complètement décentralisé et alimenté par l’intelligence artificielle.

Bizarre non ?

Alors attention, on n’est pas encore au niveau de Google Search mais l’idée est de combiner les deux technologies : les modèles de langage (les fameux LLM) et la recherche décentralisée. Le principe ensuite, c’est que chaque pair du réseau héberge une partie du modèle de langage, qui peut alors être utilisé pour trouver du contenu à partir de requêtes en langage naturel.

Concrètement, le framework De-DSI (Decentralized Differentiable Search Index) utilise des modèles de langage décentralisés stockés par les pairs et chaque utilisateur peut ainsi contribuer à l’entraînement du modèle.

Côté recherche, les infos sont réparties sur plusieurs pairs, sans besoin de serveurs centraux, comma ça, quand vous lancez une requête, le système d’IA va chercher les meilleurs résultats en fonction des données partagées par les pairs. Chaque pair étant spécialisé dans un sous-ensemble d’infos, ce qui permet aux autres de récupérer le contenu le plus pertinent.

Les grands principes derrière tout ça :

  • La décentralisation : vous stockez et partagez vos propres données, sans passer par un serveur central
  • L’apprentissage automatique : les modèles de langage sont entraînés à partir des infos partagées par les pairs
  • La spécialisation : chaque pair gère un type d’infos, pour fournir les résultats les plus adaptés

Au final, ça donne une IA décentralisée et résiliente, capable de répondre à vos recherches sans serveurs centraux.

Genre, vous pourriez lui demander un truc du style « trouve-moi un lien magnet pour le documentaire sur The Pirate Bay », et hop, le système vous renverrait direct le bon lien, sans même citer le nom du doc. Ou encore « C’est quoi déjà l’adresse Bitcoin de Wikileaks ? ».

Bon pour l’instant, c’est encore un proof of concept et les chercheurs ont testé ça sur un petit dataset avec des URLs YouTube, des liens magnet et des adresses de wallet Bitcoin, mais l’idée, c’est de pouvoir retrouver n’importe quel type de contenu, juste en tapant une requête en français (ou une autre langue). Ce qui est cool aussi, c’est qu’en étant complètement décentralisé, ça empêche n’importe qui de contrôler le système ou de le censurer.

A terme, les chercheurs espèrent carrément développer un « cerveau global pour l’humanité ». Rien que ça. L’idée, c’est d’utiliser l’apprentissage décentralisé pour que la technologie profite au plus grand nombre, sans être contrôlée par les grosses entreprises ou les gouvernements. Comme ils le disent, « la bataille royale pour le contrôle d’Internet est en train de s’intensifier ». Et leur but, c’est de redonner le pouvoir aux citoyens, petit à petit.

En attendant, si vous voulez tester leur proof of concept, je vous mets le lien. Et si vous voulez en savoir plus sur le côté technique, vous pouvez checker leur papier de recherche.

Merci à Letsar pour l’info

Source

LSD – Un ls sous stéroïdes écrit en Rust 🚀

Par : Korben
27 avril 2024 à 09:00

Aujourd’hui, on va parler d’un truc qui s’appelle LSD, mais attention hein, je parle pas de votre dernière soirée chemsex hein… C’est plutôt un clone open-source de la commande ls en mode survitaminé ! Développé par la communauté et écrit en Rust, il rajoute plein de fonctionnalités hyper stylées comme les couleurs, les icônes, la vue en arbre, des options de formatage en pagaille…

L’idée vient du projet colorls qui est vraiment super aussi. Mais LSD pousse le délire encore plus loin. Déjà il est compatible avec quasi tous les OS : Linux, macOS, Windows, BSD, Android…

Et hyper simple à installer en plus… un petit

apt install lsd ou brew install lsd

et c’est réglé.

Ensuite il est ultra personnalisable. Vous pouvez faire votre thème de couleurs et d’icônes sur mesure juste en bidouillant des fichiers de config en yaml. Et il supporte les polices Nerd Font avec des glyphes spéciaux trop classes ! Bon faut avoir la bonne police installée sur son système et le terminal configuré, mais c’est pas bien compliqué. Et si vous êtes sur Putty ou Kitty, y’a des tweaks spécifiques à faire, mais c’est expliqué dans la doc.

Mais attendez c’est pas fini ! LSD gère aussi les liens symboliques, la récursion dans les sous-répertoires (avec une profondeur max en option), des raccourcis pour les tailles de fichiers plus lisibles, des indicateurs pour les exécutables, les dossiers, etc. Il peut même vous sortir des infos de git sur les fichiers de ton repo si vous activez l’option ! Et pleins d’autres trucs que j’ai même pas encore testés…

Depuis que je l’ai installé et que j’ai changé mon alias ls, je me régale à chaque fois que je liste un dossier. J’ai l’impression d’être dans un vaisseau spatial avec des néons partout ! Bon j’exagère à peine, mais franchement ça envoie du lourd.

Allez je vais pas tout vous spoiler non plus, je vous laisse le plaisir de découvrir LSD par vous-même et customiser votre expérience du terminal. Moi en tout cas je suis fan, et je dis pas ça parce que je plane ! 😄

Thx Lorenper pour l’outil !

Durdraw – Un éditeur ASCII pour faire l’art rétro dans votre terminal

Par : Korben
26 avril 2024 à 09:00

Attention, pépite de l’espace à vous faire découvrir aujourd’hui ! Ça s’appelle Durdraw et c’est un éditeur de folie pour créer de l’art ASCII, ANSI et Unicode dans votre terminal !

Imaginez pouvoir dessiner des animations old school avec une palette de 16 ou 256 couleurs, en mixant allègrement les caractères CP437 de l’époque MS-DOS avec de l’Unicode moderne. Le tout avec le support de thèmes customisés et de l’export en HTML et mIRC.

Si comme moi vous avez grandi avec des softs de légende comme TheDraw et PabloDraw, vous allez retrouver direct vos repères, mais avec la puissance et la souplesse du monde Unix en plus.

Durdraw est codé en Python donc pour l’installer c’est ultra simple, un petit coup de pip ou de git clone et vous êtes parés pour entrer dans la 4ème dimension de l’ANSI art 😎.

git clone https://github.com/moneamis/durdraw-demo

cd durdraw-demo

./setup.sh

durdraw -p demo.dur

Les devs ont même pensé à inclure une config d’exemple et des thèmes bien sentis pour pas être largué en arrivant. Une fois lancé, préparez-vous à entrer dans la matrice : ça fourmille de raccourcis clavier dans tous les sens pour éditer au caractère et à la couleur près. Les nostalgiques des BBS apprécieront les commandes à base d’échappement, pendant que les plus modernes pourront même utiliser la souris pour peaufiner leurs chef d’oeuvres.

Et là où Durdraw se pose, c’est qu’il gère les animations image par image avec un contrôle total du timing. Fini l’époque où on dépendait du débit du modem, maintenant on créé des petits flip book ASCII qui restent stables même quand on redimensionne le terminal à la volée. Ça c’est de la qualité mes p’tits potes !

Bon après faut pas se leurrer, Durdraw ne rendra pas votre minitel compatible avec Unreal Engine 5 hein. Mais entre nous, est-ce qu’on a vraiment besoin d’aller jusque là quand on peut déjà pousser l’art ANSI dans ses derniers retranchements ? En plus l’auteur est hyper réactif sur GitHub pour améliorer son bébé au fil des contributions. C’est ça aussi la magie de l’open-source !

Bref, foncez sur https://durdraw.org, et lâchez-vous dans les créations bien rétro !

Merci à Lorenper pour l’info.

Multitasking MS-DOS 4 – L’OS oublié de Microsoft

Par : Korben
27 avril 2024 à 23:40

Multitasking MS-DOS 4. Rien que le nom ça fait rêver. Un nom qui respire le futur, qui transpire l’innovation. Mais c’est quoi en fait ?

Et bien au début des années 80, alors qu’on se battait encore en duel avec des disquettes 5″1/4, Microsoft avait dans ses cartons un projet d’OS révolutionnaire baptisé Multitasking MS-DOS 4. Bon, ce n’est pas le nom le plus sexy de l’histoire de l’informatique mais derrière cette appellation austère se cachait un système d’exploitation qui promettait déjà le multitâche et tout un tas de fonctionnalités incroyables pour l’époque !

L’histoire commence en 1983 lorsque Microsoft rassemble une équipe de développeurs talentueux pour plancher sur la nouvelle version de MS-DOS, qui doit apporter un max de nouveautés pour l’époque : multitâche, multi-threading, pipes, sémaphores… Tout ça sur les modestes processeurs 8086/8088 qui avaient une mémoire limitée.

Le projet s’appelle d’abord MS-DOS 3.0 avant d’être renommé MS-DOS 4.0 en avril 1984. En parallèle, Microsoft travaille sur le « vrai » DOS 3.0 qui sortira en août 1984. Vous suivez ? C’est un peu le bazar mais c’est ça qui est bon !

Puis en juin 1984, une première beta de Multitasking DOS 4 est envoyée à quelques privilégiés. Et autant vous dire que ça décoiffe ! Le multitâche fonctionne déjà, géré par un composant baptisé « Session Manager ». On peut lancer jusqu’à 6 applications en même temps en leur attribuant des raccourcis clavier. Le Session Manager gère aussi les fameuses « erreurs fatales » qui pouvaient faire planter tout le système. Avec lui, si un programme plante, il n’embarque pas tout le système avec lui. C’est un concept révolutionnaire pour l’époque !

MS-DOS 4.0 apportait également son lot d’améliorations comme une meilleure gestion de la mémoire, le support des disques durs de plus de 10 Mo (si si, à l’époque c’était énorme !), une API étendue, et même un système de fichiers réseau (Microsoft Networks).

Le développement de ce MS-DOS 4.0 s’est fait en étroite collaboration avec IBM car le géant informatique planchait à l’époque sur son propre OS avec une architecture similaire à MS-DOS 4.0. Mais plutôt que de se faire concurrence, Microsoft et IBM ont décidé de joindre leurs forces. MS-DOS 4.0 a ainsi servi de base au développement d’IBM PC-DOS 4.0. Les deux OS partageaient une grande partie de leur code source et étaient compatibles entre eux. Une belle démonstration du partenariat entre Microsoft et IBM !

Malheureusement, malgré toutes ses qualités, MS-DOS 4.0 n’a jamais été commercialisé. Son développement a été stoppé au profit d’OS/2, le nouveau projet de Microsoft et IBM et la plupart de ses fonctionnalités ont été recyclées dans ce nouvel OS. MS-DOS 4 n’était pas très apprécié à l’époque à cause de son utilisation gourmande de 92 Ko de RAM. Cela a même poussé le concurrent DR-DOS à sauter directement de la version 3.41 à la version 5.0 pour ne pas être associé à MS-DOS 4 !

Multitasking MS-DOS 4 est ainsi resté à l’état de projet, même si certaines de ses innovations ont survécu dans d’autres OS. Son code source est longtemps resté dans les cartons de Microsoft, jusqu’à ce que la société décide de le libérer en open source, sous licence MIT le 4 avril dernier. Un joli cadeau pour les passionnés d’histoire de l’informatique !

Malheureusement, la libération du code source ne s’est pas faite sans accrocs. Comme l’a souligné le développeur Michal Necasek du blog OS/2 Museum, la publication sur GitHub a introduit des bugs dans certains fichiers critiques. La conversion en UTF-8 casse notamment la compatibilité avec les anciens outils et dépasse la limite de 512 bytes par ligne de l’assembleur MASM de l’époque.

Microsoft a reconnu le problème par la voix de Connor Hyde, co-développeur de la libération de MS-DOS 4, qui a invoqué des raisons légales pour expliquer l’absence des timestamps d’origine. Un échange constructif s’en est suivi avec Michal Necasek pour essayer de résoudre ces problèmes.

En attendant un fix, si vous êtes curieux d’essayer MS-DOS 4.0 par vous-même, sachez que c’est possible ! Grâce à la libération du code source, des passionnés ont pu recompiler l’OS et le faire tourner sur des machines modernes via des émulateurs comme DOSBox.

Voici les étapes pour lancer MS-DOS 4.0 sur votre PC :

1. Téléchargez l’émulateur DOSBox sur le site officiel
2. Installez DOSBox sur votre machine
3. Récupérez une image disque de MS-DOS 4.0. Vous pouvez en trouver sur des sites d’archives comme WinWorldPC
4. Ouvrez DOSBox et montez l’image disque de MS-DOS 4.0 avec la commande :
mount c /chemin/vers/image_dos4.img -t iso
5. Démarrez MS-DOS 4.0 en tapant : c:

Sinon, vous pouvez le tester directement en ligne ici.

Et voilà, vous pouvez maintenant explorer ce morceau d’histoire de l’informatique et découvrir par vous-même les prémices du multitâche sous DOS, malgré les quelques bugs introduits lors de la libération du code source !

Amusez-vous bien !

Source initiale
Infos complémentaires

Adobe VideoGigaGAN – L’IA qui transforme vos vidéos floues en HD !

Par : Korben
25 avril 2024 à 10:37

Vous avez une vieille vidéo toute pourrie, floue à souhait, qui date de Mathusalem et bien avec VideoGigaGAN d’Adobe, elle va se transformer en une magnifique séquence HD, avec des détails si nets que vous pourrez compter les poils de nez des gens qui sont dessus !

VideoGigaGAN est ce qu’on appelle un modèle d’IA génératif. En gros, ce machin est capable de deviner les détails manquants dans une vidéo pourrave pour la rendre méga classe. Les petits gars d’Adobe ont balancé des exemples sur leur GitHub et franchement, c’est impressionnant. On passe d’une vidéo degueulasse à un truc ultra net, avec des textures de peau hallucinantes et des détails de fou !

En plus, cette IA est capable d’upscaler les vidéos jusqu’à 8 fois leur résolution d’origine, par contre, faut pas s’emballer car pour le moment, c’est juste une démo de recherche et y’a pas encore de date de sortie officielle. Mais connaissant Adobe, y’a moyen que ça finisse dans Premiere Pro un de ces quatre. Je vais pouvoir améliorer mes vidéos tournées à l’époque au format 3GP \o/.

D’ici là, va falloir continuer à se taper des vidéos de chat toutes pixelisées sur les réseaux sociaux.

Source

OpenELM – Apple sort ses modèles IA légers et open-source

Par : Korben
25 avril 2024 à 10:19

Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.

OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :

  1. Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètres dans les couches d’un modèle transformeur pour améliorer l’exactitude. Les modèles sont pré-alourés avec un budget de paramètres de 270 millions, 450 millions, 1,1 milliard et 3 milliards.
  2. Pré-entraînement : Les modèles ont été pré-entraînés à l’aide d’une combinaison de datasets, incluant une sous-ensemble de Dolma v1.6, RefinedWeb, deduplicated PILE et une sous-ensemble de RedPajama. Ce dataset contient environ 1,8 trillion de tokens.
  3. Evolutionary algorithms : Les algorithmes évolutionnistes sont utilisés pour combiner les modèles LLM et améliorer l’exactitude. Cela permet d’exploiter les forces combinées des modèles pré-alourés et d’améliorer leur précision.

Alors évidemment, Apple arrive un peu après la bataille dans l’IA, pendant que Microsoft et Google déboulent à fond la caisse. Mais bon, mieux vaut tard que jamais, et puis ils compensent avec du lourd, soit 8 modèles OpenELM au total, dont 4 pré-entraînés avec CoreNet et 4 fine-tunés. Et avec leur stratégie de scaling par couche ça optimise à fond l’allocation des paramètres.

Allez, je traduits… En gros, ça veut dire qu’ils sont hyper efficaces et précis. Prenez le modèle à 1 milliard de paramètres et bien bah il explose un modèle équivalent comme OLMo de 2,36% en précision, avec 2 fois moins de tokens en pré-entraînement. Et ce qui est top, c’est qu’Apple balance tout : code, logs d’entraînement, configuration…etc et pas juste le modèle final. Et vu qu’ils utilisent des datasets publics, c’est top en matière de transparence et vérification des biais.

En tout cas, une chose est sûre, avec OpenELM, Apple nous prouve qu’ils sont dans la course, et qu’ils comptent bien mettre le paquet sur l’IA

Et Merci à Letsar pour l’info, c’est lui qui m’a mis la puce à l’oreille sur OpenELM. Tu gères !

Source

Quels sont les différents types de data brokers et comment lutter ?

Par : Korben
25 avril 2024 à 10:00

Bannière Incogni

— Article en partenariat avec Incogni

Ah, les data brokers, ces entreprises mystérieuses dont on entend parler à peine plus souvent que de la météo sur Pluton (jamais en gros). Pourtant, ces entités obscures ont les mains (ou plutôt les serveurs) pleines de données, récoltées dans les plus sombres recoins numériques. J’ai déjà abordé le sujet sur ce site, mais comment opèrent-ils concrètement ? Voyage dans les entrailles du web pour percer le mystère des data brokers et comment lutter avec l’aide d’Incogni.

Qui sont-ils et que font-ils ?

Les data brokers, ce sont un peu les fantômes du cyberespace. On les connait rarement de nom, mais ils traquent nos traces numériques comme des chasseurs de primes à la recherche d’informations. Ils collectent des données de toutes sortes, du registre foncier à notre historique d’achat en passant par nos profils sociaux et nos activités en ligne. Une fois leur butin amassé, ils compilent le tout pour dresser un portrait-robot le plus précis possible et le revendent ou le partagent avec des tiers. Faisant de notre petite personne la cible d’un jeu de piste numérique. Tout ça pour quelques brouzoufs (enfin quelques … parfois ça peut se compter en centaines voire milliers d’euros). Le marché de la data étant en pleine phase d’expansion, ce marché juteux devrait quasiment doubler d’ici la fin de la décennie pour atteindre plus de 450 milliards de $.

Les types de data brokers

Et oui, contrairement à ce que vous pensez peut-être, tous les data brokers ne sont pas tous taillés dans le même moule. Ils offrent une variété de produits aux acheteurs. Cela va des informations financières à votre santé personnelle, en passant par le marketing et la publicité. Voici un petit tour d’horizon des espèces les plus répandues qui peuplent cet écosystème obscur.

Les brokers en recherche de personnes

Vous vous souvenez de ces annuaires téléphoniques épais et lourd comme un parpaing ? Eh bien ce type de broker fait la même chose, mais en version 2.0. Ils vous permettent de fouiller dans les profils d’autres consommateurs, de retrouver d’anciens amis ou de déterrer des secrets bien enfouis. Et pas besoin de sonner à leur porte pour qu’ils vous livrent leurs trouvailles, tout est en ligne et à portée de clic. Sans doute les brokers les plus visibles pour tous. Notamment accessibles sur des sites comme PeekYou, Spokeo ou White Pages. Une sorte de niveau 1 de l’espionnage, la base.

Les courtiers en marketing et publicité

C’est un peu comme la cour de récré pour les marketeurs. Ils segmentent les consommateurs en fonction de leur comportement et de leurs préférences, offrant des cibles sur un plateau d’argent aux annonceurs. Ils peuvent même enrichir nos profils avec des informations supplémentaires pour un ciblage ultra-précis (comme les géolocalisations ou le groupe ethnique). C’est pas cool, mais limite ce sont quasi les moins dangereux de l’histoire.

Les courtiers en informations financières

Si je vous cite des noms comme Experian, Equifax et Transunion il y a de grandes chances que cela ne vous dise rien. Pourtant, imaginez-les comme les trois mousquetaires de la data financière. Ils rassemblent tout ce qui s’y rapporte, que ce soit des rapports de crédit, des historiques de paiement et des informations sur les comptes débiteurs. Leur but ? Vendre les données aux institutions financières afin que celle-ci puisse prendre des décisions. Ils sont régis par diverses lois (notamment en Europe), mais ça ne les empêche pas de jouer les acrobates avec nos données. Un exemple concret ? Si l’on vous refuse un crédit de manière répétitive sans que vous compreniez trop pourquoi, c’est peut-être parce que les banques ont en stock vos précédents comportements et qu’ils n’ont pas assez confiance.

Les brokers en gestion des risques

Ces petits malins détectent les différentes fraudes que vous auriez pu commettre et vérifient les identités des clients en un clin d’œil. Avec des outils sophistiqués, ils peuvent traiter des millions de transactions par heure, gardant un œil vigilant sur nos activités et notre historique. Nos remboursements de crédit, nos salaires, les attestations ou amendes reçues, les découverts et autres agios, etc.

Les courtiers en santé

Ah, la santé, un sujet cher à nos cœurs et à nos portefeuilles. Ces brokers traquent par exemple nos achats de médicaments en vente libre, nos recherches sur les symptômes d’une maladie, nos abonnements à des magazines de santé, l’installation de certaines applications, etc. Ils vendent alors ces informations à des compagnies pharmaceutiques et d’assurance santé, faisant de notre bien-être une marchandise à échanger.

Mais d’où viennent ces données ?

Vous vous demandez peut-être comment ces brokers mettent la main sur nos données. Eh bien, c’est un peu comme un jeu de piste géant, avec des indices cachés dans tous les coins du web, parfois là où l’on ne s’y attend pas (voir mon article sur les différents leaks du milieu de l’automobile).

Les sources gouvernementales

Les gouvernements sont généreux avec nos informations, fournissant des données sur tout, des naissances aux décès en passant par les permis de conduire. Les data brokers se servent à pleines mains dans ce buffet à volonté de données publiques, construisant des profils détaillés sans jamais nous demander notre avis. Et je ne parle même pas de ces derniers mois ou les organismes officiels de notre cher gouvernement sont entrés en mode « grande braderie » (fuites France Travail, Urssaf, etc.). Servez-vous ma bonne dame, 80% de la population française est à portée de clavier, livrée de bon coeur.

Les sources commerciales

Les entreprises aussi sont des donneurs généreux. Elles fournissent des historiques d’achat, des données de garantie et même des informations de carte de fidélité. Et comme un bon ami qui prête sans jamais demander à être remboursé, elles donnent tout ça gracieusement aux data brokers, qui se régalent sans se poser de questions.

Les sources publiquement disponibles

Nos vies numériques (ou tout du moins une partie) sont des sortes de livres ouverts pour les data brokers. Ils parcourent nos profils sociaux, nos messages sur les forums et nos commentaires sur les blogs pour trouver des indices sur nos vies. Des enquêteurs privés, mais avec des algorithmes à la place de loupes. Le point positif c’est qu’au moins sur cet aspect nous avons notre mot à dire. Nous pouvons limiter les informations que nous partageons, utiliser des identités alternatives, sécuriser et chiffre nos échanges, etc.

Le pistage web

Et enfin, il y a le traçage en ligne, la cerise sur le gâteau des data brokers. Avec des cookies et des identifiants publicitaires, ils suivent nos moindres mouvements sur le web, collectant des informations sur nos habitudes de navigation et nos achats en ligne, récupèrent la liste des applications que nous utilisons, etc. Comme si Big Brother avait embauché des paparazzis pour nous suivre partout où nous allons. Mais là encore nous avons une part de responsabilité et nous pouvons agir de manière proactive (navigateur sans traqueurs, VPN …).

C’est déjà trop tard ?

Peut-être, mais cela peut éventuellement changer. Ils sont partout, ils savent tout, et nous, on est là, à ne pas trop savoir quoi faire. Mais nous pouvons décider d’au moins leur donner du fil à retordre. Déjà en faisant attention à ce que nous partageons en ligne, en utilisant les bons outils, etc. Et en faisant appel à un service comme Incogni pour tout ce qui est déjà dans la nature et que l’on ne peut rattraper.

Incogni, le désormais bien connu outil de Surfshark, propose un abonnement pour vous aider à nettoyer les données personnelles des bases de données des courtiers en données et des entreprises qui les stockent. Basé sur des réglementations comme le RGPD en Europe et la CCPA en Californie, Incogni impose aux courtiers en données de supprimer les informations des utilisateurs. Ces données peuvent être des choses comme vos noms, adresses, numéros de téléphone, etc.

Incogni Surfshark

Son gros avantage est de tout automatiser. Vous n’avez pas besoin de contacter chaque broker pour lui demander de vous supprimer de sa base de données. Incogni va le faire pour vous et surtout, va s’assurer que le retrait perdure. Un autre aspect intéressant du tableau de bord de l’outil est que vous allez visionner très rapidement les différents niveaux de dangerosité des courtiers. Mais aussi de connaitre le champ d’action de chacun d’entre eux et si vous trainez plutôt du côté des données de santé ou de la publicité.

Concrètement pour voir comment cela se passe, je vous redirige vers mon test Incogni sur une période d’un an. On va dire que le gros du travail se fait sur les 3 premiers mois, et qu’ensuite les récalcitrants finissent pas craquer au fil des relances du service. En ce moment ce dernier est d’ailleurs à moins de 95€ TTC par an, environ 7.8€/mois.

Essayez Incogni !

Localsumm – L’extension Chrome qui résume vos articles en local avec Phi-3

Par : Korben
25 avril 2024 à 09:20

Localsumm est un générateur de résumés nouvelle génération qui tourne direct dans votre navigateur Chrome, sans envoyer vos données sur le cloud. Sous le capot, cette petite extension magique utilise un modèle de langage maison développé par Microsoft : le fameux Phi-3. C’est une sorte de cousin du célèbre GPT, mais en version allégée et spécialisée dans le résumé de texte.

Pour tester cette merveille, c’est assez simple. Déjà, il faut avoir Chrome (ou un clone open source comme Brave ou Chromium) puis :

  1. Installez et lancez Ollama
  2. Entrez la commande ollama run phi3 dans le terminal pour déployer le modèle Phi-3
  3. Bidouillez un peu les paramètres CORS de votre navigateur (voici un tuto récent pour le faire proprement)
  4. Clonez le code source de Localsumm depuis GitHub avec Git :
    git clone https://github.com/samrawal/localsumm.git
  5. Allez dans les extensions Chrome (chrome://extensions), activez le mode développeur, cliquez sur « Charger l’extension non empaquetée » et sélectionnez le dossier localsumm

Et voilà, vous avez votre assistant de lecture perso, prêt à croquer des articles et recracher des résumés bien juteux !

Localsumm est encore tout jeune et son code est en cours de développement, alors forcément il y a quelques bugs et fonctionnalités manquantes. Perso, j’ai déjà quelques idées d’amélioration :

  • Ajouter la génération automatique d’un tweet avec les points clés de l’article, pour envoyer sur mes réseaux
  • Intégrer les résumés dans le moteur de recherche de l’historique Chrome, pour retrouver facilement les derniers trucs que j’ai lu
  • Pouvoir partager un résumé en 1 clic avec ses contacts
  • Créer une version mobile de l’extension pour résumer le web sur son smartphone
  • Et bien sûr un portage sur Firefox parce que moi, j’utilise surtout ce navigateur là.

En tout cas, je trouve que Localsumm est vraiment une chouette idée pour les gens pressés.

A vous de tester maintenant !

❌
❌