Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 17 avril 2024Flux principal

Peut être une solution pour réduire les acouphènes ?

Par : Korben
17 avril 2024 à 11:43

Ah les acouphènes, cette bande-son de l’enfer qui nous pourrit la vie ! Perso, j’ai parfois un sifflement strident qui me vrille les tympans et pas de bouton « mute » pour le stopper. Alors ça va, ça m’arrive assez rarement mais si vous faites partie des 8 millions de français à subir ce calvaire, j’ai une bonne nouvelle pour vous.

Figurez-vous que la FDA (l’équivalent américain de notre bon vieille ANSM) a donné son feu vert à un appareil révolutionnaire : le Lenire.

OK, le nom fait un peu penser à un Pokemon, mais ce truc au look tout droit d’un film de science-fiction des années 80 dispose d’un embout buccal bardé d’électrodes en acier inoxydable que vous placez dans votre bouche et qui va littéralement vous envoyer de l’électricité dans la langue !

Wow wow wow, on se calme, c’est pas la chaise électrique non plus hein ^^.

En fait, ça envoie des mini stimulations pour « chatouiller » votre langue, comme si une armée de petites fourmis faisait la fiesta sur votre muscle lingual. Pendant ce temps-là, vous avez un casque sur les oreilles qui diffuse des sons aussi apaisants que le ressac sur une plage de sable blanc et le combo fait que les acouphènes se réduisent. Dans une étude clinique portant sur 326 patients, 84% des participants ont constaté une amélioration significative après 12 semaines d’utilisation du Lenire. C’est quand même un sacré bond en avant quand on sait qu’avant, y avait pas grand chose pour soulager les gens.

Alors comment ça fonctionne ?

Et bien en gros, votre cerveau, c’est comme un projecteur qui est toujours braqué sur ce qui est important. Quand vous avez des acouphènes, c’est comme si le projecteur était bloqué sur le bruit parasite en mode « alerte rouge, défcon 1, on va tous mourir !« . Du coup, impossible de penser à autre chose, ça vous pourrit le ciboulot. Eh ben figurez-vous que cet appareil, c’est le copain qui viendrait vous secouer en mode « hey, regarde plutôt ça, c’est carrément plus intéressant !« . En stimulant votre langue et vos oreilles simultanément, il force donc votre cerveau à changer de focus. Résultat, votre projecteur mental n’est plus obnubilé par les acouphènes !

Après, c’est pas donné… comptez dans les 4000 balles pour vous offrir cette petite merveille. Mais pour les gens qui ont les oreilles qui sifflent à longueur de journée, on est prêt à tout pour retrouver un peu de répit, même à vendre un rein au marché noir (non, je déconne, faites pas !). Après y’a surement moyen de faire un équivalent DIY avec une pile et un casque à réduction de bruit, j’sais pas…

Bref, y’a de l’espoir pour tous les acouphéniques en galère et c’est ce que je voulais partager avec vous aujourd’hui ;-).

Source

Tess – En route vers une IA génératrice d’images qui rémunère les artistes

Par : Korben
17 avril 2024 à 09:25

Les générateurs d’images IA actuels comme Midjourney, Dall-E et j’en passe, font polémique puisqu’ils piochent allégrement dans les œuvres des artistes sans leur consentement ni rémunération. Mais des solutions sont en train de se mettre en place pour les entreprises qui souhaiteraient utiliser l’IA pour illustrer leurs supports sans pour autant piller les artistes.

Une de ces solutions, c’est Tess qui propose une approche que j’ai trouvée intéressante puisqu’elle met en place des collaborations avec des créateurs pour utiliser leur style dans des modèles de diffusion d’images.

Concrètement, chaque modèle d’IA est entraîné sur le style visuel d’un artiste unique, avec son accord puis l’outil utilise un SDXL custom (Stable Diffusion) pour générer les images. Évidemment, à chaque fois qu’une image est générée avec son style, l’artiste touche des royalties ! C’est gagnant-gagnant donc.

L’outil intègre également un système de métadonnées basé sur le protocole C2PA, qui permet d’identifier clairement les images générées par IA et de les distinguer des créations originales.

L’objectif de Tess est donc clair : démocratiser la création d’images artistiques de qualité, en la rendant accessible au plus grand nombre, tout en rémunérant équitablement les artistes et leur permettant de garder la maitrise de leur art. C’est une bonne idée vous ne trouvez pas ?

Et les artistes dans tout ça ? Et bien si j’en crois le site de Tess, ils sont déjà plus de 100 à avoir déjà sauté le pas, séduits par ce nouveau modèle de rémunération. Maintenant si vous voulez devenir clients de la plateforme, ce n’est malheureusement pas encore ouvert à tous, mais une liste d’attente est en place pour vous inscrire et être tenu au courant.

IA sera bientôt capable de se répliquer et survivre d’après le CEO d’Anthropic

Par : Korben
17 avril 2024 à 09:09

Les avancées fulgurantes dans le domaine de l’intelligence artificielle ces dernières années ont suscité autant d’enthousiasme que d’inquiétudes et si les dernières déclarations de Dario Amodei, PDG d’Anthropic, se confirment, nous pourrions bien être à l’aube d’une nouvelle ère où les IA seront capables de se répliquer et de survivre de manière autonome comme n’importe quel être vivant.

Lors d’une récente interview pour le New York Times (je vous mets le transcript ici), Amodei a évoqué la possibilité que nous atteignions bientôt un niveau d’IA qu’il qualifie d’ASL 4. Ce stade, qui implique une autonomie et une capacité de persuasion accrues, pourrait permettre à des acteurs étatiques comme la Corée du Nord, la Chine ou la Russie de renforcer considérablement leurs capacités offensives dans divers domaines militaires.

Pour rappel, il a cofondé Anthropic avec sa sœur Daniela après avoir quitté OpenAI en raison de divergences sur l’orientation de l’entreprise. Chez OpenAI, il avait notamment participé au développement de GPT-3. Donc autant dire qu’il maitrise son sujet.

ASL signifie « Architectural Safety Level » (Niveau de Sécurité Architecturale en français). C’est une échelle empruntée aux laboratoires de virologie concernant leur niveau de « biosécurité » (spéciale dédicace à Wuhan ^^) qu’Anthropic a adapté à sa sauce pour évaluer le niveau de sécurité et de fiabilité d’une IA.

Ça va de 1 à 5 et ça donne à peu près ça :

  • ASL 1 : c’est une IA qui a peu ou pas de garanties de sécurité du tout.
  • ASL 2 : c’est une IA avec quelques garanties de sécurité de base.
  • ASL 3 : c’est une IA avec des garanties de sécurité modérées. Considérée suffisamment fiable pour certaines applications.
  • ASL 4 : c’est une IA avec de solides garanties de sécurité. Elle est considérée comme très fiable et peut être utilisée pour la plupart des applications, y compris les applications critiques comme tout ce qui est militaire.
  • ASL 5 : c’est une IA avec des garanties de sécurité extrêmement élevées. Elle peut être considérée comme sûre même pour les applications les plus critiques.

Donc ASL 4 c’est un niveau élevé et ça peut potentiellement inclure « l’autonomie » et la « persuasion ». Ah et actuellement, on est au niveau ASL 2.

Mais ce qui est encore plus impressionnant, c’est la perspective d’une IA capable de se répliquer et de survivre de manière autonome. Selon lui, nous pourrions atteindre ce stade critique dès 2025 ou 2028. Il ne s’agit pas d’une vision lointaine, mais bien d’un futur proche. Perso, un programme informatique capable de se répliquer et de s’adapter à son environnement (« survivre »), c’est ce que j’appelle un virus… ça ne me dit rien qui vaille. Bref, si les prédictions d’Amodei se confirment, cela soulève de nombreuses questions sur les implications d’une telle avancée technologique : Une IA autonome et capable de se répliquer pourrait-elle échapper à notre contrôle ? Quelles seraient les conséquences sur notre société, notre économie… notre sécurité ?

Comme l’histoire de la conscience la dernière fois, ça fait un peu flipper, mais une fois encore, c’est super important que le développement de ces technologies se fasse de manière responsable et éthique, avec, si c’est nécessaire, des garde-fous.

En tout cas, j’sais pas pour vous, mais moi j’ai l’impression qu’on nage en plein scénario de SF en ce moment.

Source

AiFormat – Un outil en ligne de commande pour formater vos fichiers pour Claude

Par : Korben
17 avril 2024 à 09:00

Si vous vous intéressez un peu aux outils IA, vous connaissez sûrement Claude, l’assistant IA dernière génération d’Anthropic. Depuis la sortie de sa version 3, c’est d’ailleurs devenu mon meilleur pote pour coder à la vitesse de l’éclair. j’ai même pris un abonnement payant en rusant un peu.

Toutefois, le seul truc qui me ralentissait dans mes grandes ambitions, c’était de devoir copier-coller à la main tous mes fichiers de code dans la fenêtre de contexte de Claude pour ensuite lui demander d’analyser ça, et me proposer des corrections ou une nouvelle fonction. Mais ça, c’était avant car je suis tombé sur un petit bijou opensource qui va vous changer la vie : AiFormat.

Ce petit outil en ligne de commande vous permet de sélectionner des fichiers et dossiers, et de les convertir automatiquement dans un format optimisé pour Claude. En deux clics, tout est dans le presse-papier, prêt à être envoyé à votre IA préférée.

Sous le capot, AiFormat utilise Ink, une chouette librairie pour créer des CLI avec une belle interface utilisateur. Ça vous permet de filtrer et naviguer dans vos fichiers, de les sélectionner avec les flèches, et tout ça de façon super intuitive.

Pour l’installer et le prendre en main, c’est hyper simple, tout est expliqué sur la page Github du projet. Ça commence par un simple :

npm install --global aiformat

Ensuite, pour utiliser aiformat, accédez au répertoire contenant les fichiers et dossiers que vous souhaitez partager avec Claude puis lancez la commande suivante :

aiformat

Le créateur a eu la bonne idée de mettre le projet en opensource (MIT license), du coup n’hésitez pas à y jeter un œil et même contribuer si le cœur vous en dit. La communauté vous dira merci !

Franchement, si vous utilisez souvent Claude pour coder ou analyser des projets, c’est un indispensable à avoir dans sa boîte à outils. Ça vous fera gagner un temps fou au quotidien.

Ce robot dessine sur une ardoise magique comme un artiste digne des années 80

Par : Korben
17 avril 2024 à 00:24

Vous êtes-vous déjà demandé comment dessiner comme un pro sur une ardoise magique, ce jouet iconique des années 80 ? Pas simple, même pour les artistes les plus talentueux, car pour les plus jeunes d’entre nous qui n’ont pas connu ce jouet, le but c’était de tracer des formes complexes d’un seul trait en bougeant les molettes verticalement et horizontalement. !

Mais grâce à la puissance du Raspberry Pi et un peu de bidouille, dessiner comme un vrai artiste sur cet objet est devenu un jeu d’enfant ou presque.

En effet, le maker Micah Tilton a eu l’idée géniale de créer un robot dessinateur pour Ardoise magique, piloté par un Raspberry Pi afin de reproduire n’importe quelle image dessus de manière très précise, sans se prendre la tête. Le principe est assez simple (sur le papier en tout cas…). Un Raspberry Pi 4 commande deux moteurs pas-à-pas, fixés sur les molettes de l’ardoise grâce à des adaptateurs imprimés en 3D.

Ensuite, un logiciel permet de transformer n’importe quelle image en une succession d’instructions pour guider le robot. L’image est d’abord redimensionnée à la résolution du jouet (plus ou moins 300 x 214 pixels), puis convertie en noir et blanc. Cette résolution a été choisie pour s’adapter parfaitement à la taille de l’écran de l’écran magique et un algorithme analyse ensuite comment la reproduire en un seul trait continu, comme en vrai.

Et voilà comme ce petit robot peut maintenant dessiner en live des images complexes comme des portraits, des paysages ou des personnages en quelques minutes à peine. Le programme utilise des techniques d’optimisation poussées pour améliorer les performances et la fluidité du tracé et comme par magie, on voit les traits se former progressivement sur la planche, guidés par les mouvements millimétrés des moteurs.

C’est franchement bluffant et un peu comme quand je regarde mon imprimante 3D bosser, ça a un petit côté hypnotique et fascinant.

Micah a partagé le code source ainsi que les plans des pièces nécessaires sur GitHub donc si vous avez un Raspberry Pi qui traîne et une grande sœur qui avait ce joujou, vous pourrez recréer votre propre robot dessinateur à la maison.

Source

Les charlatans débarquent sur MYM

Par : Korben
16 avril 2024 à 20:33

Je ne suis pas un utilisateur de la plateforme MYM ni du côté des créateurs de contenus ni du côté des « consommateurs », mais je sais à peu près qu’elle est leur proposition de valeur… En gros, c’est une plateforme où des gens peuvent vendre leurs vidéos, leur podcasts, des articles, des cours, même des show one-to-one et les utilisateurs payent pour voir ce que les créateurs proposent.

Mais c’est surtout utilisé par des créateurs et des créatrices qui aiment bien vendre des contenus où ils sont à poil. La plateforme a donc le vent en poupe comme vous pouvez vous en douter, et aujourd’hui ils s’ouvrent à quelque chose que je trouve plutôt problématique : les arts divinatoires.

Sous ce terme, ça regroupe plein de conneries comme l’astrologie, la cartomancie, la numérologie, la tarologie… et malheureusement, il y a de plus en plus d’adeptes de tout ça, notamment chez les 25-45 ans qui sont aussi la cible principale de MYM. Cela s’explique probablement parce que le niveau d’intelligence baisse, que l’époque est incertaine / anxiogène et que pendant des années, on a tous subi l’horoscope sur toutes les chaines de TV et de radio en mode normal comme la météo ou les infos. Les médias ont leur part de responsabilité et je n’ai jamais vu le moindre disclaimer avant ce genre de chose pour expliquer que c’est de la fiction pour gens désespérés.

Alors évidemment, tant que c’est pour le fun et que ça fait du bien au moral, pourquoi pas. Mais industrialiser tout ce bordel dans MYM (ou ailleurs), c’est ouvrir grand les portes du n’importe quoi divinatoire pour tondre les gogos qui pensent VRAIMENT qu’on peut prévoir l’avenir. Bref, je trouve ça hyper moyen.

La plateforme promet un accompagnement personnalisé pour les créateurs, mais je peine à croire que ça suffira à éviter les dérives puisque c’est leur cœur de « métier » qui est problématique. On va donc se retrouver comme sur les Live TikTok avec une armée de madame Irma 2.0, prêtes à vous soutirer votre pognon contre une prédiction foireuse sur votre vie amoureuse ou professionnelle. Et comme d’habitude, ce seront ceux qui sont les plus fragiles et les plus crédules, qui se feront vider les poches.

C’est moche et comme MYM ne s’embarrasse pas de scrupules quand il s’agit de faire du blé, ajouter l’astrologie et la voyance dans l’équation, c’est aussi naturel que de verser un grand verre d’eau dans une huile bouillante.

Regardez ça, on dirait le doctolib du paranormal :

Alors vous pensez peut-être que je dramatise parce que vous êtes Poisson ascendant Tête De Cul, mais en vrai, les « arts » divinatoires ça peut vite partir en vrille… Déjà, ça fait croire aux gens que tout est écrit, que leur vie dépend de leur signe, donc ça les incite pas trop à se sortir de leur merde. Ensuite, les prédictions sont par définition hyper vagues, en mode effet barnum et ça enfonce les personnes encore plus dans leurs délires. Il y a en effet des risques psychologiques pour les personnes vulnérables, qui pourraient tomber dans une dépendance à ces pratiques en espérant des réponses à leurs problèmes. Et cela peut aggraver des troubles anxieux ou dépressifs.

Sans parler des conseils moisis du charlatologue qui risquent de faire encore plus de dégâts dans la vie de leurs adeptes qui prendront des décisions irrationnelles sur des sujets importants qui concernent leur santé, leurs finances, mais également leurs relations. Et bien sûr, ça détourne totalement de la pensée rationnelle et de la science, à une époque où les idiocrates font déjà beaucoup de dégâts avec leur chemtrails, leurs reptiliens et autres théories Qanon sans imagination.

Bref, c’est une industrie, un business qui n’a d’autre but que d’arnaquer des gens qui n’ont pas besoin de ça et je trouve ça profondément regrettable que MYM s’embarque là-dedans, contribuant encore un peu plus à transformer ces croyances en un truc normal, répandu et réel. D’ailleurs ça m’étonne qu’il n’y ait pas de régulation et de contrôle sur ce secteur et ça m’étonne encore plus qu’en 2024, les médias donnent du crédit à ce genre de truc.

Bref, gros pouce vers le bas pour eux.

À partir d’avant-hierFlux principal

UPT – Le gestionnaire universel de paquets Linux

Par : Korben
16 avril 2024 à 09:00

Vous en avez marre de jongler avec une multitude d’outils de gestion de paquets sur vos différents systèmes Linux et Unix ? apt sur Debian, dnf sur Fedora, pacman sur Arch, emerge sur Gentoo, pkg sur FreeBSD… Et je ne parle même pas de Homebrew sur macOS ou Scoop sur Windows ! Bref, un vrai casse-tête pour s’y retrouver et se rappeler de toutes les commandes spécifiques à chaque plateforme.

Heureusement, y’a un p’tit dev malin qui a décidé de nous faciliter la vie. Un certain Sigoden a créé upt, pour Universal Package-management Tool. L’idée c’est d’avoir une interface unique pour gérer ses paquets, quelque soit le système utilisé. Sous le capot, upt se base sur le gestionnaire natif de chaque OS mais vous permet d’utiliser une syntaxe commune pour les opérations de base : rechercher, installer, mettre à jour ou supprimer un paquet.

Bon alors techniquement, c’est écrit en Rust donc faudra passer par l’installation de cargo et de quelques dépendances. Mais rassurez-vous, c’est assez simple et bien documenté sur le dépôt GitHub du projet. Une fois que c’est fait, vous pourrez utiliser la commande upt de la même façon sur tous vos systèmes. Voici quelques exemples :

upt update pour mettre à jour le gestionnaire
upt install package_name pour installer un paquet
upt upgrade package_name pour le mettre à jour
upt remove package_name pour le désinstaller
upt search keyword pour chercher un paquet

Plutôt cool non ?

Fini les prises de tête à se rappeler si c’est apt search ou dnf search, pacman -S ou emerge… Maintenant on fait tout pareil avec upt !

Et ça supporte tous les outils suivants sous Linux, macOS, Windows, BSD :

Bon, j’avoue qu’il y a quelques petites limitations. Déjà upt n’est qu’une surcouche, donc il faudra quand même connaître les noms exacts des paquets pour chaque distrib. Pas de nom universel type « python3-dev » qui fonctionnerait sur Ubuntu comme sur Fedora.

Ensuite, si un même paquet est dispo dans plusieurs formats (deb, snap, flatpak…), upt va suivre un ordre de priorité pour choisir lequel installer. Mais vous pouvez outrepasser ça en définissant la variable d’environnement UPT_TOOL avec le nom du gestionnaire souhaité.

Par exemple, pour forcer upt à utiliser les paquets snap pour VLC plutôt que apt ou autre :

export UPT_TOOL='snap'
upt install vlc

Dernier point, certaines commandes un peu plus avancées ne seront pas gérées directement par upt. Il faudra alors repasser par le gestionnaire natif. Mais pour une utilisation basique au quotidien, ce petit outil vous fera gagner pas mal de temps et de neurones.

Après, je dis pas que c’est la solution révolutionnaire qui va unifier une bonne fois pour toutes le monde des paquets sur Linux et Unix. Y’a encore du taf pour ça. Mais en attendant, upt est bien pratique pour ceux qui doivent régulièrement passer d’un système à l’autre.

Et puis soyons honnêtes, nous les linuxiens on est un peu maso sur les bords. On aime bien quand c’est compliqué et qu’il faut batailler pour faire un truc. Alors un outil qui simplifie les choses, ça va en rebuter plus d’un ! Mais je suis sûr que ça peut rendre service à pas mal de monde malgré tout.

En attendant, amusez-vous bien et n’oubliez pas : dans le doute, RTFM ! 😄

Source

AirChat – Le Twitter (X) vocal qui fait le buzz

Par : Korben
16 avril 2024 à 08:59

Depuis son lancement en version bêta il y a quelques jours, Airchat, cette application de messagerie entièrement vocale fait un buzz d’enfer dans la Silicon Valley.

C’est vraiment un concept aussi original que bizarre (c’est mon avis) puisque l’idée, c’est de permettre aux utilisateurs de communiquer uniquement par messages audio asynchrones, un peu à la manière des bons vieux répondeurs d’antan. Concrètement, sur votre fil d’actualité, défilent des blocs de texte qui sont en fait des transcriptions de messages vocaux et si vous voulez réagir, pas besoin de clavier : vous appuyez sur un bouton, vous enregistrez votre voix, et hop, c’est envoyé ! Vous pouvez également poster des photos et des vidéos si vous le souhaitez.

Je l’ai testé (mon pseudo c’est korben.info) et c’est vrai que l’interface utilisateur est similaire à d’autres plateformes de médias sociaux. On peut suivre d’autres utilisateurs, faire défiler un flux de publications, puis répondre, aimer et partager ces publications. C’est Twitter, c’est Threads, c’est Bluesky… Sauf que la grande différence, c’est que tout se fait à la voix !

Ce qui est bluffant, c’est quand même la qualité de la transcription des messages audio. L’app utilise de l’IA pour ça, et franchement, ça marche hyper bien, même en français ! J’ai eu très peu de « bug » de transcription pendant mes tests.

Et niveau ambiance, pour l’instant ça se la touche beaucoup en mode « Vocal Fry from Silicon Valley », donc j’espère que des franc-comtois vont rapidement s’emparer de l’application pour rafraichir un peu ça. Mais ça ouvre pas mal de débats avec des conversations intéressantes.

Bon après, j’ai quand même quelques petites réserves hein. Déjà, la vitesse de lecture par défaut est en 2x. Alors ok, ça permet d’aller plus vite, mais ça gâche un peu l’expérience. On a l’impression d’écouter parfois des robots. Le défilement automatique des messages est également un peu chiant, avec un petit retour haptique à chaque message qu’on passe, et parfois des enchainements vers le message suivant qu’on n’a pas souhaité.

Maintenant reste à voir comme ça va se passer. Parce que autant, écrire de la merde sur Twitter (oui, j’aime pas dire X) c’est facile. Autant bablater toute la journée à l’oral avec ses amis ou de parfait inconnus sur ce genre de réseau, j’ai pas l’impression que ce soit naturel pour tout le monde, hormis les gens déjà habitués à parler en public ou en podcast.

Mais bon, on verra bien. AirChat reste quand même une belle surprise qui dépoussière un peu le concept de réseau social. Si Twitter c’est du « micro-blogging » comme on disait à l’époque, et bien pour moi Airchat c’est du « micro-podcasting ». Après je me pose plein de questions sur ce qu’ils vont faire de nos empreintes vocales, si ça ne va pas permettre à la NSA d’encore plus nous profiler dans leurs grandes bases de données, ou si des mafieux vont pas pouvoir s’en servir pour alimenter des deepfakes vocaux à grande échelle. Tellement d’interrogations, et j’ai même pas encore bu mon café.

Par contre, si vous voulez rejoindre la bêta fermée, il faudra vous faire inviter par l’un de vos amis.

En attendant, comme d’hab, je vais voir comment ça se développe avant d’aller rajouter des banalités sur cet espace mais j’ai déjà des idées à la con, comme ralentir l’audio avant de le publier pour avoir quelque chose de plus naturel, et proposer des threads geek épiques façon Reflets d’Acide ou ASMR ou je sais pas, j’ai trop d’idées débiles… raaaah.

Le silence est d’or de toute façon.

Bloqueurs de pubs sur mobile – YouTube contre-attaque

Par : Korben
15 avril 2024 à 23:32

YouTube a encore frappé !

Bah oui parce que si vous pensiez échapper tranquillement aux pubs de la plateforme vidéo de Google sur votre smartphone grâce à votre petit bloqueur de pub préféré, et ben c’est raté. Ces derniers ont décidé de vous pourrir la vie si vous utilisez des applications tierces comme AdGuard ou uBlock Origin pour regarder vos vidéos sans ces satanées réclames.

Maintenant si vous essayez de passer à travers les mailles du filet publicitaire, vous risquez de vous retrouver avec des problèmes de lecture du genre la vidéo qui se met en pause toutes les 30 secondes pour charger ou carrément un message d’erreur qui vous envoie balader.

YouTube aurait lancé cette riposte parce que soi-disant, les créateurs de contenu méritent d’être rémunérés pour leur travail. C’est vrai, mais c’est surtout pour défendre leur énorme bout de gâteau. Perso, je m’en cogne un peu mais là où ça me gène, c’est qu’ils ont carrément menacé de sévir contre les applications qui ne respecteraient pas leurs conditions d’utilisation de l’API. Je vois pas ce qu’ils comptent faire exactement hormis couper l’accès à l’API… Mais j’ai peur que ça aille plus loin comme faire sauter les comptes Github de uBlock, Freetube, Youtube-dl et ce genre d’outils.

Bref, pas le choix, malheureusement. Si vous êtes équipé d’un bloqueur de pub sur votre smartphone ou votre tablette, attendez vous à galérer avec Youtube. Il ne vous restera plus qu’à prendre un abonnement Youtube Premium ou à retourner sur Dailymotion ^^.

Bon après, il reste toujours la bonne vieille méthode de l’adblock sur navigateur web hein. Mais pour combien de temps ?

Allez, je vais au dodo, j’ai les yeux qui se croisent.

Source

RNNoise, la lib qui supprime le bruit, sort en version 0.2

Par : Korben
15 avril 2024 à 14:50

Si vous faites du streaming ou que vous jouez en ligne, vous connaissez probablement RNNoise qui supprime les bruits parasites qui gâchent vos enregistrement ou vos parties de CS, grâce à la magie des réseaux neuronaux. La bonne nouvelle du jour c’est qu’une nouvelle version vient de sortir.

Pour ceux qui ne connaîtraient pas, RNNoise c’est une bibliothèque open source développée par les petits génies de Xiph.Org et Mozilla qui utilise un modèle de réseau neuronal récurrent pour filtrer le bruit en temps réel, tout en préservant la qualité de la voix.

Et les nouveautés sont cool :

  • Déjà, ils ont ajouté des optimisations AVX2 et SSE4.1 pour booster les performances. Votre CPU va carburer comme jamais !
  • Ensuite, ils ont intégré une détection automatique des fonctionnalités CPU, pour utiliser au mieux votre hardware. Avec ça, peu importe votre CPU, il saura faire tourner RNNoise au poil !
  • Enfin, cerise sur le gâteau, les modèles fournis sont maintenant entraînés uniquement sur des datasets publics. Adieu les bases de données privées et bonjour la transparence ! 🌞

RNNoise ne se limite pas à éliminer les bruits lors de vos visioconférences. Cette merveille peut aussi améliorer la reconnaissance vocale, le traitement musical et bien d’autres tâches. En plus de la voix la plus probable, le modèle indique aussi la fiabilité de son estimation, ce qui est très utile pour la reconnaissance automatique de la parole. Mais ce n’est pas le seul facteur qui entre en jeu : les caractéristiques du locuteur, les modèles de langage et les techniques de traitement du signal ont aussi leur importance.

Pour le tester, c’est tout simple :

Commencez par cloner le dépôt GitHub de RNNoise

git clone https://github.com/xiph/rnnoise.git

Puis compilez le machin en lançant ces commandes

./autogen.sh
./configure
make

Pro tip : utilisez l’option -march=native dans vos CFLAGS pour profiter à fond des optimisations AVX2 !

Vous pouvez maintenant tester RNNoise sur un fichier audio brut en 16 bits / 48 kHz

./examples/rnnoise_demo input.pcm output.pc

Et voilà, votre audio ressortira propre comme un sou neuf, débarrassé de tous les bruits indésirables. Vous m’en direz des nouvelles !

Si vous voulez creuser le sujet, je vous recommande de jeter un oeil aux benchmarks RNNoise sur OpenBenchmarking. Vous verrez que c’est loin d’être une solution gadget : sur un bon gros CPU, on arrive à traiter 60 fois le temps réel ! De quoi livestreamer sur Twitch en toute sérénité. D’ailleurs, c’est marrant de voir que RNNoise cartonne aussi sur des architectures exotiques comme les puces POWER ou ARM. Les développeurs ont vraiment fait du bon boulot pour rendre leur code portable. Respect ! 🙌

Bon allez, je ne vais pas vous bassiner plus longtemps et je vous invite à consulter l’excellent article de Jean-Marc Valin. C’est fascinant de voir comment on peut exploiter le deep learning pour améliorer des algorithmes de traitement du signal traditionnels.

Source

Un joueur japonais arrêté pour vente de Pokémons trafiqués

Par : Korben
15 avril 2024 à 14:41

Au pays du Soleil-Levant, un certain Yoshihiro Yamakawa, âgé de 36 ans et résidant dans la charmante ville d’Uji, s’est retrouvé dans de beaux draps. Ce décorateur d’intérieur est soupçonné d’avoir enfreint la loi sur la prévention de la concurrence déloyale en modifiant illégalement les capacités des petits monstres apparaissant dans le célèbre jeu Nintendo Switch « Pokémon Violet ». Selon les autorités, il aurait utilisé des outils spécialisés pour altérer le code du jeu et créer des Pokémon rares aux caractéristiques surpuissantes.

Mais attendez, ce n’est pas tout ! Non content de jouer les apprentis sorciers avec les données du jeu, notre cher Yamakawa a eu la brillante idée de vendre ces Pokémon modifiés pour la modique somme de 13 000 yens (environ 89 euros) pièce, via des marketplaces en ligne. Une sacrée arnaque !

Bien évidemment, Nintendo et The Pokémon Company ne sont pas du genre à laisser passer ce genre de choses surtout quand on touche à leurs précieuses licences. A ce moment là, ils sortent les Dracolosses et justement, Yamakawa risque gros : jusqu’à 5 ans de prison et une amende de 5 millions de yens. De quoi lui faire passer l’envie de jouer au plus malin.

Mais le plus dingue dans tout ça, c’est que les logiciels utilisés pour modifier les données de sauvegarde sont disponibles gratuitement sur Internet. Pas besoin d’être un Mewtwo de l’informatique pour s’en servir. Du coup, les ventes illégales de Pokémon modifiés pullulent sur la toile, générant des revenus estimés à plusieurs millions de yens.

L’association de protection des droits d’auteur des logiciels informatiques (ACCS) met en garde contre ces pratiques qui, non seulement gâchent le plaisir de jouer, mais peuvent aussi déséquilibrer les combats en ligne en donnant des avantages injustes à certains joueurs. Et puis, soyons honnêtes, c’est un peu comme tricher aux examens avec ChatGPT : c’est mal et ça ne rend pas plus intelligent !

Alors, chers dresseurs en herbe, la prochaine fois que vous tomberez sur une annonce alléchante proposant des Pokémon surpuissants à prix cassé, méfiez-vous ! Non seulement vous risquez de vous faire rouler dans la poudre d’escampette, mais en plus, vous encourez de sérieux ennuis avec la justice.

Source

Attention aux Deep ‘Cyprien’ Fakes !

Par : Korben
15 avril 2024 à 14:34

Vous en avez sûrement entendu parler ces derniers mois, le célèbre Youtubeur Cyprien est au cœur d’une polémique malgré lui. En effet, son image a été utilisée dans des deepfakes pour faire la promotion de jeux mobiles plus que douteux.

C’est donc bien une IA (et des humains) qui est derrière ces vidéos détournant l’image de Cyprien pour lui faire dire ce qu’il n’a jamais dit. On le voit notamment vanter les mérites d’une app soi-disant révolutionnaire pour gagner de l’argent facilement. Le souci, c’est que cette app sent l’arnaque à plein nez…

Résultat des courses, Cyprien s’est senti obligé de réagir pour démentir son implication dans ces pubs. À travers une vidéo mi-sérieuse mi-humoristique, il met en garde contre les dérives de l’IA et des deepfakes.

C’est quand même flippant de voir son image utilisée à son insu pour promouvoir des trucs plus que limite. Rien que le fait qu’il soit obligé de démentir montre à quel point un deepfake peut semer le doute dans l’esprit des gens, donc il fait bien de sonner l’alerte à travers sa vidéo.

Et c’est là qu’on se rend compte à quel point ces technologies peuvent être dangereuses si elles tombent entre de mauvaises mains. Aujourd’hui c’est Cyprien qui trinque, mais demain ça pourrait être n’importe qui d’entre nous. En attendant, méfiance quand vous voyez une vidéo d’une célébrité qui fait la promo d’un produit. Surtout si c’est pour une app ou un vpn (ah non, pas un vpn ^^). Y’a 9 chances sur 10 pour que ce soit un deepfake !

Perso, je l’ai trouvé au top cette vidéo, donc comme d’hab, je fais tourner.

Les IA comme ChatGPT aident-elles réellement les étudiants en informatique ?

Par : Korben
15 avril 2024 à 12:13

Vous êtes un étudiant en informatique, tout frais, tout nouveau, et on vous balance des exercices de programmation à faire. Panique à bord !

Mais attendez, c’est quoi ce truc là-bas ?

Ah bah oui, c’est ChatGPT, votre nouveau meilleur pote ! Il est capable de résoudre vos exos en deux temps trois mouvements, grâce à des techniques de traitement du langage naturel (NLP) et d’analyse de langage de programmation, mais attention, c’est pas si simple.

Des chercheurs ont voulu creuser la question et voir comment ces générateurs de code IA influencent vraiment l’apprentissage des étudiants et pour cela, ils ont réalisé 2 études. Dans la première, ils ont pris 69 étudiants, des novices complets en Python et les ont séparés en deux groupes : Ceux qui utiliseront l’IA et ceux qui coderont à l’ancienne sans IA.

Durant 7 sessions, ils leur ont donné des exos à faire. Les Jedis boostés à l’IA avaient accès à un générateur de code basé sur Codex, un modèle d’apprentissage automatique qui utilise le NLP et l’analyse de langage de programmation pour générer du code à partir des entrées des utilisateurs. Les autres, eux, devaient se débrouiller.

Résultat des courses ?

Les dev augmenté à l’IA ont cartonné ! Ils ont fini 91% des tâches contre 79% pour les autres. En plus, leur code était beaucoup plus correct. Toutefois, sur les tâches où il fallait modifier du code existant, les deux groupes étaient au coude à coude. Ensuite, ils ont fait passer des tests de connaissance aux étudiants, sans l’IA. Et là, surprise ! Les deux groupes ont eu des scores similaires. Mais quand ils ont refait les tests une semaine plus tard, les étudiants du goupe boosté à l’IA ont mieux retenu ce qu’ils avaient appris.

Dans la deuxième étude, les chercheurs ont analysé comment les étudiants utilisaient vraiment le générateur de code. Et là, révélations ! Certains en abusaient grave, genre copier-coller direct la consigne sans réfléchir. Pas cool ! 😅 Mais d’autres étaient plus malins et s’en servaient pour décomposer le problème en sous-tâches ou vérifier leur propre code.

Alors, que faut-il en retenir ?

Et bien que l’IA peut être un super outil pour apprendre à coder, mais à condition savoir l’utiliser intelligemment. C’est pourquoi les concepteurs d’outils et les profs doivent encourager une utilisation responsable et auto-régulée de ces générateurs de code. Sinon, c’est le drame assuré !

Pour ma part, vous le savez, le développement, c’est pas mon truc. Mais depuis que l’IA a débarqué dans ma vie, « sky is the limit » et ça m’aide énormément. Et comme ces étudiants, si je pose mon cerveau que je passe en mode copié-collé IA, à la fin, je vais avoir du caca. Mais si je comprends ce que je veux faire, si je maitrise mon code plus comme un chef de projet bien technique et bien c’est redoutablement efficace. Et ce qui est encore plus cool, c’est que j’apprends plein de trucs. On dit souvent qu’il faut forger pour devenir forgeron. Et bien là c’est le cas, car je ne m’encombre plus des problématiques de syntaxe, et je construis brique par brique mes outils en comprenant tout ce que je fais. Donc l’IA pour développer, oui !! Mais en laissant le cerveau allumé.

En tout cas, une chose est sûre, c’est en train de révolutionner l’apprentissage du code. Ça promet pour le futur mais faudra veiller à ce que les étudiants apprennent vraiment à faire les choses et ne deviennent pas des zombies du copier-coller (on avait déjà le souci avec StackOverflow, cela dit…).

Source

Windows 11 enfin accessible aux PC Rocket Lake après deux ans d’attente

Par : Korben
15 avril 2024 à 11:38

Oyez, oyez, amis Windowsiens ! Réjouissez-vous, car Microsoft, dans son immense mansuétude, a enfin daigné lever le blocage qui empêchait certains d’entre vous de goûter aux joies de Windows 11. Eh oui, après deux longues années d’attente, les possesseurs de processeurs Intel Rocket Lake peuvent désormais franchir le Rubicon et passer du côté obscur de la Force.

Enfin, seulement s’ils mettent à jour leurs pilotes Intel Smart Sound Technology !

Mais qu’est-ce que c’est que cette histoire de pilotes ? Eh bien figurez-vous que certaines versions des pilotes audio Intel SST provoquaient des écrans bleus de la mort sur Windows 11, rien que ça. Les pilotes fautifs, en version 10.29.0.5152 et 10.30.0.5152, étaient plus vicieux qu’un Gremlins mouillé après minuit.

Mais tel un chevalier blanc sur son fier destrier, Intel est venu à la rescousse en sortant des versions corrigées des pilotes, estampillées 10.30.00.5714 et 10.29.00.5714 (et au-delà). Microsoft a évidemment mis un certain temps à lever son blocus, mais mieux vaut tard que jamais, n’est-ce pas ?

Car oui, Microsoft est en pleine phase « open bar » en ce moment : tout le monde est invité à rejoindre la grande famille Windows 11. Même si parfois, ça implique de bloquer certaines apps tierces un peu trop curieuses ou de laisser tomber le support de fonctionnalités exotiques comme Windows Mixed Reality. Mais c’est le prix à payer pour profiter d’un OS moderne et innovant (ou pas) comme Windows 11 ^^.

Pour mettre à jour vos pilotes et enfin accéder au Saint Graal qu’est Windows 11, rien de plus simple : passez par Windows Update ou allez directement sur le site d’Intel. Une fois vos pilotes à jour, attendez 48h (le temps que Microsoft réalise que vous existez) et voilà, vous pourrez enfin voir à quoi ressemble le menu Démarrer de Windows 11. Spoiler : c’est pareil que Windows 10.

Mais attention, cette mise à jour ne concerne que les versions Desktop de Windows, à savoir :

  • Windows 11, version 23H2
  • Windows 11, version 22H2
  • Windows 11, version 21H2
  • Windows 10, version 22H2
  • Windows 10, version 21H2
  • Windows 10 Enterprise LTSC 2019

Les versions Serveur ne sont pas impactées par ce problème. Pour les administrateurs IT qui gèrent des parcs informatiques, vous pouvez déployer les pilotes mis à jour en utilisant des outils tels que Windows Update for Business, Intune ou Autopatch.

Et si jamais après deux jours, Windows refuse toujours obstinément de vous laisser passer à la caisse pour acheter votre billet pour Windows 11, contactez le support ! A l’ancienne 🙂

Sur ce, je vous laisse, j’ai un pilote à mettre à jour.

Source

Netflix crée la polémique avec de fausses photos IA dans un docu true crime

Par : Korben
15 avril 2024 à 10:16

Netflix a encore frappé, mais cette fois, ce n’est pas pour une nouvelle série addictive. Non, ils ont carrément utilisé des photos générées par IA dans leur dernier documentaire true crime « What Jennifer Did » (« Les Vérités de Jennifer », en français). Et autant vous dire que ça fait jaser sur la Toile !

Le docu retrace l’affaire sordide d’un meurtre commandité qui a eu lieu au Canada en 2010. Jennifer Pan, une ado en apparence sans histoires, a en fait orchestré l’assassinat de sa mère. Brrr, ça donne froid dans le dos ! Mais le plus fou, c’est que pour illustrer à quel point Jennifer était « pétillante, heureuse et pleine d’assurance » selon les mots d’une amie, Netflix a balancé des photos qui ont tous les codes des images générées par une IA. On parle de mains difformes, de visages déformés et même une dent de devant anormalement longue. Sympa le portrait !

Ça soulève pas mal de questions éthiques d’utiliser l’IA pour représenter une vraie personne, qui plus est dans une affaire criminelle. D’accord, Jennifer croupit en taule jusqu’en 2040 au moins, mais quand même, c’est glauque de tripatouiller la réalité comme ça. Surtout que bon, on n’est pas dans une fiction là, mais dans un fait divers bien réel et tragique.

On a déjà vu des séries utiliser l’IA pour générer des éléments de décor random, genre des affiches chelous dans True Detective. Mais là, on passe un cap en traficotant des photos d’une personne qui existe. Perso, ça me fait penser à ces deepfakes de célébrités qui pullulent sur internet alors si même les docs se mettent à nous enfumer avec de fausses images, où va-t-on ?

Netflix se défendent en disant que pour des raisons légales, ils ne pouvaient pas utiliser de vraies photos de Jennifer. Ok, mais ils auraient pu flouter son visage ou juste ne pas mettre de photos.

En tous cas, ça promet de sacrés débats sur l’utilisation de l’IA dans les médias. Jusqu’où peut-on aller pour illustrer une histoire vraie ? Est-ce qu’on a le droit de « créer » des images de personnes réelles dans ce contexte ? Autant de questions épineuses qui divisent.

La technologie utilisée par Netflix est probablement une forme de réseaux antagonistes génératifs (GAN) ou de deepfake. Ces technologies utilisent l’intelligence artificielle pour créer des images ou vidéos réalistes en apprenant des motifs à partir de données existantes. Les GAN sont composés de deux réseaux de neurones : un générateur qui crée les images, et un discriminateur qui essaie de distinguer les images générées des vraies. Au fil du temps, le générateur s’améliore pour créer des images ultra-réalistes, indiscernables de photos authentiques.

Mais l’usage de ces technologies soulève d’importantes questions éthiques, car elles peuvent servir à manipuler la perception de la réalité. Et dans le cas des Vérités de Jennifer, cela pourrait induire les spectateurs en erreur.

On verra si ça se généralise ou si Netflix saura en tirer des leçons.

Source

La plateforme MEDIUM interdit le contenu généré par IA de son programme partenaire

Par : Korben
15 avril 2024 à 09:25

Ça va en faire des déçus chez les petits malins qui croyaient avoir trouvé la combine du siècle pour se faire du blé facile sur Medium en balançant des articles pondus par ChatGPT et compagnie ! La plateforme de blogs vient en effet de dégainer son bazooka anti-IA et de bannir purement et simplement le contenu généré artificiellement de son programme partenaire rémunéré. Eh oui, fini de laisser tourner GPT-4 à plein régime toute la nuit pour cracher des articles à la chaîne et les planquer derrière un paywall ! Medium a dit « Niet, c’est fini ça !« 

La sentence est tombée par mail dans la boîte des utilisateurs : à partir du 1er mai, c’est tolérance zéro pour les histoires 100% IA dans le programme de monétisation. Les récits conçus par une intelligence artificielle seront donc retirés des paywalls illico presto, et les comptes récidivistes pourront même se faire virer de la rémunération par Medium. Ça rigole plus !

Faut dire que la plateforme a une vision bien précise de son identité : un sanctuaire pour le storytelling humain, pas un repaire de scribouillards synthétiques.

Ok, ils sont ouverts à ce que l’IA file un coup de main pour peaufiner un texte ou aider à écrire dans la langue de Shakespeare quand on est rouillé en anglais. Mais que dalle pour les papiers écrits de A à Z par un algorithme, c’est no way !

« Medium, c’est fait pour les histoires humaines, pas pour les textes générés par l’IA« , martèle la plateforme dans son mail qui a dû faire l’effet d’une douche froide à plus d’un. En fait, si on y regardait de plus près, c’était déjà écrit noir sur blanc dans les guidelines de Medium : les histoires 100% IA, c’était déjà restreint à une diffusion limitée au petit cercle de l’auteur sur la plateforme. Pour utiliser l’IA en mode fair-play, faut jouer la transparence et le mentionner direct dans les 2 premiers paragraphes. Pareil pour les images générées par l’IA, qui doivent être identifiées et sourcées comme il faut.

Mais là, en virant le contenu IA de son programme de monétisation, Medium serre sérieusement la vis. Et si jamais vous tombez sur un de ces récits bricolés par un bot et que ça vous gonfle, pas de souci ! Il suffit de cliquer sur « Voir moins de contenu similaire » pour dire à Medium « Merci mais non merci, très peu pour moi ! » et ainsi limiter la propagation de ces histoires synthétiques. A voir comment ils comptent faire techniquement maintenant…

Après soyons honnêtes, le contenu généré par l’IA, c’est souvent mal fait et on se retrouve avec une belle bouillie insipide qui manque de saveur. Étant abonné payant à Medium, je trouve que c’est pas une mauvaise nouvelle et j’imagine que bon nombre de plateformes vont leur emboiter le pas.

Source

SUPIR – L’IA qui restaure vos photos comme jamais

Par : Korben
15 avril 2024 à 09:00

SUPIR (Scaling-UP Image Restoration) est une avancée majeure dans le domaine de la restauration d’images intelligente et réaliste. En s’appuyant sur des techniques multi-modales et des générateurs préentraînés avancés, SUPIR repousse les limites de ce qui est possible en termes de qualité et de contrôle de la restauration en combinant ce qui se fait de mieux en ce moment en IA.

Au cœur de SUPIR se trouve un modèle génératif que vous connaissez bien : StableDiffusion-XL (SDXL) et ses 2,6 milliards de paramètres. Pour l’appliquer efficacement à la restauration, les dev du projet ont du concevoir et entrainer un adaptateur de plus de 600 millions de paramètres.

Mais l’autre atout clé de SUPIR est son jeu de données d’entraînement titanesque, avec plus de 20 millions d’images haute résolution et haute qualité, chacune annotée avec une description textuelle détaillée. Cela permet à SUPIR de réaliser des restaurations guidées par des instructions en langage naturel, offrant un contrôle sans précédent sur le résultat final.

Je l’ai testé sur une image culte d’Internet : Les Horribles Cernettes. Pour ceux qui ne connaissent pas, il s’agit de la première photo qui a été envoyée via Internet à Tim Berners-Lee.

Voici l’image d’origine bien dégeu en terme de qualité :

Et voici ce que ça donne une fois passé dans SUPIR. Vous n’avez jamais vu cette photo avec cette qualité, j’en suis sûr !

Des prompts de « qualité négative » sont également utilisés pour améliorer encore la qualité perceptuelle. Et une méthode d’échantillonnage guidé par la restauration a été développée pour préserver la fidélité à l’image source, un défi courant avec les approches génératives.

Par contre, au niveau de certains détails comme les yeux, on n’y est pas encore mais je sais qu’il y a d’autres IA capable de gérer ça.

Grâce à cette combinaison unique de modèles, de données d’entraînement massives et de fonctionnalités plutôt avancées, SUPIR produit des restaurations d’une qualité exceptionnelle, en particulier sur des photos dégradées. Le tout avec la possibilité inédite de contrôler finement le résultat via des instructions en langage naturel.

Voici quelques exemples de cas d’utilisation :

  • Restaurer des paysages en faisant ressortir toute la beauté naturelle des photos
  • Obtenir des portraits ultra-détaillés et des expressions faciales quasi-parfaitement restituées
  • Redonner vie au charme des animaux dans des clichés anciens ou de faible qualité
  • Remastering de jeux vidéo pour une clarté et un niveau de détail époustouflants
  • Résurrection de films classiques pour revivre l’âge d’or du cinéma avec une netteté impeccable

Si vous ne me croyez pas, il y a plein d’exemples sur le site officiel du projet. Alors par contre, y’a pas de version en ligne officielle donc vous avez 2 possibilités pour jouer avec. Soit vous taper l’install à la main sur votre ordinateur, soit aller sur Replicate qui héberge une version en ligne avec laquelle vous pourrez améliorer vos images.

Pour en savoir plus sur SUPIR, rendez-vous sur le dépôt officiel du projet.

Graphite – l’éditeur graphique open source qui va bousculer la création graphique

Par : Korben
14 avril 2024 à 09:00

Vous êtes accros aux logiciels de retouche photo et de création graphique mais vous en avez marre de vider votre compte en banque pour des licences hors de prix ? Et si je vous disais qu’une solution très sympa open source et totalement gratuite était en train de voir le jour ? Laissez-moi vous présenter Graphite, un projet de dingue porté par une communauté de développeurs et d’artistes passionnés.

Alors, qu’est-ce que c’est que ce truc ? En gros, le but c’est de pondre une appli de graphics editing nouvelle génération qui coche toutes les cases : retouche photo, dessin vectoriel, peinture numérique, PAO, compositing, motion design… Rien que ça ! On est clairement sur un couteau suisse de la création 2D.

Bon, je vous vois venir avec vos gros sabots : « Ouais mais c’est encore un énième logiciel qui va essayer de faire comme Photoshop et cie mais en moins bien ! » Eh bah non, justement ! L’idée c’est pas de copier bêtement ce qui existe déjà mais d’innover en s’inspirant de ce qui se fait de mieux dans d’autres domaines, comme la 3D.

Le truc de malade dans Graphite, c’est qu’il est construit autour d’un node graph, une sorte de « compo visuel » où on branche des nœuds entre eux pour manipuler nos calques et leur appliquer des filtres et des effets à l’infini. Ça permet de garder la main à chaque étape et de pouvoir revenir en arrière sans perdre en qualité, ce qui est juste im-po-ssible dans les logiciels de retouche photo traditionnels. On appelle ça du non-destructif.

Autre point fort : Graphite gère aussi bien les images matricielles (bitmap) que vectorielles, et le tout avec une qualité d’affichage toujours au taquet, même si on zoom dans tous les sens ! Plus besoin d’avoir 36 000 applis et de jongler entre elles. C’est un peu le mix parfait entre le pixel et le vecteur (avec un soupçon de génération procédurale en plus).

Bon, alors, il sort quand ce petit bijou ? Figurez-vous que Graphite est déjà dispo en version alpha et qu’on peut le tester directement dans son navigateur. Pas besoin d’install, ça tourne full JavaScript côté client. Évidemment, à ce stade, c’est encore un peu brut de décoffrage et y’a pas mal de features prévues sur la roadmap qui ne sont pas encore implémentées. Mais ça donne déjà un bon aperçu du potentiel de la bête !

Et en parlant de potentiel, vous allez voir que les possibilités de création sont assez dingues. Vous pouvez par exemple générer des centaines de cercles de façon procédurale pour obtenir des motifs super stylés. Ou encore créer des structures complexes qui s’adaptent automatiquement, comme ces guirlandes de Noël dont les ampoules se replacent toutes seules quand on déforme le chemin. Magique !

Donc, si vous voulez voir ce projet de dingue prendre son envol, n’hésitez pas à mettre la main au portefeuille et à faire un don. C’est vous qui voyez, mais je pense que ça en vaut carrément le coup ! En tout cas, moi, j’ai déjà mis une étoile sur le repo Github 😉

Whomane – L’IA portable & open source

Par : Korben
13 avril 2024 à 09:00

Accrochez-vous bien à vos slips, parce que je vais vous parler d’un truc de ouf qui risque bien de révolutionner le monde de l’IA portable : Whomane ! Ouais, vous avez bien lu, c’est un projet open source de wearable avec une caméra intégrée.

Whomane, c’est un peu le rêve de tout maker qui se respecte : un appareil portatif bourré d’IA et de capteurs, le tout en mode open source pour pouvoir bidouiller et créer ses propres applications. La vision derrière ce projet, c’est de rendre l’IA embarquée accessible à tous, que ce soit pour l’utiliser ou pour développer dessus.

Concrètement, Whomane se présente sous la forme d’un petit boîtier à clipser sur soi, un peu comme une broche hi-tech. Mais attention, pas n’importe quelle broche ! Celle-là embarque une caméra, un micro et du logiciel capable d’analyser votre environnement en temps réel. Et le tout est propulsé par un raspberry pi Zero capable de faire tourner des modèles de deep learning directement sur l’appareil.

Maintenant, vous vous demandez sûrement ce qu’on peut bien faire avec un truc pareil ? Eh bien, les possibilités sont quasi infinies ! Imaginez par exemple une application qui reconnaît les visages et affiche des infos sur les gens que vous croisez. Ou encore un assistant personnel qui analyse vos conversations et vous souffle des réponses. Vous voyez le genre ?

Mais Whomane, c’est aussi et surtout une plateforme ouverte et collaborative. Le code source est dispo sur GitHub, avec une licence GPL pour les projets open source et une licence commerciale pour ceux qui veulent l’intégrer dans des produits fermés.

Alors okay, je vous vois venir avec vos grands chevaux : « Oui mais la vie privée dans tout ça ? C’est Big Brother ton truc ! » Alors oui, évidemment, dès qu’on parle de caméra et d’IA, ça soulève des questions. Mais justement, l’avantage d’un projet open source comme Whomane, c’est la transparence. Tout est là, à disposition de la communauté pour auditer le code et s’assurer qu’il n’y a pas de dérive. Et puis bien sûr, il faudra toujours veiller à respecter les lois et réglementations en vigueur.

Bref, vous l’aurez compris, Whomane c’est le genre de projet geek et utopiste qui fait vibrer la corde du bidouilleur qui sommeille en nous. Après, on ne va pas se mentir, c’est encore un prototype avec sûrement plein de bugs et de limitations. Mais quand bien même, qu’est-ce que c’est excitant de voir émerger ce genre d’initiatives !

❌
❌