Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

SocialScreenshots – Mettez en valeur vos captures écran sans effort

Par : Korben
26 mai 2024 à 17:03

Vous rêvez de créer des visuels de fou pour vos réseaux sociaux ?

Ne cherchez plus, SocialScreenshots est là ! Développé par Gabriel, un jeune développeur toulousain de 29 ans, cet outil ingénieux vous permet de capturer, recadrer et améliorer vos captures d’écran en quelques clics, directement depuis votre navigateur.

Inspiré par l’interface de Screen Studio, Gab a développé son site uniquement avec ReactJS et canvas, en créant lui-même tout l’habillage et le résultat est très sympa !

Grâce à ce site, vous pouvez créer un screenshot directement depuis un site web, puis le recadrer automatiquement au format voulu (Pour X, Facebook, Instagram, Linkedin et les résolutions d’écran classiques), et l’améliorer grâce à l’éditeur afin d’obtenir des rendus dignes d’un graphiste en herbe en ajoutant une ombre, en arrondissant les coins, et en choisissant un joli fond ou un dégradé pour l’arrière-plan.

C’est gratuit, y’a pas de filigrane ni de limite de temps, vous n’avez rien à installer et pas même besoin de créer un compte. Et toutes les manipulations se font localement dans votre navigateur, pour un maximum de simplicité et de confidentialité.

À découvrir ici

Créez votre avatar IA en un clin d’oeil avec PuLID

Par : Korben
18 mai 2024 à 11:38

Développé par une équipe de chez ByteDance (mais si, TikTok, votre réseau social préféré), ce modèle baptisé PuLID va vous permettre de créer des images sur-mesure à partir de photos existantes et tout ça en un clin d’œil.

Basé sur le principe d’alignement contrastif, PuLID vous offre une customisation d’identité ultra rapide et de haute qualité. Pour cela, il utilise une architecture qui apprend à la volée les caractéristiques clés d’une identité source (des photos de vous) pour les transposer efficacement sur de nouvelles images cibles (images générées par IA). On obtient alors des visuels uniques générés en quelques secondes à peine, tout en préservant la cohérence des photos d’origine.

Bon, ok, ça peut paraître un peu barbare dit comme ça mais c’est super simple à utiliser. Si vous êtes flemmard, vous pouvez aller directement sur Huggingface ou pour les plus courageux, l’installer sur votre machine. Tout ce dont vous avez besoin, c’est d’un bon vieux Pytorch (version 2.0 minimum svp) et de quelques lignes de code pour démarrer l’entraînement.

PuLID (Pure and Lightning ID Customization via Contrastive Alignment) fonctionne en utilisant des techniques de machine learning pour aligner des représentations latentes en comparant des paires d’images ou d’identités. L’objectif est de maximiser la similarité pour des identités similaires et de minimiser la similarité pour des identités différentes. En ajustant ces représentations grâce à l’alignement contrastif, PuLID permet de créer des images uniques avec une grande précision et rapidité.

Si vous bossez dans la comm et que ous avez déjà quelques concepts arts sympas d’un personnage, mais vous aimeriez voir à quoi il ressemblerait dans différents environnements ou avec des styles graphiques variés, pas de souci ! Vous balancez vos images dans PuLID avec les bonnes instructions et le tour est joué. Vous obtiendrez alors tout un tas de variations stylées de votre personnage, tout en gardant son visage reconnaissable.

L’équipe de ByteDance a pensé à tout : PuLID est 100% open-source et disponible sur GitHub. Vous pouvez donc bidouiller le code comme bon vous semble pour l’adapter à vos besoins. Y’a même des tutoriels et des exemples pour vous aider à prendre en main le bouzin rapidement.

Et pour les plus impatients d’entre vous, voici un petit tuto d’installation pour commencer à jouer avec PuLID :

Pré-requis :

Étapes d’installation :

  1. Cloner le dépôt PuLID :
git clone https://github.com/ToTheBeginning/PuLID.git
cd PuLID

Créer et activer l’environnement conda :

conda create --name pulid python=3.10
conda activate pulid

Installer les dépendances :

pip install -r requirements.txt

Installer PyTorch : Suivez les instructions sur le site de PyTorch pour installer la version compatible avec votre système. Par exemple, pour CUDA 11.7 :

conda install pytorch torchvision torchaudio cudatoolkit=11.7 -c pytorch

Lancer l’application :

python app.py

Pour en savoir plus sur PuLID et récupérer le code source, rendez-vous sur le repo GitHub.

Allez, je vous laisse vous amuser avec votre nouveau jouet. Un grand merci à Lorenper pour l’info. Grâce à toi, on va pouvoir personnaliser nos avatars comme jamais.

Source

Les secrets dans Docker – Le cauchemar des fuites de données dans vos images

Par : Korben
17 mai 2024 à 09:00

Vous pensiez que vos secrets étaient en sécurité dans vos images Docker ? Détrompez-vous ! Une étude de l’Université d’Aix-la-Chapelle a révélé que près de 10% des images publiques sur DockerHub contenait des secrets (donc des identifiants, des clés API, des mots de passe, des endpoints sensibles…Etc).

Ça fait froid dans le dos.

On parle de plus de 50 000 clés d’API et d’identifiants accessibles publiquement. Et ce n’est que la partie émergée de l’iceberg puisque les chercheurs de Redhunt Labs ont aussi trouvé plus de 46 000 Dockerfiles exposant des infos sensibles. Bref, c’est la fête du slip côté sécurité !

Mais comment ces secrets se retrouvent-ils à fuiter comme une passoire ? Et bien c’est souvent, c’est à cause d’opérations de fichiers trop permissives, de secrets mis en dur dans les Dockerfiles…etc

Par exemple, beaucoup de tutos et même la doc officielle de Docker suggèrent d’utiliser COPY . . pour copier tout le répertoire courant dans l’image. Sauf que ça inclut aussi les fichiers sensibles comme .env ou l’historique Git. Pas top pour la confidentialité.

Et même si vous supprimez ces fichiers sensibles après le COPY, ils restent présents dans les couches précédentes de l’image. Un attaquant pourra donc toujours y accéder. Merci les layers 🙂

Autre coup classique : mettre directement les secrets dans le Dockerfile ou les passer en argument au build. Là encore, c’est cadeau pour les hackers. Un simple docker history --no-trunc et hop, vos secrets sont à nu.

Heureusement, il existe des solutions pour sécuriser tout ça. Par exemple, les builds multi-stages permettent d’isoler les secrets dans une étape intermédiaire qui ne sera pas conservée dans l’image finale. Et depuis peu, BuildKit propose une option --secret pour injecter les secrets sans les stocker dans l’image, mais attention aux pièges ! Si votre app log le secret qu’elle utilise, il finira quand même dans l’image. Les builds multi-stages restent donc plus safe de ce côté là.

Bref, vous l’aurez compris, la gestion des secrets dans Docker, c’est pas de la tarte mais en suivant les bonnes pratiques, vous pourrez limiter les risques.

Bref, pensez builds multi-stages, utilisez .dockerignore, oubliez les secrets en dur et n’abusez pas des arguments de build. Et surtout, ayez le réflexe d’auditer vos images avec des outils comme TruffleHog. Parce qu’un secret qui fuite, c’est votre réputation qui coule.

Stable Diffusion et SDXL boostés grâce aux Modèles de Consistance Latente (LCM) et aux LoRAs

Par : Korben
13 mai 2024 à 06:30

Vous connaissez sûrement Stable Diffusion et son grand frère SDXL, ces modèles de génération d’images par IA qui permettent de créer des imges à partir de simples descriptions textuelles. Mais saviez-vous qu’il est désormais possible d’accélérer considérablement leur pipeline d’inférence grâce aux Modèles de Consistance Latente (ou LCM) ?

Développés par une équipe chinoise, les LCM sont une technique de distillation qui permet de réduire drastiquement le nombre d’étapes nécessaires pour générer une image avec Stable Diffusion ou SDXL, tout en conservant une qualité optimale. Au lieu des 25 à 50 étapes habituelles, on peut descendre à seulement 4 à 8 étapes !

Concrètement, cela signifie des gains de vitesse d’un facteur 10 sur un Mac récent, ou la possibilité de générer des images en moins d’une seconde sur une RTX 3090. De quoi modifier les usages et les workflows, en rendant la génération d’images par IA accessible à tous, même sans matériel haut de gamme.

Mais le plus intéressant, c’est que grâce à une nouvelle méthode appelée LCM LoRA, il est possible d’appliquer cette optimisation à n’importe quel modèle SDXL ou Stable Diffusion fine-tuné, sans avoir à le distiller entièrement. Pour rappel, les LoRAs (pour Low-Rank Adaptation) sont des petits adaptateurs qui viennent se greffer au modèle pour lui donner des super-pouvoirs, un peu comme des plugins. Ils permettent ainsi de combiner les avantages des LCM (inférence ultra-rapide) avec la flexibilité du fine-tuning.

Et tout cela est parfaitement intégré dans la bibliothèque Diffusers de HuggingFace. Ainsi, avec seulement quelques lignes de code, vous pouvez charger un pipeline SDXL, lui appliquer un LCM LoRA, changer le scheduler et hop, vous voilà parés pour de l’inférence à la vitesse de l’éclair !

Cette accélération ouvre la voie à de nouveaux cas d’usage passionnants pour la génération d’images par IA :

  • Accessibilité : les outils génératifs deviennent utilisables par tous, même sans GPU dernier cri.
  • Itération rapide : les artistes et chercheurs peuvent tester plus d’idées et de variantes en un temps record.
  • Génération à la demande : on peut imaginer des services d’images personnalisées en quasi temps-réel.
  • Réduction des coûts : l’inférence ultra-rapide permet d’envisager des charges de travail en production, même sur CPU ou avec un budget limité.

Et pour plus d’info, voici quelques liens :

Prêts à générer des images à toute vitesse ?

À vous de jouer et encore merci à Lorenper pour l’info !

VASA-1 – Des visages parlants ultra-réalistes et en temps réel

Par : Korben
18 avril 2024 à 01:49

VASA-1 est un nouveau framework qui permet de générer des visages parlants ultra-réalistes en temps réel ! En gros, vous balancez une simple photo à cette IA, ainsi qu’un petit clip audio, et bim ! Elle vous pond une vidéo d’un visage qui parle, avec une synchronisation de la bouche nickel chrome, des expressions faciales hyper naturelles et des mouvements de tête très fluides. C’est hyper bluffant !

Les chercheurs de Microsoft ont réussi ce tour de force en combinant plusieurs techniques de pointe en deep learning. Ils ont d’abord créé un espace latent expressif et bien organisé pour représenter les visages humains. Ça permet de générer de nouveaux visages variés, qui restent cohérents avec les données existantes. Ensuite, ils ont entraîné un modèle de génération de dynamiques faciales et de mouvements de tête, appelé le Diffusion Transformer, pour générer les mouvements à partir de l’audio et d’autres signaux de contrôle.

Et le résultat est juste époustouflant. On a l’impression de voir de vraies personnes qui parlent, avec toutes les nuances et les subtilités des expressions faciales. Les lèvres bougent parfaitement en rythme avec les paroles, les yeux clignent et regardent naturellement, les sourcils se lèvent et se froncent…

En plus de ça, VASA-1 peut générer des vidéos en haute résolution (512×512) à une cadence élevée, jusqu’à 40 images par seconde, avec une latence de démarrage négligeable. Autant dire que c’est le graal pour toutes les applications qui nécessitent des avatars parlants réalistes. On peut imaginer des assistants virtuels avec lesquels on pourrait interagir de manière super naturelle, des personnages de jeux vidéo encore plus crédibles et attachants, des outils pédagogiques révolutionnaires pour apprendre les langues ou d’autres matières, des thérapies innovantes utilisant des avatars pour aider les patients… etc etc..

En plus de pouvoir contrôler la direction du regard, la distance de la tête et même les émotions du visage généré, VASA-1 est capable de gérer des entrées qui sortent complètement de son domaine d’entraînement comme des photos artistiques, du chant, d’autres langues…etc.

Bon, évidemment, il reste encore quelques limitations. Par exemple, le modèle ne gère que le haut du corps et ne prend pas en compte les éléments non rigides comme les cheveux ou les vêtements. De plus, même si les visages générés semblent très réalistes, ils ne peuvent pas encore imiter parfaitement l’apparence et les mouvements d’une vraie personne mais les chercheurs comptent bien continuer à l’améliorer pour qu’il soit encore plus versatile et expressif.

En attendant, je vous invite à checker leur page de démo pour voir cette merveille en action. C’est juste hallucinant ! Par contre, vu les problèmes éthiques que ça pourrait poser du style usurpation d’identité, fake news et compagnie, et connaissans Microsoft, je pense que VASA-1 ne sera pas testable par tous bientôt malheureusement. Mais je peux me tromper…

Tess – En route vers une IA génératrice d’images qui rémunère les artistes

Par : Korben
17 avril 2024 à 09:25

Les générateurs d’images IA actuels comme Midjourney, Dall-E et j’en passe, font polémique puisqu’ils piochent allégrement dans les œuvres des artistes sans leur consentement ni rémunération. Mais des solutions sont en train de se mettre en place pour les entreprises qui souhaiteraient utiliser l’IA pour illustrer leurs supports sans pour autant piller les artistes.

Une de ces solutions, c’est Tess qui propose une approche que j’ai trouvée intéressante puisqu’elle met en place des collaborations avec des créateurs pour utiliser leur style dans des modèles de diffusion d’images.

Concrètement, chaque modèle d’IA est entraîné sur le style visuel d’un artiste unique, avec son accord puis l’outil utilise un SDXL custom (Stable Diffusion) pour générer les images. Évidemment, à chaque fois qu’une image est générée avec son style, l’artiste touche des royalties ! C’est gagnant-gagnant donc.

L’outil intègre également un système de métadonnées basé sur le protocole C2PA, qui permet d’identifier clairement les images générées par IA et de les distinguer des créations originales.

L’objectif de Tess est donc clair : démocratiser la création d’images artistiques de qualité, en la rendant accessible au plus grand nombre, tout en rémunérant équitablement les artistes et leur permettant de garder la maitrise de leur art. C’est une bonne idée vous ne trouvez pas ?

Et les artistes dans tout ça ? Et bien si j’en crois le site de Tess, ils sont déjà plus de 100 à avoir déjà sauté le pas, séduits par ce nouveau modèle de rémunération. Maintenant si vous voulez devenir clients de la plateforme, ce n’est malheureusement pas encore ouvert à tous, mais une liste d’attente est en place pour vous inscrire et être tenu au courant.

❌
❌