Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Continue – L’extension Visual Studio Code qui code à votre place

Par : Korben
25 janvier 2024 à 09:00

Cursor est à ce jour l’éditeur de Code que je préfère, car il est basé sur Visual Studio et totalement boosté à l’IA. Cela me permet pour moi qui suis une quiche en dev, de mener à bien mes projets de conquête du monde.

Toutefois, c’est payant. Et si vous ne voulez pas lâcher un peu de thunasse, et que vous voulez payer uniquement ce que vous consommez, c’est possible dans Cursor avec une clé OpenAI, mais également en installant ce plugin open source baptisé « Continue » directement dans un bon vieux Visual Studio Code d’origine ou un JetBrains.

Concrètement, ce truc vous permet en surlignant un bout de code, de discuter avec l’IA pour mieux le comprendre, le compléter ou le corriger. Vous pouvez même apporter des modifs directement à votre code simplement en demandant ce que vous voulez en langage naturel du genre :

/edit réécrire ceci pour retourner une liste aplatie à partir d'une matrice 3x3
/edit refactoriser cela en une mise en page flex angulaire sur une seule ligne
/edit définir ici un type pour une liste de listes de dictionnaires

Continue permet aussi de générer des fichiers from scratch, c’est-à-dire de zéro ou de générer des tests unitaires, des commandes Shell ou des recherches sur StackOverflow pour en extraire uniquement le nécessaire.

Continue est compatible avec GPT-4 et GPT-3.5-turbo via l’API OpenAI. Et si vous voulez esquiver OpenAI, vous pouvez toujours la connecter sur un autre LLM en utilisant par exemple LM Studio ou Ollama.

Une fois installé, pour l’activer, il suffit de faire un CMD + M (ou ALT + M).

Amusez-vous bien et codez-moi des trucs de ouf !

OSTE – Le scanner de vulns qui combine Nikto, ZAP, Nuclei, SkipFish, et Wapiti

Par : Korben
28 janvier 2024 à 09:00

Si vous vous intéressez un peu à la sécurité informatique, je vous présente aujourd’hui OSTE qui est ce qu’on pourrait appeler un Metascanner.

Alors qu’est-ce qu’un Metascanner ?

Eh bien il s’agit d’un scanner de vulnérabilité web qui combine différents outils tels que Nikto, zap de l’OWASP, Nucléi, SkipFish ou encore Wapiti.

L’intérêt de cet outil c’est qu’il offre une interface graphique très user friendly qui permet de consulter les rapports de scan, mais également de les lancer. Injections SQL, XSS, XML, HTML ou encore des injections liées à des commandes spécifiques au système d’exploitation visé. Chacun des scanners DAST (Dynamic Application Security Testing) intégrés fournit des listes de vulnérabilités pour vous aider à identifier et corriger les problèmes potentiels.

Pour l’installer, vous aurez besoin de tous les outils que je viens de vous citer, mais si vous utilisez Kali Linux vous n’aurez pas de soucis puisque tout ça est déjà présent dans la distrib. Sinon il faudra les installer manuellement.

Ensuite il ne vous restera plus qu’à cloner le dépôt sur votre machine et à lancer la commande

python3 metascan.py

Vous pourrez alors lancer des scans, charger les résultats, les exporter, les consulter directement depuis l’interface graphique.

Vous l’aurez compris, OSTE est un outil fantastique pour simplifier l’évaluation de la cyber sécurité. N’oubliez pas quand même que c’est destiné à usages éducatifs ou dans le cadre de mission d’audits pour lesquelles vous avez été mandaté.

Si vous voulez en savoir plus, cliquez ici.

OSS Insight – Explorez et comparez les dépôts GitHub en un clin d’oeil

Par : Korben
29 janvier 2024 à 09:00

Vous le savez, je suis un grand amateur et un grand défenseur des logiciels libres et Open Source. Et je n’ai pas peur de le dire, GitHub est l’un de mes sites préférés.

On y trouve des pépites comme des scripts incroyables, des outils géniaux et j’adore ça ! Mais ce n’est pas forcément toujours simple de suivre tout ce qui se passe dans cet univers.

Enfin, ça, c’était avant parce qu’il existe un site génial qui s’appelle OSS Insight et qui offre des informations très détaillées et des tendances sur le monde de l’open source en analysant plus de 5 milliards de lignes d’événements GitHub.

Il fournit une nouvelle façon d’explorer les données GitHub en posant simplement des questions en langage naturel, ce qui est extrêmement pratique quand on veut comparer les choses.

Par exemple, OSS Insight vous permet de comparer deux dépôts à partir des mêmes indicateurs, tels que les étoiles, les forks, les issues, les commits, les pull requests, le nombre de contributeurs, les langages de programmation utilisés ou encore les lignes de code modifiées.

Imaginez que vous travaillez sur un projet et que vous souhaitez comparer deux bibliothèques open source pour déterminer laquelle est la plus populaire et la mieux maintenue. Et bien il suffit de lui demander.

Mais ça ne s’arrête pas à ça. Voici quelques exemples de questions que les gens posent à l’outil :

En plus de cela, OSS Insight offre des informations sur les tendances techniques mensuelles avec des listes de dépôts à découvrir.

Comme ça, vous pouvez suivre de près certains types d’outils populaires, comme les bases de données, les frameworks JavaScript ou encore les outils liés aux LLM. Vous pouvez également obtenir des analyses sur la productivité des développeurs et les statistiques des dépôts.

Pour tester le OSS Insight, il vous suffit de vous rendre sur leur site web et de plonger dans cet océan de données.

JXL et AVIF – Les nouveaux champions des formats d’image

Par : Korben
19 février 2024 à 09:00

On est tous là avec nos formats d’images d’avant la guerre, à savoir le JPEG, le PNG et le WebP alors qu’il existe des trucs beaucoup plus efficaces aujourd’hui en 2024. L’objectif de cet article est donc de vous les présenter.

Le premier s’appelle AVIF (AV1 Image File Format) qui est basé sur le codec vidéo AV1, très connu pour son efficacité en termes de compression. L’AVIF est très adapté pour tout ce qui est images pour les sites web, mais également pour tout ce qui est images animées. Ça en fait donc une bonne alternative aux GIF animés et surtout, de très nombreux navigateurs modernes le supportent déjà.

L’autre format c’est le JXL qui n’est ni plus ni moins que la contraction de JPEG et de XL. Celui-ci est conçu pour compresser efficacement les photos avec ou sans perte selon ce que vous choisissez, tout en préservant une très haute résolution (au-delà du milliard de pixels si ça vous chante) avec plein dé détails. L’algo qui permet d’encoder les images en JXL est d’ailleurs jusqu’à 10 fois plus rapide que celui d’AVIF.

Ces deux formats qui supportent tous les deux la transparence, sont sortis vers 2019 et sont open source et non commerciaux. Alors c’est bien beau tout ça, mais comment on fait pour convertir nos images dans ces formats ? Et bien logiquement, n’importe quel outil de traitement d’image un peu récent peu le faire, mais autrement, y’a des outils.

Pour l’AVIF, vous pouvez utiliser les outils cavif-rs ou encore FFMPEG. Cavif-rs ce sera plus pour les images statiques et FFMPEG pour les gifs animés.

Prenons cette image PNG pour un beau fond d’écran de 1,9 Mo et d’une résolution de 1456 × 816 pixels :

En la convertissant en AVIF à l’aide de la commande suivante :

cavif Downloads/wallpaper.png -o Downloads/wallavif.avif -f

On obtient la même image, avec la même résolution sauf qu’elle pèse maintenant 77 ko. Je vous l’intégre dans mon WordPress pour que vous voyiez que c’est bien supporté par votre navigateur, mais comme WordPress ne supporte pas encore nativement ce format, le rendu est un peu cra-cra :

Je ne vous avais pas menti, c’est sacrément efficace. Dommage pour moi, ce format n’est pas supporté par mon WordPress, donc je ne peux pas encore l’intégrer à mon article.

Passons maintenant à une image animée avec FFMPEG. Je prends ce GIF de 1,1 Mo :

Avec FFMPEG, je dois d’abord convertir le format des pixels en yuv420p qui est un format de couleur très utilisé pour la vidéo et compatible AVIF :

ffmpeg -i happy.gif -pix_fmt yuv420p -f yuv4mpegpipe happy.y4m

Ensuite, il faut installer la lib avif comme ceci sous Linux :

sudo apt install libavif-bin

Comme ça sous mac :

brew install libavif

Ensuite armé de ce fichier y4m, je peux alors appeler l’outil d’encodage avifenc qui va alors le convertir en AVIF animé :

avifenc happy.y4m happy.avif

Et voilà, je me retrouve avec la même image animée sauf qu’elle pèse 45 ko. C’est magique.

Pour le format JXL c’est encore plus simple, puisqu’il y a un outil officiel à télécharger ici. Si vous êtes sous mac, vous pouvez même l’installer comme ceci :

brew install jpeg-xl

Ensuite, y’a plus qu’à appeler la commande comme ceci avec le paramètre lossless afin de n’avoir aucune perte :

cjxl wallpaper.png wallpaper.jxl --lossless_jpeg=0

Je passe donc d’un fond d’écran de 1,9 Mo en PNG au même fond d’écran de 202 Ko. Voici l’incrustation de ce JXL :

Après si vous avez la flemme de jouer avec tous ces outils sachez que ezgif dont je vous ai déjà parlé ici, propose des convertisseurs pour l’AVIF et le JXL.

D’ailleurs, si vous vous demandez comment je l’ai intégré, et bien, il existe une astuce qui permet d’avoir un rendu de JXL ou d’AVIF avec une image PNG en secours pour les anciens navigateurs qui ne supporteraient ni le AVIF ni le JXL.

Voici le code :

<picture>
      <source type="image/jxl" srcset="https://korben.info/wallpaper.jxl" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Et pour de l’AVIF ce sera comme ça :

<picture>
      <source type="image/avif" srcset="https://korben.info/wallpaper.avif" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Bref, tout ça pour dire que les résultats en matière de qualité et de compression avec JXL et AVIF sont assez phénoménaux que ce soit avec perte ou non de qualité. Je vous encourage fortement à adopter ces futurs standards même si pour le moment, c’est encore un peu roots, mais c’est déjà bien supporté sur les navigateurs récents du marché, donc pourquoi s’en priver. J’espère que WordPress le supportera également nativement rapidement, comme ils l’ont fait pour le webp.

Qu’est-ce que l’OSINT ?

25 février 2024 à 17:25

L'OSINT est une méthode née à l’issue de la guerre froide, alors que les États-Unis se demandaient quelle nouvelle forme donner aux renseignements. En 2005, la CIA lui crée un Centre dédié. Depuis, l’OSINT a largement investi le monde militaire, des renseignements, de la Justice, des grandes entreprises et des journalistes.

Suyu – le nouvel émulateur Switch open source qui ose défier Nintendo après la mort de Yuzu

Par : Korben
12 mars 2024 à 10:58

Vous avez entendu parler de Suyu ? C’est le nouvel émulateur Nintendo Switch open source qui fait pas mal parler de lui en ce moment. Faut dire qu’après la descente en flammes de son prédécesseur Yuzu, qui s’est pris un méchant procès de Nintendo et a dû mettre la clé sous la porte, les fans d’émulation se demandaient bien qui allait prendre le relais.

Bah c’est Suyu qui s’y colle, avec une équipe de développeurs passionnés qui ont repris le code source de Yuzu pour continuer à faire évoluer l’émulation Switch. Mais attention, les gars ont retenu la leçon et font super gaffe à pas se mettre Nintendo à dos comme Yuzu ! Déjà, fini la monétisation du projet, Suyu c’est 100% bénévole. Ils l’annoncent clairement sur leur page GitLab, zéro profit, que dalle, nada. Normal, vu que c’était un des points qui avaient bien énervé Nintendo dans le procès contre Yuzu.

Pareil pour les guides pas à pas pour expliquer comment jouer à des jeux piratés, c’est terminé. Les mecs veulent pas entendre parler de warez, au point que c’est devenu le sujet tabou numéro 1 sur leur Discord. Suyu joue la carte de la prudence à fond et refuse d’être associé de près ou de loin au piratage. Sachant que c’était un autre gros point de crispation de Nintendo contre Yuzu, ça me parait logique.

Après est-ce que ça suffira à éviter les foudres des avocats de Big N, ça c’est une autre histoire. Car même en jouant profil bas, Suyu n’en reste pas moins un émulateur Switch, avec tout ce que ça implique légalement, notamment le fait de devoir extraire la clé de sécurité d’une Switch pour pouvoir jouer aux jeux, ce qui ne plait pas non plus à la firme japonaise. D’ailleurs, les dévs le disent eux-mêmes, ils évoluent pour l’instant dans une « zone grise », le temps de trouver une solution pour en sortir. Wait and see comme on dit.

Mais en attendant, force est de constater que Suyu fait du bon boulot. Enfin un émulateur Switch puissant, open source et qui en plus est plutôt user-friendly. De quoi donner envie d’y jeter un œil et pourquoi pas de filer un coup de main si vous vous y connaissez un peu en dev. Le code est dispo sur le GitLab, avis aux amateurs ! Je vous ferait pas de tuto, hein ^^.

Bon après, bien que l’émulation soit LÉGALE, n’empêche que c’est quand même un peu couillu comme projet. Rien que le nom, Suyu, qui se prononce comme « sue you » (traduisez « attaquez-moi en justice » pour les anglophobes), ça montre bien que les mecs ont de l’humour et qu’ils sont conscients de jouer avec le feu. On peut pas leur enlever ça.

Et puis c’est cool de voir que malgré les menaces, la communauté de l’émulation continue de faire vivre ce hobby de passionnés. Avec tous les projets qui se sont fait dégommer ces derniers temps, on aurait pu croire le milieu complètement plombé. Mais heureusement, y a encore des irréductibles pour prendre la relève et faire perdurer la tradition, même si ça devient de plus en plus tendu.

Donc voilà, un petit coup de projecteur sur Suyu qui le mérite bien. Si vous voulez en savoir plus, je vous invite à faire un tour sur leur site, y a toutes les infos nécessaires. Et n’hésitez pas non plus à rejoindre leur serveur Discord pour suivre l’actu du projet et échanger avec les dévs et la communauté.

Sur ce, je retourne jouer à Zelda BOTW sur mon PC, vu que maintenant c’est possible grâce à Suyu 😉 J’déconne, j’déconne… Quoique !

Source

ytDownloader – Télécharger des vidéos à partir d’une simple URL

Par : Korben
13 mars 2024 à 09:00

Hé les amis, aujourd’hui laissez-moi vous présenter un outil génial qui vous facilitera la vie en vous permettant de télécharger des vidéos et d’extraire des pistes audios de différents formats à partir de centaines de sites, dont, YouTube, Facebook, Tiktok, Twitch, Twitter, Instagram et bien d’autres…

Cet outil s’appelle ytDownloader et vous l’aurez compris, c’est YoutubeDL derrière sauf que là, y’a une interface minimaliste facile à prendre en main. L’outil est bien sûr entièrement gratuit et Open Source.

Disponible sous Linux, Windows et macOS, cet utilitaire dispose de nombreuses fonctionnalités comme un mode clair/sombre, la possibilité de choisir un thème pour pas flinguer vos petits yeux, ainsi que la possibilité de télécharger une plage spécifique d’une vidéo si vous le souhaitez, ce qui est pratique pour extraire un morceau précis. Vous pouvez évidemment, après avoir entré l’URL de votre vidéo, choisir le format et la qualité de la vidéo et de l’audio que vous voulez récupérer, ce qui est super pratique pour faire par exemple des MP3 à partir de clips vidéos.

Cet outil prend également en charge le téléchargement des sous-titres et est disponible en plusieurs langues. Vous pouvez bien sûr configurer l’emplacement où enregistrer vos fichiers récupérés et il n’y a ni pubs ni traqueur dans l’application.

Pour résumer, ytDownloader est un outil super utile pour tous ceux qui ont besoin de récupérer des vidéos et/ou extraire des audios de différents formats à partir de différents sites. Je vous le conseille !

Rendez-vous sur leur site pour télécharger ytDownloader.

Merci à Lorenper pour le partage.

LocalAI – L’alternative open source puissante à OpenAI

Par : Korben
19 mars 2024 à 09:00

Aujourd’hui, j’aimerais vous présenter LocalAI, une alternative open source à OpenAI. En tout cas, c’est comme ça que le créateur du projet le présente. Il s’agit d’une solution idéale pour tous ceux qui cherchent une API REST compatible avec les spécifications de l’API OpenAI pour l’inférence locale.

Grâce à LocalAI, vous pouvez exécuter des modèles linguistiques, générer des images, de l’audio et bien d’autres choses encore, localement ou sur site avec du matériel grand public, et ce, sans avoir besoin d’un GPU ! Le projet a pour principal objectif de rendre l’IA accessible à tous.

Pour résumer, voici les principales caractéristiques de LocalAI :

  • Une API REST locale, alternative à OpenAI. Comme ça, vous gardez bien au chaud vos propres données.
  • Pas besoin de GPU. Pas besoin d’accès internet non plus. Toutefois, l’accélération GPU est possible en option.
  • Prise en charge de plusieurs modèles.
  • Dès qu’ils sont chargés une première fois, les modèles restent en mémoire pour une inférence plus rapide.
  • N’utilise pas de shell, mais des liaisons directes pour une inférence plus rapide et de meilleures performances.

En termes de fonctionnalités, LocalAI offre une large gamme d’options, parmi lesquelles :

  • La génération de texte avec les modèles GPT (comme llama.cpp ou gpt4all.cpp).
  • La conversion de texte en audio.
  • La transcription audio en texte avec whisper.cpp.
  • La génération d’images avec Stable Diffusion.
  • Les dernières fonctionnalités d’OpenAI récemment ajoutées comme l’API Vision par exemple.
  • La génération d’embeddings pour les bases de données vectorielles.
  • Les grammaires contraintes.
  • Le téléchargement de modèles directement à partir de Huggingface.

LocalAI est bien sûr un projet communautaire donc n’hésitez pas si vous souhaitez vous impliquer !

Pour commencer rapidement avec LocalAI, vous pouvez consulter leur guide Getting Started qui décrit les différentes méthodes d’installation et les exigences matérielles ou aller consulter les guides de la communauté. Je vous ferais aussi probablement un tutoriel prochainement si mon emploi du temps me le permet.

LocalAI est disponible sous forme d’image conteneur et de binaire, compatible avec divers moteurs de conteneurs tels que Docker, Podman et Kubernetes. Les images de conteneurs sont publiées sur quay.io et Docker Hub, et les binaires peuvent être téléchargés à partir de GitHub.

Concernant les exigences matérielles, ça varie en fonction de la taille du modèle et de la méthode de quantification utilisée mais pour choper quelques repères de performance avec différents backends, comme llama.cpp, vous pouvez consulter ce lien.

Maintenant pour en savoir plus, vous pouvez explorer le site localai.io. Vous y trouverez de nombreuses informations et des exemples d’utilisation pour vous aider à tirer le meilleur parti de LocalAI.

Merci à Lorenper

Proton Pass enterre les mots de passe grâce à cette nouvelle fonctionnalité

21 mars 2024 à 12:30

proton pass

Après plusieurs de ses rivaux, Proton s'ouvre enfin aux passkeys (clés d'accès), qui ont pour ambition de remplacer les mots de passe. À l'image de ses autres initiatives, Proton précise que sa prise en charge des passkeys couvre toutes ses formules, y compris l'offre gratuite, et respecte les principes de l'open source.

Proton Pass enterre les mots de passe grâce à cette nouvelle fonctionnalité

21 mars 2024 à 12:30

proton pass

Après plusieurs de ses rivaux, Proton s'ouvre enfin aux passkeys (clés d'accès), qui ont pour ambition de remplacer les mots de passe. À l'image de ses autres initiatives, Proton précise que sa prise en charge des passkeys couvre toutes ses formules, y compris l'offre gratuite, et respecte les principes de l'open source.

Jan – Le « ChatGPT » local et open source à installer sur votre machine

Par : Korben
23 mars 2024 à 09:00

Afin de rendre l’IA accessible à tous, y compris gratuitement puisque la plupart des modèles fonctionnent sur un système open source, une équipe de développeurs talentueux a créé Jan un outil pour les développeurs et les utilisateurs souhaitant profite d’une alternative à ChatGPT, totalement indépendante, fonctionnant hors ligne, open source et libre.

Il faut donc voir Jan comme un client de chat qui permet de télécharger des modèles comme Trinity, Mistral, Llama, OpenChat…etc. et de les faire tourner 100% hors ligne. Comme ça, pas de fuite de conversations privées ni de réutilisation de vos données pour entrainer de nouvelles IA. Et si comme moi, vous êtes accro à l’IA d’OpenAI, vous pourrez toujours y ajouter votre clé API et discuter avec ChatGPT (au tarif fixé par OpenAI évidemment).

Jan fonctionne sous Linux (Appimage et .deb dispo), sous Windows et macOS (Intel / Silicon) et propose une prise en charge des modèles open source tels que GGUF via llama.cpp, TensorRT via TensorRT-LLM ou des API externes. Jan utilise également le moteur d’inférence Nitro, des mêmes développeurs, qui se veut être rapide et léger.

Je teste ici le modèle Trinity 1.2 7B Q4 :

Et ici un modèle spécialisé en code Python nommé Wizard Coder Python 13B Q5.

Un truc cool avec Jan c’est que toutes les conversations sont conservées sur votre disque au format JSON, donc si le coeur vous en dit, vous pourrez ensuite les exploiter comme bon vous semble dans vos outils.

Jan propose également un serveur REST qui permet d’interroger via une API compatible OpenAI n’importe quel modèle que vous y feriez tourner. Ça permet de brancher vos outils ou vos scripts directement sur le LLM ouvert de votre choix.

Dans la lignée de Ollama ou LM Studio, Jan rempli ses promesses et vous permettra de vous éclater avec l’IA (abus de langage, je sais…) sans mettre en péril vos données personnelles.

Pour en savoir plus, rendez-vous sur le site de Jan ou sur leur page Github pour les sources et la doc.

Merci à Lorenper

StickerBaker – Créez des stickers IA personnalisés en quelques clics

Par : Korben
2 avril 2024 à 09:00

Vous aimez créer des stickers pour épater vos amis sur les réseaux sociaux ? Mais vous en avez marre de passer des heures sur Photoshop pour un résultat pas toujours au top ? J’ai ce qu’il vous faut !

Le site web StickerBaker est une vraie petite pépite pour générer des stickers personnalisés en quelques clics grâce à l’intelligence artificielle.

Concrètement, vous uploadez une photo de votre trombine, vous entrez une petite description façon prompt et bim, l’IA vous génère un sticker sur-mesure avec un rendu digne des plus grands graphistes. Pas besoin d’être un crack en dessin ou en retouche d’image, StickerBaker s’occupe de tout !

Mais alors StickerBaker, ça peut servir à quoi concrètement ? Et bien comme je le disais, créer des stickers complètement barrés à partir de vos photos pour amuser la galerie et mettre l’ambiance dans la conversation WhatsApp du jeudi soir ! Mais ça peut aussi permettre à des artistes, graphistes ou même des marques de prototyper rapidement des designs de stickers avant une prod plus poussée. Plutôt que de partir d’une feuille blanche, autant utiliser l’IA pour générer des premiers jets et itérer à partir de là. Ça peut faire gagner un temps fou.

Sous le capot, le site utilise le modèle Albedo XL et des techniques de machine learning comme les LoRA (Learning Rate Adaptation) pour comprendre votre prompt et générer un visuel qui déchire. Les plus geeks d’entre vous apprécieront les performances de l’engin : un sticker généré en 10 secondes max grâce aux cartes graphiques Nvidia A40. Ça envoie du lourd !

Et le must du must, c’est que StickerBaker est un projet open source, le code est dispo sur GitHub. Ça veut dire que la communauté peut mettre la main à la pâte pour améliorer l’outil. Vous pouvez par exemple bidouiller le code pour modifier les styles de stickers générés. Un vrai bonheur pour les devs qui veulent comprendre comment ça marche derrière.

Autre bon point, vos photos sont supprimées direct après le traitement. Pas de stockage chelou des données ou d’utilisations douteuses derrière, StickerBaker est clean de ce côté là. C’est toujours appréciable de nos jours.

Après, faut pas se leurrer, on est encore loin d’une app grand public. L’interface est rudimentaire et il faut un minimum biberonné à l’anglais et à l’univers des IA générative pour pas être largué. Mais c’est un premier pas encourageant vers la démocratisation de ces technologies.

Au final, StickerBaker c’est une chouette démo techno qui montre tout le potentiel de l’IA générative appliquée au domaine des stickers et du graphisme. Le projet n’en est qu’à ses débuts mais mérite clairement d’être suivi de près. Ça pourrait bien révolutionner notre manière de créer des visuels à l’avenir, qui sait ? En tout cas, moi j’ai hâte de voir les prochaines évolutions de ce genre d’outils !

Merci à Lorenper pour l’info.

FFmpeg vs Microsoft – Le choc

Par : Korben
4 avril 2024 à 12:22

Figurez-vous que le géant Microsoft, oui oui, le monstre de Redmond, se retrouve à genoux devant la communauté open source de FFmpeg.

Et pourquoi donc ? Parce que ces satanés codecs multimédias leur donnent du fil à retordre !

Mais attention, ne croyez pas que Microsoft va gentiment demander de l’aide comme tout le monde. Non non non, eux ils exigent, ils ordonnent, ils veulent que les petites mains de FFmpeg réparent illico presto les bugs de leur précieux produit Teams. Bah oui, faut pas déconner, c’est pour un lancement imminent et les clients râlent !

Sauf que voilà, les gars de FFmpeg ils ont pas trop apprécié le ton. Ils sont là, tranquilles, à développer leur truc open source pour le bien de l’humanité, et là Microsoft débarque en mode « Eho les mecs, faudrait voir à bosser un peu plus vite là, on a besoin de vous là, maintenant, tout de suite ». Super l’ambiance.

Alors ok, Microsoft a daigné proposer quelques milliers de dollars pour les dédommager. Mais bon, les développeurs FFmpeg ont un peu de fierté quand même et souhaitent un vrai contrat de support sur le long terme, pas une aumône ponctuelle balancée comme on jette un os à un chien.

Et là, c’est le choc des cultures mes amis ! D’un côté Microsoft, habitué à régner en maître sur son petit monde propriétaire, à traiter les développeurs comme de la chair à code. De l’autre, la communauté open source, des passionnés qui bouffent du codec matin midi et soir, qui ont la vidéo dans le sang et le streaming dans les veines.

Microsoft fait moins le malin maintenant puisqu’ils réalisent que leur précieux Teams, ça marche pas terrible sans FFmpeg et que leurs armées de développeurs maison, n’y connaissent pas grand chose en codecs multimédia. Et surtout que la communauté open source, bah elle a pas trop envie de se faire exploiter comme ça.

Moralité de l’histoire : faut pas prendre les gars de FFmpeg pour des poires. Ils ont beau être « open », ils ont leur dignité et Microsoft va devoir apprendre à respecter ça, à collaborer d’égal à égal, à lâcher des billets et des contrats de support au lieu de jouer au petit chef.

Parce que sinon, Teams risque de sonner un peu creux sans codecs qui fonctionnent. Et là, ça va être dur d’expliquer aux clients que la visio ça sera en version mime, parce que Microsoft a pas voulu mettre la main au portefeuille pour avoir de l’audio qui marchent.

Et, si vous voulez en savoir plus sur ce choc des titans, foncez sur https://sopuli.xyz/post/11143769 , vous n’allez pas être déçu du voyage !

Microsoft va participer à l’Open Source Summit 2024 : pourquoi ?

11 avril 2024 à 17:25

Dans quelques jours, Microsoft va participer à l'Open Source Summit 2024, mais pourquoi ? Bien que cela puisse surprendre, sachez qu'au final, c'est plutôt évident et cohérent.

L'Open Source Summit North America est un événement organisé par la Fondation Linux et l'édition 2024 se déroulera du 16 au 18 avril prochain, à Seattle, aux États-Unis. Microsoft va participer à cet événement mondial, tout en étant un sponsor "Platinum", au même titre que Docker et Red Hat. D'ailleurs, au passage, AWS et Google sont des sponsors "Diamond" de cet événement.

Bien que Microsoft soit toujours associé à une étiquette d'"éditeur de solutions propriétaires", notamment parce que son système d'exploitation Windows est un OS propriétaire, la position de l'entreprise américaine a évoluée depuis environ 10 ans. Depuis 2014 et l'arrivée en Satya Nadella en tant que Directeur général, pour être plus précis. Si Microsoft a commencé à adopter l'open source dans ses activités principales et à participer à différents projets, c'est grâce à lui.

Microsoft est impliqué dans de nombreux projets Open Source

À l'occasion de sa participation à l'Open Source Summit, Microsoft discutera de ses contributions à la communauté open source. Aujourd'hui, Microsoft se félicite de participer au développement de Linux, à des langages de programmation tels que PHP, Python et Node.js, mais aussi à PostgreSQL ou encore à ses propres solutions open source comme .NET Core, Visual Studio Code et TypeScript.

"En outre, l'open source est au cœur de notre stratégie produit et constitue un élément fondamental de notre culture. Aujourd'hui, plus de 60 000 employés de Microsoft utilisent GitHub et nous gérons plus de 14 000 dépôts publics couvrant tout, des meilleures pratiques et de l'ensemble de nos systèmes de documentation aux projets innovants tels que PowerTools et PowerShell.", peut-on lire sur le site de Microsoft.

La firme de Redmond partagera également ses meilleures pratiques pour l'utilisation des technologies open source et les tendances émergentes dans ce domaine. D'ailleurs, en interne, Microsoft a eu équipe en charge de veiller sur la bonne utilisation des logiciels libres : "Le Microsoft Open Source Programs Office (OSPO) veille à ce que nous utilisions correctement les logiciels libres, à ce que nous fournissions des solutions sécurisées à nos clients et à ce que nous participions de manière authentique aux communautés de logiciels libres."

Pour Microsoft, l'intérêt est aussi d'assurer une compatibilité et une prise en charge avec ses solutions telles que Microsoft Intune ou encore le Cloud Azure au sein duquel les organisations peuvent exécuter des machines virtuelles sous Linux. "Microsoft prend en charge les principales distributions Linux et collabore étroitement avec Red Hat, SUSE, Canonical et l'ensemble de la communauté Linux.", précise Microsoft.

The post Microsoft va participer à l’Open Source Summit 2024 : pourquoi ? first appeared on IT-Connect.

Whomane – L’IA portable & open source

Par : Korben
13 avril 2024 à 09:00

Accrochez-vous bien à vos slips, parce que je vais vous parler d’un truc de ouf qui risque bien de révolutionner le monde de l’IA portable : Whomane ! Ouais, vous avez bien lu, c’est un projet open source de wearable avec une caméra intégrée.

Whomane, c’est un peu le rêve de tout maker qui se respecte : un appareil portatif bourré d’IA et de capteurs, le tout en mode open source pour pouvoir bidouiller et créer ses propres applications. La vision derrière ce projet, c’est de rendre l’IA embarquée accessible à tous, que ce soit pour l’utiliser ou pour développer dessus.

Concrètement, Whomane se présente sous la forme d’un petit boîtier à clipser sur soi, un peu comme une broche hi-tech. Mais attention, pas n’importe quelle broche ! Celle-là embarque une caméra, un micro et du logiciel capable d’analyser votre environnement en temps réel. Et le tout est propulsé par un raspberry pi Zero capable de faire tourner des modèles de deep learning directement sur l’appareil.

Maintenant, vous vous demandez sûrement ce qu’on peut bien faire avec un truc pareil ? Eh bien, les possibilités sont quasi infinies ! Imaginez par exemple une application qui reconnaît les visages et affiche des infos sur les gens que vous croisez. Ou encore un assistant personnel qui analyse vos conversations et vous souffle des réponses. Vous voyez le genre ?

Mais Whomane, c’est aussi et surtout une plateforme ouverte et collaborative. Le code source est dispo sur GitHub, avec une licence GPL pour les projets open source et une licence commerciale pour ceux qui veulent l’intégrer dans des produits fermés.

Alors okay, je vous vois venir avec vos grands chevaux : « Oui mais la vie privée dans tout ça ? C’est Big Brother ton truc ! » Alors oui, évidemment, dès qu’on parle de caméra et d’IA, ça soulève des questions. Mais justement, l’avantage d’un projet open source comme Whomane, c’est la transparence. Tout est là, à disposition de la communauté pour auditer le code et s’assurer qu’il n’y a pas de dérive. Et puis bien sûr, il faudra toujours veiller à respecter les lois et réglementations en vigueur.

Bref, vous l’aurez compris, Whomane c’est le genre de projet geek et utopiste qui fait vibrer la corde du bidouilleur qui sommeille en nous. Après, on ne va pas se mentir, c’est encore un prototype avec sûrement plein de bugs et de limitations. Mais quand bien même, qu’est-ce que c’est excitant de voir émerger ce genre d’initiatives !

Graphite – l’éditeur graphique open source qui va bousculer la création graphique

Par : Korben
14 avril 2024 à 09:00

Vous êtes accros aux logiciels de retouche photo et de création graphique mais vous en avez marre de vider votre compte en banque pour des licences hors de prix ? Et si je vous disais qu’une solution très sympa open source et totalement gratuite était en train de voir le jour ? Laissez-moi vous présenter Graphite, un projet de dingue porté par une communauté de développeurs et d’artistes passionnés.

Alors, qu’est-ce que c’est que ce truc ? En gros, le but c’est de pondre une appli de graphics editing nouvelle génération qui coche toutes les cases : retouche photo, dessin vectoriel, peinture numérique, PAO, compositing, motion design… Rien que ça ! On est clairement sur un couteau suisse de la création 2D.

Bon, je vous vois venir avec vos gros sabots : « Ouais mais c’est encore un énième logiciel qui va essayer de faire comme Photoshop et cie mais en moins bien ! » Eh bah non, justement ! L’idée c’est pas de copier bêtement ce qui existe déjà mais d’innover en s’inspirant de ce qui se fait de mieux dans d’autres domaines, comme la 3D.

Le truc de malade dans Graphite, c’est qu’il est construit autour d’un node graph, une sorte de « compo visuel » où on branche des nœuds entre eux pour manipuler nos calques et leur appliquer des filtres et des effets à l’infini. Ça permet de garder la main à chaque étape et de pouvoir revenir en arrière sans perdre en qualité, ce qui est juste im-po-ssible dans les logiciels de retouche photo traditionnels. On appelle ça du non-destructif.

Autre point fort : Graphite gère aussi bien les images matricielles (bitmap) que vectorielles, et le tout avec une qualité d’affichage toujours au taquet, même si on zoom dans tous les sens ! Plus besoin d’avoir 36 000 applis et de jongler entre elles. C’est un peu le mix parfait entre le pixel et le vecteur (avec un soupçon de génération procédurale en plus).

Bon, alors, il sort quand ce petit bijou ? Figurez-vous que Graphite est déjà dispo en version alpha et qu’on peut le tester directement dans son navigateur. Pas besoin d’install, ça tourne full JavaScript côté client. Évidemment, à ce stade, c’est encore un peu brut de décoffrage et y’a pas mal de features prévues sur la roadmap qui ne sont pas encore implémentées. Mais ça donne déjà un bon aperçu du potentiel de la bête !

Et en parlant de potentiel, vous allez voir que les possibilités de création sont assez dingues. Vous pouvez par exemple générer des centaines de cercles de façon procédurale pour obtenir des motifs super stylés. Ou encore créer des structures complexes qui s’adaptent automatiquement, comme ces guirlandes de Noël dont les ampoules se replacent toutes seules quand on déforme le chemin. Magique !

Donc, si vous voulez voir ce projet de dingue prendre son envol, n’hésitez pas à mettre la main au portefeuille et à faire un don. C’est vous qui voyez, mais je pense que ça en vaut carrément le coup ! En tout cas, moi, j’ai déjà mis une étoile sur le repo Github 😉

Aujourd’hui — 19 avril 2024Flux principal

Llama 3 – l’IA open source de Meta qui rivalise avec les meilleurs modèles

Par : Korben
18 avril 2024 à 20:44

Accrochez-vous à vos claviers, car Meta vient de lâcher dans la nature une nouvelle créature nommée Llama 3. Oui, vous avez bien compris, je parle de la dernière génération de modèles de langage « open source » (ou presque, on y reviendra) de la société de Mark Zuckerberg.

Si vous pensiez que ChatGPT, Claude ou Mistral étaient les rois de la savane, attendez de voir débarquer ces nouveaux lamas survitaminés ! Avec des versions allant de 8 à 400 milliards de paramètres (pour les non-initiés, disons que c’est l’équivalent de leur QI 🧠), les Llama 3 atomisent littéralement la concurrence sur de nombreux benchmarks standards, que ce soit en termes de connaissances générales, de compréhension, de maths, de raisonnement ou de génération de code.

Mais qu’est-ce qui fait de Llama 3 un tel monstre par rapport à son petit frère Llama 2 ? Déjà, un entraînement de folie à base de 15 000 milliards de tokens (7 fois plus que Llama 2 !) pompé depuis le web (!!), avec beaucoup plus de code et de données non-anglaises pour préparer le terrain à une IA multilingue. Ajoutez à ça des techniques de parallélisation à gogo pendant la phase de pré-entraînement, et vous obtenez des lamas dopés qui apprennent à une vitesse supersonique.

Et ce n’est pas tout ! Les Llama 3 ont suivi un programme d’éducation complet, avec du fine-tuning à base de rejection sampling, de PPO et de DPO (si vous ne connaissez pas ces acronymes, ne vous inquiétez pas, moi non plus 😅). Résultat : des modèles ultra-fiables qui refusent rarement une tâche, font preuve d’un alignement exemplaire et sont capables de suivre des instructions complexes sans sourciller. Bref, ce sont des cracks en raisonnement et en génération de code !

Mais au fait, comment on met la main sur ces petites bêtes ? Facile, il suffit de se rendre sur le site de Meta AI et de les télécharger ! Enfin, quand je dis facile… Les Llama 3 sont bien « open source », mais sous une licence maison qui impose quelques restrictions, notamment pour les entreprises de plus de 700 millions d’utilisateurs mensuels (suivez mon regard vers Mountain View et Redmond 👀). Mais bon, rien ne vous empêche de vous amuser avec si vous n’êtes pas une multinationale !

Et en parlant de s’amuser, sachez que Meta a aussi concocté un chatbot maison (pas encore dispo en France) baptisé sobrement « Meta AI« , disponible sur le web (www.meta.ai) et directement intégré dans les barres de recherche de Facebook, Instagram, WhatsApp et Messenger. Sous le capot, c’est bien sûr du pur Llama 3, avec en prime un modèle de génération d’images nommé « Meta Imagine« .

Au programme, de la discussion, de la recherche web via Bing et Google, et bien sûr de la création d’images en un clin d’œil. Seul hic, pas encore de mode multi-modal façon ChatGPT pour uploader vos propres documents ou images, mais ça ne saurait tarder !

Alors, que penser de ce nouveau coup d’éclat de Meta dans la bataille des IA ?

Personnellement, je trouve ça plutôt chouette de voir un poids lourd du Net jouer le jeu de l’open source (ou approchant) et mettre à disposition de tous des modèles de cette qualité. Bien sûr, on peut toujours discuter des arrière-pensées de Zuck et sa volonté de garder un œil sur ce qu’on fabrique avec ses lamas. Mais au final, c’est toujours ça de pris sur les GAFAM et leurs vilains modèles propriétaires !

Allez, je vous laisse, j’ai un lama à aller dompter moi ! 🦙

Et n’oubliez pas, comme le dirait l’autre, « le monde appartient à ceux qui codent tôt ». Ou tard, c’est selon.

Source

❌
❌