Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Fabric – Un framework open source pour travailler main dans la main avec l’IA

Depuis que l’IA a débarqué dans nos vies, il est maintenant possible de lui déléguer une grande partie de nos tâches fastidieuses et chronophages, ce qui nous permet de nous concentrer sur l’essentiel. Des outils comme ChatGPT ont évidemment démocratisé l’accès à cette technologie, mais ses capacités vont bien au-delà d’un simple agent conversationnel.

En effet, l’IA peut devenir un véritable assistant personnel pour booster à la fois notre créativité et notre productivité. Perso, je ne peux plus m’en passer, et que vous soyez développeur, designer, écrivain ou entrepreneur, il existe de nombreuses façons de l’intégrer dans vos workflows. Génération de code, création de visuels, rédaction et correction de texte, analyse de données, relecture de contrats, automatisation de tâches… La liste est infinie pour peu que vous ayez un peu d’imagination.

C’est là qu’entre en scène le projet open-source Fabric qui permet justement de créer des workflows basés sur l’IA totalement sur-mesure en combinant différents modèles et différentes APIs. Comme ça vous pourrez concevoir vos propres assistants adaptés à vos propres besoins.

Concrètement, Fabric fonctionne comme un framework avec différents composants réutilisables :

  • Des Patterns qui sont des templates de prompts répondant à un besoin précis (ex : résumer un article, extraire les idées clés d’une vidéo, etc).
  • Des Stitches qui permettent d’enchaîner plusieurs Patterns pour créer des workflows avancés.
  • Un serveur central appelé Mill qui héberge et sert les Patterns.
  • Des apps clientes appelées Looms qui invoquent les Patterns via des APIs.

Plutôt que d’utiliser des services IA fermés, Fabric vous donne le contrôle total sur vos workflows. Comme ça, vous pouvez héberger vous-même les différents composants et garder vos données en local. Le tout étant bien sûr basé sur des standards ouverts et interopérables.

L’idée pour les gens derrière Fabric, c’est de rendre l’intégration de l’IA aussi simple que l’utilisation de commandes Unix. Par exemple, pour résumer le contenu d’une page web avec l’IA, il vous suffit de chaîner les deux commandes suivantes :

curl https://example.com | fabric --pattern summarize

Vous pouvez même créer des aliases pour vos patterns les plus utilisés. Par exemple pour analyser un article :

alias analyze="fabric --pattern analyze" cat article.txt | analyze

Bien sûr, tout ceci nécessite un peu de pratique et de changements dans vos habitudes de travail mais une fois les bons réflexes pris, le gain de temps sera considérable.

Certains craignent que l’IA nous mette tous au chomage mais je pense au contraire qu’elle va surtout nous aider à torcher rapidement les tâches ingrates pour nous permettre d’être plus créatifs et de bosser sur les sujets de fond avec plus de valeur ajoutée.

Si ça vous dit d’essayer Fabric, la doc est ici.

SFR prépare la mort des box télé

Uniquement compatible avec les téléviseurs Samsung jusque-là, l'application SFR TV s'étend aux appareils Hisense sous Android TV. Tous les opérateurs français semblent progressivement avancer vers un monde sans décodeur physique.

La GeForce RTX 5080 sera commercialisée avant la RTX 5090 (rumeur)

GeForce RTX 5080 ?Après des rumeurs annonçant uniquement la GeForce RTX 5090 cette année, de nouvelles indiscrétions affirment le contraire. Mieux, la GeForce RTX 5080 est censée débarquer avant la RTX 5090. L’information est signée par Kopite7kimi l’une des sources les plus fiables concernant Nvidia. Elle est intéressante car elle montre que rien ne semble être gravé dans …

Cet article La GeForce RTX 5080 sera commercialisée avant la RTX 5090 (rumeur) a été publié en premier par GinjFo.

Skyvern – Plus besoin de vous prendre la tête pour automatiser une tâche web (scraping, saisie de formulaire…etc)

Qui n’a jamais rêvé d’automatiser n’importe quelle tâche web peu importe sa complexité, pour évidemment se la couler douce ?

C’est précisément ce que vous propose Skyvern, un outil qui allie intelligence artificielle et vision par ordinateur pour interagir avec les sites web comme vous le feriez vous-même.

Plus besoin de scripts qui pètent à tout bout de champs, de XPath qui changent tous les 4 matins et de parseurs de DOM capricieux puisque Skyvern est capable de comprendre visuellement ce qu’il y a sur une page web et ainsi générer un plan d’interaction en temps réel.

Cela signifie que Skyvern est capable d’agir sur des sites qu’il n’a jamais vus auparavant, le tout sans avoir besoin de code spécifique. Il analyse les éléments visuels de la page pour déterminer les actions nécessaires pour répondre à votre demande, ce qui en fait un outil immunisé contre les changements de design de sites, contrairement à votre bon vieux scrapper.

Grâce aux modèles de langage (LLM) qu’il embarque, il est capable de « raisonner » donc par exemple, de remplir un formulaire qui vous pose plein de questions, ou de comparer des produits.

Vous voulez voir Skyvern à l’œuvre ? Voici un petit aperçu en vidéo :

Sous le capot, Skyvern s’inspire des architectures d’agents autonomes comme BabyAGI et AutoGPT, avec une couche d’automatisation web en plus, basée sur des outils comme Playwright.

Et comme d’hab, vous pouvez installer la bête sur votre machine et commencer à automatiser tout votre boulot en quelques commandes.

Vous devrez donc avoir Python 3.11, puis installez poetry :

brew install poetry

Ensuite, clonez le dépôt git et aller dans le dossier :

git clone https://github.com/Skyvern-AI/skyvern.git

cd skyvern

Puis lancez le script d’install :

./setup.sh

Une fois que c’est fini, démarrez le serveur :

./run_skyvern.sh

Et voilà, vous pouvez maintenant envoyer des requêtes au serveur, mais ne vous inquiétez pas, y’a une interface graphique :). Pour la lancer :

./run_ui.sh

Ouvrez ensuite http://localhost:8501 dans votre navigateur pour y accéder. Vous verrez alors ce genre d’interface. A vous de remplir les champs qui vont bien pour créer votre première automatisation.

En commande cURL, ça ressemble à ça (pensez bien à mettre votre clé API locale dans la commande) :

curl -X POST -H 'Content-Type: application/json' -H 'x-api-key: {Votre clé API locale}' -d '{
    "url": "https://www.geico.com",
    "webhook_callback_url": "",
    "navigation_goal": "Naviguer sur le site Web jusqu\'à ce que vous obteniez un devis d\'assurance automobile. Ne pas générer de devis d\'assurance habitation. Si cette page contient un devis d\'assurance automobile, considérez l\'objectif atteint",
    "data_extraction_goal": "Extraire toutes les informations de devis au format JSON, y compris le montant de la prime et le délai du devis",
    "navigation_payload": "{Vos données ici}",
    "proxy_location": "NONE"
}' http://0.0.0.0:8000/api/v1/tasks

Vous voyez, on peut vraiment faire des trucs pointu. Et le petit plus, c’est qu’on peut voir toutes les interactions puisque Skyvern enregistre chaque action avec une capture d’écran correspondante pour vous permettre de débugger facilement vos workflows.

Bref, pour en savoir plus, c’est sur le Github. Et sur leur site officiel.

Ollama 0.133 – Enfin une gestion en parallèle des LLMs

Vous avez vu la dernière version d’Ollama ? Cette version 0.133 a l’air plutôt pas mal. Bon, je sais, je sais, ça faisait un bail que je n’avais pas parlé des mises à jour de cet outil génial pour faire tourner des modèles d’IA en local, mais là, impossible de passer à côté !

Déjà, on a le droit à des fonctionnalités expérimentales de parallélisme (je sais pas si c’est comme ça qu’on dit en français…) qui vont vous permettre d’optimiser grave vos applis d’IA. Il y a donc 2 nouvelles variables d’environnement qui débarquent : OLLAMA_NUM_PARALLEL et OLLAMA_MAX_LOADED_MODELS. Avec ça, vous allez pouvoir gérer plusieurs modèles et requêtes en même temps, comme des pros ! 😎

Par exemple, si vous avez un modèle pour compléter votre code avec une IA de 6 milliards de paramètres comme Llama 3, et en même temps vous demandez à Phi 3 Mini et ses 3,8 milliards de paramètres comment architecturer votre projet et bien maintenant, c’est possible ! Comme ça, plus besoin d’attendre que l’un ait fini pour lancer l’autre puisque tout ça va se lancer en parallèle.

Alors bien sûr, c’est encore expérimental car il n’y a pas encore de priorité, et on est limité par la mémoire dispo sur notre machine. D’ailleurs, il vaut mieux avoir 16 Go de RAM et un CPU 4 cœurs pour que ça fonctionne correctement.

Il y a aussi plein de nouveaux modèles d’IA compatibles avec Ollama maintenant. Des gros calibres comme Llama 3, le meilleur modèle open-source à ce jour, mais aussi des plus légers et spécialisés comme Phi 3 Mini, Moondream pour la vision par ordinateur sur des appareils à la marge, ou encore Dolphin Llama 3 qui répond sans censure. Et le premier modèle Qwen (c’est chinois) de plus de 100 milliards de paramètres, Qwen 110B, est également de la partie. Ça en fait des compagnons pour nous assister dans nos projets !

Ensuite, imaginons que vous vouliez tester le parallélisme. Vous devez simplement lancer votre serveur Ollama avec les fameuses variables d’environnement.

Voici comment procéder :

Définir les variables sur Mac :

  • Utilisez launchctl pour définir chaque variable. Par exemple, pour permettre à Ollama de gérer trois requêtes simultanément, tapez dans le terminal :
    launchctl setenv OLLAMA_NUM_PARALLEL 3
  • Pour définir le nombre maximal de modèles chargés simultanément à deux, utilisez :
    launchctl setenv OLLAMA_MAX_LOADED_MODELS 2
  • Après avoir défini les variables, redémarrez l’application Ollama.

Configurer les variables sur Linux :

    • Éditez le service systemd d’Ollama avec systemctl edit ollama.service, ce qui ouvrira un éditeur de texte.
    • Ajoutez les lignes suivantes sous la section [Service] :
      [Service] Environment="OLLAMA_NUM_PARALLEL=3" Environment="OLLAMA_MAX_LOADED_MODELS=2"
    • Sauvegardez et quittez l’éditeur. Rechargez systemd et redémarrez Ollama avec :
      systemctl daemon-reload systemctl restart ollama

    Paramétrer les variables sur Windows :

      • Quittez l’application Ollama via la barre des tâches.
      • Accédez aux variables d’environnement système via le panneau de configuration et créez ou modifiez les variables pour votre compte utilisateur :
        • Pour OLLAMA_NUM_PARALLEL, ajoutez ou modifiez la variable à 3.
        • Pour OLLAMA_MAX_LOADED_MODELS, ajustez la variable à 2.
      • Appliquez les changements et redémarrez Ollama à partir d’une nouvelle fenêtre de terminal.

      Là, ça veut dire que vous pourrez envoyer 3 requêtes en parallèle sur le même modèle, et charger jusqu’à 2 modèles différents si votre RAM de 16 Go minimum le permet.

      Bon, et une fois que c’est lancé, vous pourrez envoyer des requêtes à tour de bras. Un coup à Llama 3 pour qu’il vous aide à générer un résumé de texte hyper optimisé, un autre à Phi 3 Mini pour résumer un article scientifique, tout ça pendant que Moondream analyse une image pour de la détection d’objets.

      Allez, je vous laisse tranquille, faut que j’aille optimiser mes scripts maintenant.

      Ollama 0.133 est dispo ici.

      Source

      Bercy part en chasse aux crypto-fraudeurs grâce à l’IA

      Attention, arnaqueurs et fraudeurs de crypto en tout genre, Big Brother Bercy vous surveille ! Le ministère de l’Économie s’apprête à dégainer un nouveau texte de loi antifraude, avec un focus particulier sur ces fameux crypto-actifs qui font tant fantasmer.

      Le problème, c’est que visiblement, pas mal de petits malins se croient plus intelligents que l’administration fiscale. Sur les quelques 5 millions de Français qui joueraient avec des cryptos selon la BCE, seuls 150 000 auraient daigné le déclarer au fisc. Oups, il y a comme qui dirait un petit décalage… Selon Thomas Cazenave, ministre délégué chargé des Comptes publics, environ 400 millions d’euros de fraudes ont été constatées rien que pour le dispositif MaPrimeRénov, destiné à encourager la rénovation énergétique des logements.

      Du coup, Bercy sort l’artillerie lourde et compte bien aligner les contrôles sur les cryptos avec ce qui se fait déjà pour les comptes à l’étranger. Au programme : des délais de reprise rallongés, des contrôles renforcés et des sanctions qui vont faire mal au portefeuille. Fini de jouer au plus malin avec le fisc !

      Et pour traquer les tricheurs, Bercy mise sur un allié de choix : l’intelligence artificielle ! Comme l’explique cet article de Decrypt, des chercheurs ont prouvé qu’un modèle d’IA bien entraîné pouvait rapidement scanner l’immense blockchain Bitcoin et y détecter des schémas de blanchiment d’argent. Une aubaine pour les services fiscaux !

      Concrètement, l’IA va apprendre à reconnaître les transactions légitimes et louches, puis suivre les liens entre les portefeuilles suspects pour mettre à jour des réseaux de fraude. Une analyse de masse qui serait impossible humainement vu le volume de données de la blockchain.

      Évidemment, rien ne dit que Bercy utilisera exactement cette technique, mais une chose est sûre : les geeks de Bercy bossent dur pour ne rien laisser passer. Personnellement, j’espère juste que leur algo de traque aux cryptos frauduleuses sera un poil plus efficace que celui utilisé pour détecter les piscines non déclarées. Parce que pour le coup, c’était un beau ratage… Un nombre incalculable de fausses piscines détectées, des tonnes de réclamations, bref la lose.

      Mais bon, gardons espoir. Peut-être que Bercy va nous pondre un modèle d’IA révolutionnaire capable de déceler la moindre petite fraude crypto, tout en épargnant les honnêtes citoyens (J’ai des doutes). Qui sait, on aura peut-être même droit à un petit chatbot sympa façon ChatGPT qui nous guidera gentiment dans nos déclarations de cryptos. « Bonjour, je suis Bercy-GPT, votre assistant fiscal bienveillant. Déclarez-moi tous vos bitcoins, et promis, pas d’amende ! » Bon, j’avoue, j’ai aussi des doutes…

      En attendant, un conseil les amis : si vous avez des cryptos planqués sous le matelas numérique, c’est peut-être le moment de régulariser votre situation avant que Bercy-GPT ne vous tombe dessus. Sinon, gare aux nunchakus fiscaux de Bercy !

      Source

      Concours NVIDIA Studio STARS 2 : montez le trailer le plus épique possible et tentez de gagner près de 6 000 € de cadeaux [Sponso]

      Cet article a été réalisé en collaboration avec NVIDIA

      Monteurs et créateurs de contenus, cette seconde édition nationale du concours NVIDIA Studio STARS vous est dédiée ! Réalisez le trailer le plus épique possible et tentez de gagner l’un des PC ou GPU les plus performants du moment. Près de 6 000 euros de cadeaux, dont des produits RTX STUDIO sont mis en jeu !

      Cet article a été réalisé en collaboration avec NVIDIA

      Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

      En savoir plus

      ❌