Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Whisper Web – La reconnaissance vocale directement accessible depuis votre navigateur

Par : Korben
1 janvier 2024 à 09:00

Vous avez été impressionné par Whisper, cet outil d’OpenAI capable de transcrire en texte, n’importe quel enregistrement audio. Sauf que voilà, pas envie d’installer un modèle IA un peu lourd sur votre petite machine, qui de toute façon n’aurait pas assez de puissance pour faire tourner ça.

Mais ce n’est pas une raison pour passer à côté de ça. C’est pourquoi aujourd’hui, je vous propose de vous intéresser à Whisper Web. Il s’agit d’un portage de Whisper qui peut à partir d’un enregistrement de votre micro, d’une URL vers un fichier audio / vidéo ou d’un upload de fichier, décoder ce qui s’y raconter pour l’exporter ensuite au format texte.

Évidemment, vous pouvez choisir un modèle plus ou moins gros et activer le support multilingue pour décoder du français par exemple. Il est même possible de traduire à la volée un audio d’une langue de votre choix, vers de l’anglais. Impeccable pour faire des sous-titres facilement.

C’est idéal pour faire de la transcription d’interview, de podcast, de vidéo YouTube ou tout simplement écrire des documents à la voix.

Et le fait que ce soit accessible via un simple site web gratuit, en fait quelque chose de vraiment abordable.

À découvrir ici.

OpenAI, The New York Times, and a hypocritical blog post

10 janvier 2024 à 10:34
OpenAI is nervous. Very nervous. Their latest blog post is proof. They have realized that the ongoing lawsuit with the New York Times poses a significant threat to their entire business model. Their belief that they could freely harvest the content of the entire internet for training their AI models was, in fact, quite naive.

Install the Python OpenAI SDK on Windows and macOS

11 janvier 2024 à 10:15
2024 will most likely be the year when many admins will be faced with deploying AI systems for the first time. Once you play a little with the OpenAI API, you will begin to understand why Large Language Models (LLMs) are not just useful for chatbots. If AI companies can find a way to fund the content to train their models, we may be on the brink of a new era in IT. For many administrators, this means becoming acquainted with AIOps, a term that will become more prevalent in the upcoming year. A great way to start with AIOps is to install the OpenAI SDK on your Mac or Windows PC.

A GPT Actions example: Connect ChatGPT to Gmail

16 janvier 2024 à 12:04
A GPT is a customizable version of ChatGPT that can perform specific tasks or enhance its abilities in specialized areas. GPT Actions are like superpowers for GPTs, letting them interact with external sources and services, expanding their abilities beyond text generation. In this post, I will show you how to connect your GPT to Gmail using the Zapier AI Actions OpenAPI API. This will allow you to search your Gmail inbox, have ChatGPT summarize emails, or even send emails on your behalf.

OpenAI API example: Building a simple GPT chatbot with the Chat Completions API

18 janvier 2024 à 09:49
In a previous post, I explained how to install the Python OpenAI SDK on macOS and Windows. Today, we will expand on using the Open AI API a little further. Today we will develop a basic chatbot as an example. The primary purpose of this article is to gain an understanding of the three roles the Chat Completions endpoints offer: System, User, and Assistant.

Continue – L’extension Visual Studio Code qui code à votre place

Par : Korben
25 janvier 2024 à 09:00

Cursor est à ce jour l’éditeur de Code que je préfère, car il est basé sur Visual Studio et totalement boosté à l’IA. Cela me permet pour moi qui suis une quiche en dev, de mener à bien mes projets de conquête du monde.

Toutefois, c’est payant. Et si vous ne voulez pas lâcher un peu de thunasse, et que vous voulez payer uniquement ce que vous consommez, c’est possible dans Cursor avec une clé OpenAI, mais également en installant ce plugin open source baptisé « Continue » directement dans un bon vieux Visual Studio Code d’origine ou un JetBrains.

Concrètement, ce truc vous permet en surlignant un bout de code, de discuter avec l’IA pour mieux le comprendre, le compléter ou le corriger. Vous pouvez même apporter des modifs directement à votre code simplement en demandant ce que vous voulez en langage naturel du genre :

/edit réécrire ceci pour retourner une liste aplatie à partir d'une matrice 3x3
/edit refactoriser cela en une mise en page flex angulaire sur une seule ligne
/edit définir ici un type pour une liste de listes de dictionnaires

Continue permet aussi de générer des fichiers from scratch, c’est-à-dire de zéro ou de générer des tests unitaires, des commandes Shell ou des recherches sur StackOverflow pour en extraire uniquement le nécessaire.

Continue est compatible avec GPT-4 et GPT-3.5-turbo via l’API OpenAI. Et si vous voulez esquiver OpenAI, vous pouvez toujours la connecter sur un autre LLM en utilisant par exemple LM Studio ou Ollama.

Une fois installé, pour l’activer, il suffit de faire un CMD + M (ou ALT + M).

Amusez-vous bien et codez-moi des trucs de ouf !

ShellGPT – Boostez votre utilisation du terminal grâce

Par : Korben
26 janvier 2024 à 09:00

Je me lasse pas de tous ces petits softs qui utilisent de l’IA et qui simplifient quand même grandement la vie. Hier on a vu un plugin VS Code pour coder plus rapidement. Et aujourd’hui, je vous propose Shell GPT, un assistant personnel qui utilise ChatGPT pour vous aider à générer des commandes shell, des bouts de code et même de la documentation.

Pour l’installer, c’est easy :

pip install shell-gpt

Il faudra quand même faire un export OPENAI_API_KEYcomme d’habitude dans votre .zshrc ou .bashrc pour lui indiquer votre clé API OpenAI. Et redémarrez votre terminal pour que les modifications prennent effet.

export OPENAI_API_KEY="votre_clé_API_OpenAI"

Une fois installé, ça fait plein de trucs cool. Vous pouvez simplement exécuter la commande sgpt suivie de votre requête pour lui demander tout ce que vous voulez. Par exemple, pour rechercher les couleurs d’un arc-en-ciel, vous pouvez exécuter la commande suivante :

sgpt "quelles sont les couleurs d'un arc-en-ciel ?"

Mais vous pouvez surtout lui demander des commandes que vous ne sauriez pas construire. Par exemple :

sgpt "VOTRE DEMANDE"

Ou pour avoir une réponse plus directe avec uniquement du code, il suffit d’ajouter le paramètre –code :

sgpt --code "VOTRE DEMANDE"

Pour ceux qui veulent, vous pouvez même lancer votre demande en mode shell pour pouvoir l’exécuter de suite :

sgpt --shell "VOTRE DEMANDE"

Et pour aller encore plus loin, vous pouvez aussi le lancer en mode « chat ». S’engagera alors une discussion sur le long cours, avec possibilité de créer des fichiers, de les modifier, de lancer des commandes, etc… Remplacez NOM_SESSION par le titre à donner à votre chat, pour pouvoir ensuite y retourner en gardant le contexte.

sgpt --chat NOM_SESSION "VOTRE DEMANDE"

ShellGPT offre aussi d’autres fonctionnalités avancées, notamment le REPL mode qui permet d’interagir avec ShellGPT dans un mode interactif pour générer du code et exécuter des commandes (en appuyant sur la touche « e »

sgpt --shell --repl NOM_SESSION

Et vous pouvez aussi créer des rôles personnalisés pour personnaliser le comportement de ShellGPT dans des scénarios spécifiques, selon vos envies. Je vous invite à vous plonger dans la doc pour exploiter tout ça. Ça fait beaucoup de choses mais c’est super pratique et ça vous aidera à automatiser pas mal de choses.

Enfin, et je terminerai avec ça, il est possible d’installer une intégration dans votre shell.

sgpt --install-integration

En gros, ça va ajouter quelques lignes dans votre .bashrc ou .zshrc pour simplement en appuyant sur

CTRL + l

transformer ce que vous avez écrit dedans en commande exécutable.

Voilà, j’ai à peu pres fait le tour de cet outil merveilleux !

L’IA c’est cool mais quand c’est bien intégré dans nos outils du quotidien, c’est encore meilleur !

ShellGPT est à découvrir ici.

LM Studio: Run a local AI on your desktop or server

Par : Evi Vanoost
30 janvier 2024 à 12:11
LM Studio is a free tool that allows you to run an AI on your desktop using locally installed open-source Large Language Models (LLMs). It features a browser to search and download LLMs from Hugging Face, an in-app Chat UI, and a runtime for a local server compatible with the OpenAI API. You can use this server to set up a development environment before deploying a more extensive LLM system or even run your ChatGPT clone without sharing your corporate data with third parties.

Build your own ChatGPT app

5 février 2024 à 10:23
In my previous post on the OpenAI API, I introduced a simple chatbot that demonstrated how to interact with the API. In this post, I will take it a step further by showing you how to create your own ChatGPT app. You may be wondering why you need your own ChatGPT app when you can use the OpenAI web interface.

LiteLLM – Pour discuter avec toutes les API LLM en utilisant la syntaxe OpenAI

Par : Korben
14 février 2024 à 09:00

Si vous codez en Python autour d’API de LLM comme celle d’OpenAI, d’Anthropic ou encore de Huggingface…etc., je vous présente LiteLLM qui risque de vous faire gagner pas mal de temps.

Il s’agit d’une lib Python capable d’interagir avec tout un tas d’API en utilisant le format de celle d’OpenAI. Elle fournit une interface simple et uniformisée pour appeler ces modèles , ce qui va vous faciliter leur utilisation pour des choses comme de la génération de texte, de la traduction ou encore du chat…

Pour l’installer, rien de plus simple :

pip install litellm

Ensuite, y’a plus qu’à créer un objet LiteLLM dans votre code, en lui fournissant l’ID et le nom du modèle à utiliser. Par exemple pour vous connecter à OpenAI, le code sera le suivant :

from litellm import completion
import os

## set ENV variables
os.environ["OPENAI_API_KEY"] = "your-api-key"

response = completion(
  model="gpt-3.5-turbo", 
  messages=[{ "content": "Hello, how are you?","role": "user"}]
)

Pour Claude 2, ça sera ça :

from litellm import completion
import os

## set ENV variables
os.environ["ANTHROPIC_API_KEY"] = "your-api-key"

response = completion(
  model="claude-2", 
  messages=[{ "content": "Hello, how are you?","role": "user"}]
)

Pour utiliser Ollama, ça donnerait également ça :

from litellm import completion

response = completion(
            model="ollama/llama2", 
            messages = [{ "content": "Hello, how are you?","role": "user"}], 
            api_base="http://localhost:11434"
)

Donc pas grand-chose qui change.

Vous l’aurez donc compris, LiteLLM permet de pondre un seul et unique code, mais pour discuter avec tous les fournisseurs d’IA du moment (et les logiciels libres existants)

Y’a la possibilité d’avoir du stream sur les réponses (c’est à dire, le texte qui s’affiche au fur et à mesure), de la gestion des exceptions, du log, sans oublier du calcul de coût et l’usage que vous pouvez avoir de ces API afin de ne pas éclater votre compte en banque.

LiteLLM intègre également un proxy OpenAI pour rediriger vos requêtes vers le modèle de votre choix. Pour l’installer :

pip install 'litellm[proxy]'

Lancez ensuite le proxy avec le modèle de votre choix :

litellm --model huggingface/bigcode/starcoder

Et lui passer vos requêtes dans le code python directement :

import openai # openai v1.0.0+
client = openai.OpenAI(api_key="anything",base_url="http://0.0.0.0:8000") # set proxy to base_url
# request sent to model set on litellm proxy, `litellm --model`
response = client.chat.completions.create(model="gpt-3.5-turbo", messages = [
    {
        "role": "user",
        "content": "this is a test request, write a short poem"
    }
])

print(response)

Si LiteLLM vous intéresse, vous trouverez toutes les infos sur la page Github ainsi que les endpoints ici.

ChatGPT : des hackers russes, chinois et nord-coréens se servent du chatbot IA, alerte Microsoft

15 février 2024 à 05:30

Microsoft et OpenAI, la maison mère de ChatGPT, révèlent que des hackers étatiques chinois, russes, nord-coréens et iraniens ont utilisés ChatGPT pour diverses opérations de phishing et renseignement.

Free access to an enhanced ChatGPT 4 for 4sysops members

19 février 2024 à 14:35
Members can now enjoy free access to 4sysops AI powered by ChatGPT 4 (GPT-4 Turbo). 4sysops AI is a continuously updated and does not have a cutoff date of April 2023 like ChatGPT. As you may be aware, the free version of ChatGPT only supports ChatGPT 3.5, while the paid membership of ChatGPT Plus, which costs $20 per month, provides access to ChatGPT 4 (GPT-4). 4sysops members can now access the Turbo version of ChatGPT 4 for free, which is faster than the standard ChatGPT 4 available with the Plus subscription.

Copilot passe à GPT-4 Turbo gratuit pour tous sur Windows 11

Par : Korben
13 mars 2024 à 08:16

Vous en avez entendu parler, peut-être même que vous l’avez déjà testé, mais cette news devrait quand même vous intéresser si vous faites partie des chanceux qui ont accès à Copilot, l’assistant IA de Microsoft. Car hier, la firme de Redmond a annoncé une sacrée mise à jour pour son chatbot intégré à Windows 11. En effet, d’après cette news parue sur Neowin.net, Microsoft vient de booster les performances de Copilot en y intégrant le tout dernier modèle de langage GPT-4 Turbo développé par OpenAI.

Auparavant, pour pouvoir utiliser GPT-4 Turbo dans Copilot, il fallait souscrire à l’abonnement Copilot Pro à 20$ par mois. Pas donné quand même. Mais bonne nouvelle, Mikhail Parakhin, le grand chef de la pub et des services web chez Microsoft, a annoncé sur son compte X (ex-Twitter) que GPT-4 Turbo était désormais disponible gratuitement pour tous les utilisateurs de Copilot, après pas mal de boulot apparemment.

On va tous pouvoir en profiter !

Pour rappel, GPT-4 Turbo c’est le dernier cri en matière de modèle de langage IA. Il a été dévoilé par OpenAI en novembre dernier et il permet notamment de traiter des prompts beaucoup plus longs, jusqu’à 300 pages, grâce à une fenêtre de contexte élargie à 128 000 tokens (128L). Autant dire que ça ouvre pas mal de possibilités pour les utilisateurs.

Microsoft avait promis d’intégrer le support de GPT-4 Turbo en décembre, mais jusqu’à présent c’était réservé aux abonnés Copilot Pro. Ceux-ci pourront d’ailleurs toujours choisir d’utiliser l’ancien modèle GPT-4 s’ils le préfèrent, via une option dans les paramètres.

En parlant de Copilot Pro, Microsoft a aussi annoncé cette semaine que les abonnés pouvaient maintenant accéder à Copilot GPT Builder, un nouvel outil permettant de créer ses propres chatbots personnalisés sans aucune connaissance en programmation. Plutôt balèze. Et le top, c’est que ces chatbots pourront ensuite être partagés avec n’importe qui, même ceux qui n’ont pas Copilot Pro.

Bref, vous l’aurez compris, ça bouge pas mal du côté de Copilot en ce moment. Et visiblement, ce n’est pas fini. Selon une fuite repérée dans des documents promotionnels de Samsung, de nouvelles fonctionnalités devraient bientôt arriver, notamment une meilleure intégration entre Copilot et l’app Phone Link de Microsoft pour les smartphones Galaxy.

Alors perso, j’ai hâte de tester tout ça. Déjà que Copilot était plutôt impressionnant, avec GPT-4 Turbo ça promet de nouvelles possibilités assez dingues. Et puis le fait que ce soit désormais gratuit pour tous les utilisateurs, c’est quand même un sacré argument. Pas besoin d’être un pro ou de casquer tous les mois pour avoir accès au top de l’IA conversationnelle.

Elon Musk publie un torrent de 318 Go et rend Grok open source

18 mars 2024 à 09:55

En guerre contre OpenAI et ses modèles commerciaux, Elon Musk avait promis début mars qu'il rendrait le modèle de langage derrière Grok, son chatbot, open source. Promesse tenue.

Jan – Le « ChatGPT » local et open source à installer sur votre machine

Par : Korben
23 mars 2024 à 09:00

Afin de rendre l’IA accessible à tous, y compris gratuitement puisque la plupart des modèles fonctionnent sur un système open source, une équipe de développeurs talentueux a créé Jan un outil pour les développeurs et les utilisateurs souhaitant profite d’une alternative à ChatGPT, totalement indépendante, fonctionnant hors ligne, open source et libre.

Il faut donc voir Jan comme un client de chat qui permet de télécharger des modèles comme Trinity, Mistral, Llama, OpenChat…etc. et de les faire tourner 100% hors ligne. Comme ça, pas de fuite de conversations privées ni de réutilisation de vos données pour entrainer de nouvelles IA. Et si comme moi, vous êtes accro à l’IA d’OpenAI, vous pourrez toujours y ajouter votre clé API et discuter avec ChatGPT (au tarif fixé par OpenAI évidemment).

Jan fonctionne sous Linux (Appimage et .deb dispo), sous Windows et macOS (Intel / Silicon) et propose une prise en charge des modèles open source tels que GGUF via llama.cpp, TensorRT via TensorRT-LLM ou des API externes. Jan utilise également le moteur d’inférence Nitro, des mêmes développeurs, qui se veut être rapide et léger.

Je teste ici le modèle Trinity 1.2 7B Q4 :

Et ici un modèle spécialisé en code Python nommé Wizard Coder Python 13B Q5.

Un truc cool avec Jan c’est que toutes les conversations sont conservées sur votre disque au format JSON, donc si le coeur vous en dit, vous pourrez ensuite les exploiter comme bon vous semble dans vos outils.

Jan propose également un serveur REST qui permet d’interroger via une API compatible OpenAI n’importe quel modèle que vous y feriez tourner. Ça permet de brancher vos outils ou vos scripts directement sur le LLM ouvert de votre choix.

Dans la lignée de Ollama ou LM Studio, Jan rempli ses promesses et vous permettra de vous éclater avec l’IA (abus de langage, je sais…) sans mettre en péril vos données personnelles.

Pour en savoir plus, rendez-vous sur le site de Jan ou sur leur page Github pour les sources et la doc.

Merci à Lorenper

GPT-3.5 champion de Street Fighter III

Par : Korben
26 mars 2024 à 15:32

J’espère que vous êtes en forme et prêts à en découdre, car aujourd’hui on va parler d’un sujet marrant : GPT-3.5 Turbo d’OpenAI est devenu le nouveau champion toutes catégories de Street Fighter III !

Non, j’ai rien fumé, il y a bien une IA qui a mis la pâtée à tous ses adversaires lors d’un tournoi un peu spécial.

En effet, la semaine dernière, lors du Mistral AI Hackathon à San Francisco, une équipe de passionnés a eu l’idée de génie d’organiser un tournoi un peu particulier. : Faire s’affronter différents modèles de langage sur le cultissime jeu de baston Street Fighter III, pour voir lequel allait sortir vainqueur.

Parce que bon, c’est bien beau de savoir faire la conversation ou générer des images moches, mais quand il s’agit d’envoyer des tatanes dans la tronche, il faut être un peu plus réactif !

Et c’est là que notre pote GPT-3.5 sort les muscles et s’en sort très bien. Contrairement aux algorithmes d’apprentissage par renforcement (deep learning) qui se contentent bêtement d’accumuler des points en fonction de leurs actions, les modèles de langage comme GPT sont capables de comprendre un contexte et d’agir en conséquence.

En gros, ils analysent ce qu’il se passe à l’écran, les mouvements des personnages, leur barre de vie… Et en fonction de ça, ils décident quelle attaque lancer. Un peu comme un joueur humain en fait, sauf qu’eux n’ont pas besoin de café pour rester concentrés.

Les premières bagarres ont opposé différentes versions du modèle Mistral, dans des combats endiablés dignes des plus grands shōnens. Mais très vite, l’équipe a décidé de corser un peu les choses en invitant OpenAI et ses modèles GPT-3.5 et GPT-4 dans l’arène. Et là, mes amis, ça a commencé à sentir le roussi pour la concurrence !

Les poings ont volé, les combos se sont enchaînés, les contres se sont succédés à un rythme infernal. Un vrai feu d’artifice d’uppercuts, de coups spéciaux et de provocations bien senties. Mais au final, après des dizaines de combats acharnés, c’est bien GPT-3.5 (et plus précisément sa dernière version « Turbo ») qui est ressorti vainqueur ! La médaille d’argent revient à Mistral-small-2042, qui a réussi l’exploit de coiffer sur le poteau un modèle GPT-4 en accès anticipé.

Tout ça pour dire que si vous voulez vous mesurer à ces champions, c’est tout à fait possible ! Le code source du projet est disponible sur Github, et vous n’avez même pas besoin d’un supercalculateur pour faire tourner tout ça. Il vous faudra juste dénicher une ROM de jeu de baston 2D ou 3D old school, et le tour est joué. Perso j’ai hâte de voir ce que ça donne sur un bon vieux Tekken 3…

Pour installer et tester LLM Colosseum :

  1. Suivez les instructions de la documentation DIAMBRA, l’outil qui permet de faire jouer les LLM
  2. Téléchargez la ROM et placez-la dans ~/.diambra/roms
  3. Clonez le dépôt de llm coloseum et installez les paquets Python requis avec la commande pip3 install -r requirements.txt
  4. Créez un fichier nommé .env et copiez-y le contenu du fichier .env.example
  5. Lancez le programme avec la commande make run

Blague à part, cette expérience montre bien le potentiel hallucinant des modèles de langage pour les jeux vidéo. On peut tout à fait imaginer des PNJ avec lesquels on pourrait interagir de façon totalement naturelle et immersive, des adversaires capables de s’adapter à votre style de jeu et de vous surprendre… Bref, de quoi révolutionner complètement notre façon de jouer ! Après, faudra quand même faire gaffe à pas trop les énerver, on a bien vu ce que ça donnait quand on laissait GPT-3.5 jouer à des wargames… Boum, plus de planète !

Allez, je vous laisse, faut que je retourne taper Zangief moi.

Merci à Lorenper pour l’info et à très vite pour de nouvelles aventures.

❌
❌