Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

ChatGPT a des tics de langage à cause du colonialisme numérique

Par : Aurore Gayte
19 avril 2024 à 08:24

ChatGPT OpenAI chatbot

L'utilisation de l'IA à grande échelle fait apparaitre de nouvelles tendances de langage — et fait ressortir certains mots surannés. L'utilisation de certains mots serait même devenue révélatrice de textes générés par ChatGPT, mais surtout de la façon dont il a été entrainé.

ChatGPT s’égarera moins dans des réponses interminables

12 avril 2024 à 10:42

La version payante de ChatGPT, avec le modèle GPT-4 Turbo, va davantage à l'essentiel quand il produit du texte. Une nouvelle version du chatbot a été déployée pour le rendre moins bavard. Le modèle a aussi été amélioré sur d'autres aspects techniques.

ChatGPT est maintenant accessible sans compte

Par : Korben
1 avril 2024 à 21:10

Ça y est, c’est officiel ! ChatGPT, le célèbre agent conversationnel développé par OpenAI, est désormais accessible à tous sans qu’on ait besoin de se créer un compte. C’est une nouvelle qui devrait ravir les curieux qui souhaitaient tester les capacités de cette intelligence artificielle révolutionnaire sans avoir à s’embêter avec la création d’un énième compte en ligne.

Pour profiter de ChatGPT sans compte, rien de plus simple ! Il vous suffit de vous rendre sur l’application web chat.openai.com ou de télécharger l’application officielle ChatGPT sur votre smartphone, que vous soyez sur iPhone ou Android. Et vous pourrez directement commencer à discuter avec l’IA sans aucune autre formalité.

Par contre, ici en France, ça n’a pas encore l’air actif. J’ai du passer par un VPN via les États-Unis pour en profiter sans avoir à me créer un compte.

Et il faut quand même noter quelques petites limitations par rapport à la version avec compte. Déjà, vous ne pourrez pas sauvegarder ni consulter l’historique de vos conversations, et encore moins les partager avec d’autres utilisateurs. Vous n’aurez pas non plus accès aux conversations vocales ou aux instructions personnalisées. Et surtout, vous serez limité au modèle standard GPT-3.5, comme pour les comptes gratuits. Si vous voulez profiter de la puissance du modèle GPT-4, il faudra alors passer à la caisse et souscrire à l’abonnement payant ChatGPT Plus.

Mais bon, pour une utilisation basique de ChatGPT, la version sans compte est largement suffisante. Vous pourrez poser toutes vos questions, demander des conseils, générer du contenu, et même avoir des conversations à l’infini avec l’IA. Parfait pour découvrir le potentiel de l’IA conversationnelle et vous familiariser avec cet outil fascinant si ce n’est pas encore fait.

D’ailleurs, OpenAI a précisé avoir mis en place des « garde-fous supplémentaires » pour l’utilisation de ChatGPT sans compte. Donc ne soyez pas surpris si l’IA refuse de répondre à certaines de vos questions un peu trop sensibles ou sur des thèmes controversées.

N’oubliez pas que ChatGPT reste un outil imparfait, avec ses limites et ses défauts et qu’il peut parfois se tromper, inventer des choses ou tenir des propos biaisés. Donc gardez toujours votre esprit critique et ne prenez pas tout ce qu’il dit pour argent comptant. Et par pitié, ne l’utilisez pas comme un oracle infaillible ou comme si c’était Wikipédia. Voyez plutôt ça comme un outil permettant de retravailler du texte.

Amusez-vous bien !

Source

Voice Engine – Les voix synthétiques bluffantes d’OpenAI

Par : Korben
30 mars 2024 à 08:10

Vous avez vu Voice Engine d’OpenAI ? C’est un modèle d’IA qui est capable de générer des voix synthétiques ultra-réalistes à partir d’un simple échantillon audio de 15 secondes. Seulement 15 secondes, oui !

Concrètement, ça veut dire qu’avec cette IA, on peut créer des voix qui ressemblent à s’y méprendre à celles de vraies personnes. Genre on donne un petit extrait de notre voix, et hop, l’IA peut générer un discours entier qui sonne exactement comme nous. C’est à la fois fascinant et un peu flippant, vous trouvez pas ?

OpenAI sont à la pointe de la recherche dans le domaine et ils nous pondent régulièrement des trucs de malade comme Sora. Concernant Voice Engine, ils ont développé la techno fin 2022 et l’ont intégré dans leur API de synthèse vocale ainsi que dans les fonctionnalités vocales de ChatGPT.

Voici les 15 secondes de vraie voix :

Et voici l’audio qui a été généré à partir de ça :

Mais attention, comme un grand pouvoir implique de grandes responsabilités (coucou Peter !), OpenAI joue la carte de la prudence. Ils sont bien conscients que cette technologie pourrait être utilisée à des fins pas très catholiques, genre pour créer des deepfakes audio et induire les gens en erreur. Du coup, ils la déploient pour l’instant à petite échelle, juste auprès de quelques partenaires de confiance.

Et ces partenaires, ils en font quoi de Voice Engine ?

Eh bien figurez-vous qu’ils développent des applications plutôt cools ! Par exemple, Age of Learning l’utilise pour générer des contenus audio éducatifs avec des voix naturelles et expressives. Ou encore HeyGen qui s’en sert pour traduire des vidéos dans différentes langues en conservant la voix du locuteur d’origine. D’ailleurs c’est ce que j’utilise pour ma chaine Youtube en anglais et je peux vous dire que ça coûte une couille. Ça peut aussi aider les personnes non-verbales à communiquer avec une voix unique grâce à Livox. Et même redonner la parole à des patients ayant perdu l’usage de la voix, comme le fait l’institut Norman Prince Neurosciences de Lifespan.

Rassurez-vous, OpenAI a mis en place des garde-fous, comme l’interdiction d’utiliser Voice Engine pour imiter quelqu’un sans son consentement, l’obligation d’obtenir l’accord explicite du locuteur original, ou encore le watermarking des contenus générés pour pouvoir en tracer l’origine. Ils suggèrent également d’abandonner progressivement l’authentification vocale comme mesure de sécurité, mais également d’explorer des réglementations qui permettraient de protéger l’usage des voix dans l’IA, de sensibiliser le public aux deepfakes et de développer des techniques pour tracer l’origine des contenus audio et visuels.

Bref, Voice Engine c’est à la fois excitant et inquiétant. Ce que je vois, c’est que ça ouvre des perspectives folles en termes d’applications, mais ça soulève aussi pas mal de questions sur l’avenir.

Je vous invite à checker l’article d’OpenAI qui détaille leur approche avec plein d’exemples.

Source

GPT-3.5 champion de Street Fighter III

Par : Korben
26 mars 2024 à 15:32

J’espère que vous êtes en forme et prêts à en découdre, car aujourd’hui on va parler d’un sujet marrant : GPT-3.5 Turbo d’OpenAI est devenu le nouveau champion toutes catégories de Street Fighter III !

Non, j’ai rien fumé, il y a bien une IA qui a mis la pâtée à tous ses adversaires lors d’un tournoi un peu spécial.

En effet, la semaine dernière, lors du Mistral AI Hackathon à San Francisco, une équipe de passionnés a eu l’idée de génie d’organiser un tournoi un peu particulier. : Faire s’affronter différents modèles de langage sur le cultissime jeu de baston Street Fighter III, pour voir lequel allait sortir vainqueur.

Parce que bon, c’est bien beau de savoir faire la conversation ou générer des images moches, mais quand il s’agit d’envoyer des tatanes dans la tronche, il faut être un peu plus réactif !

Et c’est là que notre pote GPT-3.5 sort les muscles et s’en sort très bien. Contrairement aux algorithmes d’apprentissage par renforcement (deep learning) qui se contentent bêtement d’accumuler des points en fonction de leurs actions, les modèles de langage comme GPT sont capables de comprendre un contexte et d’agir en conséquence.

En gros, ils analysent ce qu’il se passe à l’écran, les mouvements des personnages, leur barre de vie… Et en fonction de ça, ils décident quelle attaque lancer. Un peu comme un joueur humain en fait, sauf qu’eux n’ont pas besoin de café pour rester concentrés.

Les premières bagarres ont opposé différentes versions du modèle Mistral, dans des combats endiablés dignes des plus grands shōnens. Mais très vite, l’équipe a décidé de corser un peu les choses en invitant OpenAI et ses modèles GPT-3.5 et GPT-4 dans l’arène. Et là, mes amis, ça a commencé à sentir le roussi pour la concurrence !

Les poings ont volé, les combos se sont enchaînés, les contres se sont succédés à un rythme infernal. Un vrai feu d’artifice d’uppercuts, de coups spéciaux et de provocations bien senties. Mais au final, après des dizaines de combats acharnés, c’est bien GPT-3.5 (et plus précisément sa dernière version « Turbo ») qui est ressorti vainqueur ! La médaille d’argent revient à Mistral-small-2042, qui a réussi l’exploit de coiffer sur le poteau un modèle GPT-4 en accès anticipé.

Tout ça pour dire que si vous voulez vous mesurer à ces champions, c’est tout à fait possible ! Le code source du projet est disponible sur Github, et vous n’avez même pas besoin d’un supercalculateur pour faire tourner tout ça. Il vous faudra juste dénicher une ROM de jeu de baston 2D ou 3D old school, et le tour est joué. Perso j’ai hâte de voir ce que ça donne sur un bon vieux Tekken 3…

Pour installer et tester LLM Colosseum :

  1. Suivez les instructions de la documentation DIAMBRA, l’outil qui permet de faire jouer les LLM
  2. Téléchargez la ROM et placez-la dans ~/.diambra/roms
  3. Clonez le dépôt de llm coloseum et installez les paquets Python requis avec la commande pip3 install -r requirements.txt
  4. Créez un fichier nommé .env et copiez-y le contenu du fichier .env.example
  5. Lancez le programme avec la commande make run

Blague à part, cette expérience montre bien le potentiel hallucinant des modèles de langage pour les jeux vidéo. On peut tout à fait imaginer des PNJ avec lesquels on pourrait interagir de façon totalement naturelle et immersive, des adversaires capables de s’adapter à votre style de jeu et de vous surprendre… Bref, de quoi révolutionner complètement notre façon de jouer ! Après, faudra quand même faire gaffe à pas trop les énerver, on a bien vu ce que ça donnait quand on laissait GPT-3.5 jouer à des wargames… Boum, plus de planète !

Allez, je vous laisse, faut que je retourne taper Zangief moi.

Merci à Lorenper pour l’info et à très vite pour de nouvelles aventures.

Jan – Le « ChatGPT » local et open source à installer sur votre machine

Par : Korben
23 mars 2024 à 09:00

Afin de rendre l’IA accessible à tous, y compris gratuitement puisque la plupart des modèles fonctionnent sur un système open source, une équipe de développeurs talentueux a créé Jan un outil pour les développeurs et les utilisateurs souhaitant profite d’une alternative à ChatGPT, totalement indépendante, fonctionnant hors ligne, open source et libre.

Il faut donc voir Jan comme un client de chat qui permet de télécharger des modèles comme Trinity, Mistral, Llama, OpenChat…etc. et de les faire tourner 100% hors ligne. Comme ça, pas de fuite de conversations privées ni de réutilisation de vos données pour entrainer de nouvelles IA. Et si comme moi, vous êtes accro à l’IA d’OpenAI, vous pourrez toujours y ajouter votre clé API et discuter avec ChatGPT (au tarif fixé par OpenAI évidemment).

Jan fonctionne sous Linux (Appimage et .deb dispo), sous Windows et macOS (Intel / Silicon) et propose une prise en charge des modèles open source tels que GGUF via llama.cpp, TensorRT via TensorRT-LLM ou des API externes. Jan utilise également le moteur d’inférence Nitro, des mêmes développeurs, qui se veut être rapide et léger.

Je teste ici le modèle Trinity 1.2 7B Q4 :

Et ici un modèle spécialisé en code Python nommé Wizard Coder Python 13B Q5.

Un truc cool avec Jan c’est que toutes les conversations sont conservées sur votre disque au format JSON, donc si le coeur vous en dit, vous pourrez ensuite les exploiter comme bon vous semble dans vos outils.

Jan propose également un serveur REST qui permet d’interroger via une API compatible OpenAI n’importe quel modèle que vous y feriez tourner. Ça permet de brancher vos outils ou vos scripts directement sur le LLM ouvert de votre choix.

Dans la lignée de Ollama ou LM Studio, Jan rempli ses promesses et vous permettra de vous éclater avec l’IA (abus de langage, je sais…) sans mettre en péril vos données personnelles.

Pour en savoir plus, rendez-vous sur le site de Jan ou sur leur page Github pour les sources et la doc.

Merci à Lorenper

Copilot passe à GPT-4 Turbo gratuit pour tous sur Windows 11

Par : Korben
13 mars 2024 à 08:16

Vous en avez entendu parler, peut-être même que vous l’avez déjà testé, mais cette news devrait quand même vous intéresser si vous faites partie des chanceux qui ont accès à Copilot, l’assistant IA de Microsoft. Car hier, la firme de Redmond a annoncé une sacrée mise à jour pour son chatbot intégré à Windows 11. En effet, d’après cette news parue sur Neowin.net, Microsoft vient de booster les performances de Copilot en y intégrant le tout dernier modèle de langage GPT-4 Turbo développé par OpenAI.

Auparavant, pour pouvoir utiliser GPT-4 Turbo dans Copilot, il fallait souscrire à l’abonnement Copilot Pro à 20$ par mois. Pas donné quand même. Mais bonne nouvelle, Mikhail Parakhin, le grand chef de la pub et des services web chez Microsoft, a annoncé sur son compte X (ex-Twitter) que GPT-4 Turbo était désormais disponible gratuitement pour tous les utilisateurs de Copilot, après pas mal de boulot apparemment.

On va tous pouvoir en profiter !

Pour rappel, GPT-4 Turbo c’est le dernier cri en matière de modèle de langage IA. Il a été dévoilé par OpenAI en novembre dernier et il permet notamment de traiter des prompts beaucoup plus longs, jusqu’à 300 pages, grâce à une fenêtre de contexte élargie à 128 000 tokens (128L). Autant dire que ça ouvre pas mal de possibilités pour les utilisateurs.

Microsoft avait promis d’intégrer le support de GPT-4 Turbo en décembre, mais jusqu’à présent c’était réservé aux abonnés Copilot Pro. Ceux-ci pourront d’ailleurs toujours choisir d’utiliser l’ancien modèle GPT-4 s’ils le préfèrent, via une option dans les paramètres.

En parlant de Copilot Pro, Microsoft a aussi annoncé cette semaine que les abonnés pouvaient maintenant accéder à Copilot GPT Builder, un nouvel outil permettant de créer ses propres chatbots personnalisés sans aucune connaissance en programmation. Plutôt balèze. Et le top, c’est que ces chatbots pourront ensuite être partagés avec n’importe qui, même ceux qui n’ont pas Copilot Pro.

Bref, vous l’aurez compris, ça bouge pas mal du côté de Copilot en ce moment. Et visiblement, ce n’est pas fini. Selon une fuite repérée dans des documents promotionnels de Samsung, de nouvelles fonctionnalités devraient bientôt arriver, notamment une meilleure intégration entre Copilot et l’app Phone Link de Microsoft pour les smartphones Galaxy.

Alors perso, j’ai hâte de tester tout ça. Déjà que Copilot était plutôt impressionnant, avec GPT-4 Turbo ça promet de nouvelles possibilités assez dingues. Et puis le fait que ce soit désormais gratuit pour tous les utilisateurs, c’est quand même un sacré argument. Pas besoin d’être un pro ou de casquer tous les mois pour avoir accès au top de l’IA conversationnelle.

Free access to an enhanced ChatGPT 4 for 4sysops members

19 février 2024 à 14:35
Members can now enjoy free access to 4sysops AI powered by ChatGPT 4 (GPT-4 Turbo). 4sysops AI is a continuously updated and does not have a cutoff date of April 2023 like ChatGPT. As you may be aware, the free version of ChatGPT only supports ChatGPT 3.5, while the paid membership of ChatGPT Plus, which costs $20 per month, provides access to ChatGPT 4 (GPT-4). 4sysops members can now access the Turbo version of ChatGPT 4 for free, which is faster than the standard ChatGPT 4 available with the Plus subscription.

ChatGPT : des hackers russes, chinois et nord-coréens se servent du chatbot IA, alerte Microsoft

15 février 2024 à 05:30

Microsoft et OpenAI, la maison mère de ChatGPT, révèlent que des hackers étatiques chinois, russes, nord-coréens et iraniens ont utilisés ChatGPT pour diverses opérations de phishing et renseignement.

Build your own ChatGPT app

5 février 2024 à 10:23
In my previous post on the OpenAI API, I introduced a simple chatbot that demonstrated how to interact with the API. In this post, I will take it a step further by showing you how to create your own ChatGPT app. You may be wondering why you need your own ChatGPT app when you can use the OpenAI web interface.

LM Studio: Run a local AI on your desktop or server

Par : Evi Vanoost
30 janvier 2024 à 12:11
LM Studio is a free tool that allows you to run an AI on your desktop using locally installed open-source Large Language Models (LLMs). It features a browser to search and download LLMs from Hugging Face, an in-app Chat UI, and a runtime for a local server compatible with the OpenAI API. You can use this server to set up a development environment before deploying a more extensive LLM system or even run your ChatGPT clone without sharing your corporate data with third parties.

OpenAI API example: Building a simple GPT chatbot with the Chat Completions API

18 janvier 2024 à 09:49
In a previous post, I explained how to install the Python OpenAI SDK on macOS and Windows. Today, we will expand on using the Open AI API a little further. Today we will develop a basic chatbot as an example. The primary purpose of this article is to gain an understanding of the three roles the Chat Completions endpoints offer: System, User, and Assistant.

A GPT Actions example: Connect ChatGPT to Gmail

16 janvier 2024 à 12:04
A GPT is a customizable version of ChatGPT that can perform specific tasks or enhance its abilities in specialized areas. GPT Actions are like superpowers for GPTs, letting them interact with external sources and services, expanding their abilities beyond text generation. In this post, I will show you how to connect your GPT to Gmail using the Zapier AI Actions OpenAPI API. This will allow you to search your Gmail inbox, have ChatGPT summarize emails, or even send emails on your behalf.

Install the Python OpenAI SDK on Windows and macOS

11 janvier 2024 à 10:15
2024 will most likely be the year when many admins will be faced with deploying AI systems for the first time. Once you play a little with the OpenAI API, you will begin to understand why Large Language Models (LLMs) are not just useful for chatbots. If AI companies can find a way to fund the content to train their models, we may be on the brink of a new era in IT. For many administrators, this means becoming acquainted with AIOps, a term that will become more prevalent in the upcoming year. A great way to start with AIOps is to install the OpenAI SDK on your Mac or Windows PC.

OpenAI, The New York Times, and a hypocritical blog post

10 janvier 2024 à 10:34
OpenAI is nervous. Very nervous. Their latest blog post is proof. They have realized that the ongoing lawsuit with the New York Times poses a significant threat to their entire business model. Their belief that they could freely harvest the content of the entire internet for training their AI models was, in fact, quite naive.
❌
❌