Pour montrer les capacités de GPT-5, OpenAI a eu une idée : faire jouer son modèle d'IA à Pokémon Rouge. Il s'agit en fait surtout d'un affrontement avec Gemini et Claude, d'autres IA qui jouent également au jeu. Qui battra la Ligue Pokémon le plus rapidement ?
ChatGPT-5 est disponible depuis le 6 août 2025. Quelques jours après son lancement, OpenAI a annoncé une série d'évolutions pour son nouveau modèle d'intelligence artificielle, qui a essuyé quelques critiques.
OpenAI présentait ce 7 août 2025 GPT-5, son nouveau modèle de langage de pointe. Sauf que les graphiques appuyant ses performances n'étaient pas tout à fait à l'échelle : l'entreprise s'est fait épingler sur les réseaux sociaux.
L'arrivée de GPT-5 dans ChatGPT est évidemment beaucoup scrutée sous le prisme des performances en matière d'intelligence artificielle générative. Mais il y a un autre aspect très important qui change, et qui est une avancée tout aussi importante, voire plus cruciale encore. Car l'expérience utilisateur compte.
En parallèle du lancement de GTP-5, OpenAI a intégré quatre pré-réglages de ChatGPT disponibles pour tous les utilisateurs. Il s'agit en fait de quatre personnalités, dont les réponses et le ton sont adaptés.
C'est parti pour GPT-5. OpenAI a lancé le 7 août 2025 le tout nouveau modèle qui animera son chatbot pour les années à venir. Vous pouvez vous en emparer dès maintenant, y compris sans payer d'abonnement. Le déploiement débutera à partir de la fin du direct organisé par Sam Altman.
Attendu depuis plus de deux ans, GPT-5 devient aujourd'hui le nouveau modèle par défaut de ChatGPT pour tout le monde. OpenAI le présente comme une avancée importante vers l'intelligence artificielle générale, grâce à une incroyable capacité à faire tout à une vitesse inédite.
OpenAI has just released its first open-weight models, gpt-oss:20 and gpt-oss:120, enabling you to run these surprisingly powerful models locally, which benefits security and privacy. I downloaded gpt-oss:20 and tested it on my laptop using Ollama and within VS Code with GitHub Copilot. To my surprise, the 20 billion parameter model gpt-oss:20 responded to my prompt.
Vous savez ce qui m’a le plus questionné dans cette annonce d’OpenAI dont tout le monde parle ? Pas le fait qu’ils offrent ChatGPT Enterprise aux agences fédérales américaines pour 1 dollar. Non, c’est surtout que ça arrive pile poil au moment où la boîte négocie une valorisation à 500 milliards de dollars avec ses investisseurs.
Un dollar contre 500 milliards. Ça vous paraît logique comme calcul ?
À moi non plus.
La réalité, c’est qu’OpenAI vient de jouer l’un des coups les plus brillants de l’histoire de la tech et contrairement à ce qu’on pourrait croire, cette “générosité” n’a rien de charitable. C’est du business pur et dur, orchestré avec une précision chirurgicale. Parce que voyez-vous, OpenAI a déjà empoché un contrat de 200 millions de dollars avec le Département de la Défense en juin dernier. Ils ont alors lancé “OpenAI for Government” et obtenu l’approbation officielle de la GSA (General Services Administration) comme fournisseur agréé pour les agences fédérales. Cette offre à 1 dollar, c’est donc juste la cerise sur le gâteau.
L’astuce (selon moi), c’est qu’ils viennent de transformer le gouvernement américain en client captif. Des milliers de fonctionnaires qui vont s’habituer à utiliser ChatGPT au quotidien, qui vont intégrer l’outil dans leurs workflows, leurs processus, leurs habitudes. Et au bout d’un moment, quand OpenAI reviendra avec un tarif “normal”, croyez-vous que le gouvernement pourra s’en passer et revenir à l’age de pierre ?
C’est exactement la stratégie du dealer qui offre la première dose gratuite.
Mais le plus top moumoute dans toute cette histoire (et vous pouvez me traiter de parano), c’est l’accès aux données que ça leur offre. Parce qu’avec ChatGPT Gov qui permet aux agences d’y injecter des “informations sensibles non-publiques”, OpenAI va avoir une vision privilégiée sur les tendances, les projets, les préoccupations du gouvernement américain. Pas besoin d’espionner quand vos “clients” vous donnent volontairement accès à leurs réflexions stratégiques.
D’un point de vue investisseurs, c’est du caviar. Montrer qu’on a le gouvernement américain dans sa poche, c’est le genre d’argument qui fait monter les valorisations. Surtout quand on sait que les contrats publics, une fois établis, sont rarement remis en question et peuvent durer des décennies.
Au final, cette opération séduction va rapporter bien plus que les quelques millions “perdus” sur cette offre symbolique car entre les futurs contrats gouvernementaux, l’influence réglementaire et la crédibilité que ça apporte face aux investisseurs, ça parle déjà d’un retour sur investissement qui se chiffre en milliards.
OpenAI n’est pas votre ami. OpenAI devient naturellement l’extension technologique d’Oncle Sam et vous verrez, dans quelques années, quand on parlera de dépendance technologique, on citera cette manœuvre comme un cas d’école, j’en suis convaincu !
Le service de messagerie instantanée Whatsapp a annoncé, le 5 août 2025, la mise en service de nouvelles mesures de sécurité pour lutter contre les arnaques en ligne. L'application affichera notamment des messages de prévention avant que vous n'entamiez une discussion avec un groupe ou un interlocuteur inconnu.
Le service de messagerie instantanée Whatsapp a annoncé, le 5 août 2025, la mise en service de nouvelles mesures de sécurité pour lutter contre les arnaques en ligne. L'application affichera notamment des messages de prévention avant que vous n'entamiez une discussion avec un groupe ou un interlocuteur inconnu.
Vous savez ce qui est pire que de se confier à un psy qui prend des notes ?
Bah c’est se confier à ChatGPT en pensant que c’est privé, évidemment !
Un chercheur du nom de Digital Digging vient de révéler que 50 000 conversations ChatGPT ont fuité sur Google, et le contenu est explosif. Un avocat qui demande comment virer une communauté indigène d’Amazonie, des dissidents arabes qui critiquent leur gouvernement, et des PDG qui balancent leurs secrets d’entreprise comme si c’était Snapchat.
Le truc complètement dingue, c’est que tout ça vient d’une petite checkbox innocente dans la fonction de partage de ChatGPT. Vous savez, c’est ce bouton “Share” que tout le monde utilise pour montrer ses prompts géniaux à ses potes. Sauf qu’il y avait une option “Make this chat discoverable” que personne ne lisait vraiment. Du coup Google a indexé toutes ces conversations, et n’importe qui pouvait tomber dessus en cherchant les bons mots-clés.
Digital Digging a ainsi analysé 512 de ces conversations publiques et a découvert que 20% contenaient des informations sensibles ou potentiellement compromettantes : Des victimes de violence domestique qui planifient leur fuite, des professionnels de santé qui partagent des protocoles de traitement détaillés (bonjour le secret médical), et même des utilisateurs qui décrivent des activités cyber-criminelles potentielles. Certains utilisateurs arabes ont partagé des critiques du gouvernement égyptien, ce qui pourrait littéralement leur coûter leur liberté.
L’exemple le plus choquant reste quand même cet avocat d’une compagnie énergétique qui demandait conseil pour négocier le déplacement d’une communauté indigène en Amazonie. Le mec demandait littéralement comment obtenir “le prix le plus bas possible dans les négociations”. Si ça c’est pas un scénario de méchant de James Bond, je sais pas ce que c’est. Et tout ça, accessible publiquement pendant des mois avant qu’OpenAI ne réagisse.
OpenAI a bien essayé de faire le ménage en urgence. Ils ont supprimé les URLs originales, ajouté des tags noindex et nofollow, et demandé à Google de tout désindexer. Gizmodo rapporte qu’ils ont tenté de retirer près de 50 000 conversations de l’index Google. Le CISO d’OpenAI a même qualifié ça d’"expérience de courte durée pour aider les gens à découvrir des conversations utiles". Lol.
Mais voilà le problème : Internet n’oublie jamais. Archive.org, la Wayback Machine, a sauvegardé plus de 110 000 de ces conversations avant qu’OpenAI ne puisse réagir. Et Digital Digging confirme qu’OpenAI n’a même pas demandé à Archive.org de supprimer ces archives. Mark Graham, le directeur de la Wayback Machine, a confirmé qu’aucune demande d’exclusion à grande échelle n’a été faite. Du coup, toutes ces confessions sont encore accessibles pour qui sait où chercher.
Ce qui ressort de cette affaire, c’est surtout que les gens traitent ChatGPT comme un confessionnal numérique. Ils partagent leurs secrets les plus sombres, leurs plans d’affaires confidentiels, leurs problèmes personnels, en pensant que c’est entre eux et la machine. Sauf que non. Dès que vous cliquez sur “Share”, vous créez potentiellement une trace permanente sur Internet. Et même si OpenAI supprime tout de son côté, des dizaines de services d’archivage ont déjà fait des copies.
OpenAI, la boîte qui nous sermonne constamment sur l’importance de l’IA “sûre et responsable”, vient donc de créer la plus grande base de données de confessions publiques de l’histoire de l’humanité. Ils ont littéralement transformé leur chatbot en piège à secrets, et maintenant des milliers de personnes découvrent que leurs conversations privées sont consultables par n’importe qui avec une connexion Internet.
Pour les victimes de cette fuite (qui je le rappelle on quand même cliqué sur “Share” donc bon…), les conséquences peuvent être dramatiques. On parle de personnes qui ont révélé des informations pouvant détruire leur carrière, leur mariage, voire les mettre en danger physique dans le cas des dissidents politiques.
Bref, traitez ChatGPT comme vous traiteriez Twitter ou Facebook. Si vous ne voulez pas que ça se retrouve sur la place publique, ne le partagez pas. Et surtout, SURTOUT, lisez les petites cases à cocher avant de cliquer sur “Partager” parce qu’entre “partager avec un ami” et “indexer sur Google pour l’éternité”, il n’y a qu’une checkbox de différence.
Comme d’hab sur Internet, rien n’est vraiment privé, et ce qui est mis en ligne le reste pour toujours. Même quand c’est censé être une conversation privée…
OpenAI sait que vous confondez parfois ChatGPT avec votre psy, votre médecin ou votre coach de vie. L'entreprise américaine ne cherche pas forcément à dissuader cet usage. Cependant, elle apporte dès à présent des ajustements pour éviter des réponses problématiques si vous allez (très) mal.
Pour la première fois depuis 2019, OpenAI publie de nouveaux modèles de langage ouverts. Il s'agit de modèles de raisonnement dérivés d'o4-mini déclinés en deux versions (20B et 120B). De quoi faire taire les critiques récurrentes d'Elon Musk sur le manque d'ouverture d'OpenAI ?
OpenAI vient de lâcher dans la nature ses premiers modèles open-weight depuis GPT-2, et apparemment, c’est du lourd. Après 5 longues années à garder jalousement ses modèles bien au chaud derrière des API payantes, Sam Altman et sa bande balancent donc gpt-oss-120b et gpt-oss-20b, deux modèles que vous pouvez télécharger gratuitement sur Hugging Face et faire tourner chez vous.
Ils ont claqué des milliards de dollars en recherche pour créer ces modèles, et maintenant ils les offrent au monde entier sous licence Apache 2.0. C’est beau !
Pour ceux qui se demandent ce que ça change, un modèle open-weight c’est comme avoir accès au moteur d’une voiture avec le capot grand ouvert. Vous pouvez voir comment ça fonctionne, bidouiller les paramètres internes, et surtout, le faire tourner en local sans connexion internet. Greg Brockman, le cofondateur d’OpenAI, explique que c’est complémentaire à leurs services payants comme ChatGPT et l’avantage, c’est que vos données ne partent pas dans le cloud.
Les deux nouveaux modèles utilisent l’approche chain-of-thought qu’OpenAI a introduite avec son modèle o1 l’automne dernier. Cela veut dire que au lieu de balancer une réponse directe, l’IA passe par plusieurs étapes de raisonnement pour répondre à vos questions. Ces modèles text-only ne sont pas multimodaux (donc pas d’images ou de sons), mais ils peuvent naviguer sur le web, appeler d’autres modèles cloud pour certaines tâches, exécuter du code et même agir comme des agents IA autonomes.
Le plus petit des deux, gpt-oss-20b avec ses 21 milliards de paramètres (dont 3,6 milliards actifs), est suffisamment compact pour tourner sur une machine avec 16 Go de RAM. Le gros calibre, gpt-oss-120b avec ses 117 milliards de paramètres (5,1 milliards actifs), nécessite 80 Go de mémoire et tourne idéalement sur une seule GPU H100. Les deux supportent un contexte de 128 000 tokens, soit l’équivalent de 300-400 pages de roman que vous pouvez balancer d’un coup.
D’après les benchmarks, gpt-oss-120b atteint quasiment les performances d’OpenAI o4-mini sur les tâches de raisonnement, tandis que gpt-oss-20b s’approche d’o3-mini. Sur une RTX 5090, vous pouvez atteindre jusqu’à 256 tokens par seconde, ce qui est franchement impressionnant pour du local. Avec l’architecture Mixture-of-Experts (MoE) et la précision native MXFP4, ces modèles sont optimisés pour tourner efficacement même sur du matériel grand public.
Bon, passons aux choses sérieuses avec le tutoriel Ollama pour faire tourner tout ça chez vous.
Installation d’Ollama
D’abord, installez Ollama si ce n’est pas déjà fait. Sur macOS, ouvrez un terminal et tapez :
brew install ollama
Sur Linux, c’est encore plus simple :
curl -fsSL https://ollama.ai/install.sh | sh
Pour Windows, téléchargez directement l’installateur sur ollama.com et suivez les instructions.
Lancement du serveur Ollama
Une fois installé, démarrez le serveur Ollama :
ollama serve
Le serveur va se lancer sur le port 11434 par défaut. Laissez cette fenêtre de terminal ouverte.
Téléchargement et exécution des modèles gpt-oss
Dans un nouveau terminal, vous pouvez maintenant télécharger et lancer les modèles. Pour le modèle léger gpt-oss-20b (idéal si vous avez 16 Go de RAM minimum) :
ollama pull gpt-oss:20b
ollama run gpt-oss:20b
Pour le modèle plus costaud gpt-oss-120b (nécessite au moins 80 Go de RAM ou un bon GPU) :
ollama pull gpt-oss:120b
ollama run gpt-oss:120b
Configuration du niveau de raisonnement
Une fonctionnalité sympa de ces modèles, c’est que vous pouvez ajuster l’effort de raisonnement selon vos besoins. Dans Ollama, vous pouvez configurer ça avec :
ollama run gpt-oss:20b --reasoning low # Pour des réponses rapides
ollama run gpt-oss:20b --reasoning medium # Équilibré (par défaut)
ollama run gpt-oss:20b --reasoning high # Pour des analyses complexes
Utilisation avec Python
Si vous préférez intégrer ça dans vos scripts Python, installez le package officiel :
pip install ollama
Puis utilisez-le comme ceci :
import ollama
response = ollama.chat(model='gpt-oss:20b', messages=[
{
'role': 'user',
'content': 'Explique-moi la différence entre un modèle open-weight et open-source',
},
])
print(response['message']['content'])
Alternative avec Hugging Face CLI
Si vous voulez télécharger directement depuis Hugging Face pour plus de contrôle :
# Installation de Hugging Face CLIpipinstallhuggingface-hub# Téléchargement de gpt-oss-20bhuggingface-clidownloadopenai/gpt-oss-20b--include"original/*"--local-dirgpt-oss-20b/# Téléchargement de gpt-oss-120bhuggingface-clidownloadopenai/gpt-oss-120b--include"original/*"--local-dirgpt-oss-120b/
Optimisations pour cartes NVIDIA RTX
Si vous avez une carte NVIDIA RTX, vous pouvez bénéficier d’optimisations spécifiques car Ollama détecte automatiquement votre GPU et applique les optimisations. Donc pour vérifier que votre GPU est bien détectée :
nvidia-smi # Pour voir votre GPU
ollama list # Pour voir les modèles disponibles
Quelques commandes utiles
Pour lister tous les modèles installés :
ollama list
Pour supprimer un modèle si vous manquez d’espace :
ollama rm gpt-oss:120b
Pour voir les logs et débugger si ça plante :
ollama logs
Le fait qu’OpenAI ait attendu mars pour annoncer ces modèles puis les ait retardés pour des tests de sécurité supplémentaires montre qu’ils prennent le sujet au sérieux. Eric Wallace, chercheur en sécurité chez OpenAI, explique qu’ils ont même fine-tuné les modèles en interne sur des scénarios à risque pour mesurer jusqu’où un “bad actor” pourrait les pousser. Résultat, les modèles n’ont pas atteint un niveau de risque élevé selon leur framework de préparation.
Pour finir, OpenAI s’est associé avec Azure, vLLM, llama.cpp, LM Studio, AWS, Fireworks, Together AI et plein d’autres plateformes pour rendre ces modèles accessibles partout. Microsoft propose même AI Foundry Local sur Windows où vous pouvez juste taper foundry model run gpt-oss-20b dans un terminal pour commencer.
Voilà, vous avez tout ce qu’il faut pour jouer avec les nouveaux jouets d’OpenAI. C’est quand même fou de voir OpenAI revenir à ses racines open source après toutes ces années à s’enfermer. Avec la licence Apache 2.0, vous pouvez utiliser ces modèles commercialement, les redistribuer, et les intégrer dans vos propres projets.
Pour plus d’infos, consultez le dépôt GitHub officiel ou la page Ollama dédiée. Allez-y, téléchargez, testez, et surtout, amusez-vous bien avec ces nouveaux modèles. Le futur de l’IA locale commence maintenant, et il est entre vos mains.
OpenAI sait que vous confondez parfois ChatGPT avec votre psy, votre médecin ou votre coach de vie. L'entreprise américaine ne cherche pas forcément à dissuader cet usage. Cependant, elle apporte dès à présent des ajustements pour éviter des réponses problématiques si vous allez (très) mal.
Anthropic, la maison-mère de l’IA générative Claude, a annoncé avoir coupé l’accès à son API pour son concurrent OpenAI. L’entreprise américaine accuse les ingénieurs qui travaillent sur les derniers modèles de ChatGPT d'utiliser les outils de programmation Claude Code, une pratique jugée contraire à ses conditions d’utilisation.
C’est la guerre froide de l’IA car Anthropic vient de couper l’accès de son API Claude à OpenAI, accusant le créateur de ChatGPT d’avoir violé ses conditions d’utilisation pour développer GPT-5. On assiste là, à un vrai clash entre titans de l’IA, j’vous raconte !
Mardi dernier, Anthropic a tout simplement débranché OpenAI de son API Claude. La raison ? Les équipes techniques d’OpenAI auraient utilisé Claude Code, l’outil de programmation star d’Anthropic, pour préparer le lancement de GPT-5.
Et ça, c’est strictement interdit par les conditions d’utilisation. Christopher Nulty, porte-parole d’Anthropic, n’y est pas allé par quatre chemins : “Claude Code est devenu l’outil de référence pour les développeurs partout dans le monde, donc ce n’était pas surprenant d’apprendre que les équipes techniques d’OpenAI utilisaient aussi nos outils de programmation avant le lancement de GPT-5. Malheureusement, c’est une violation directe de nos conditions de service.”
Concrètement, les conditions commerciales d’Anthropic interdisent d’utiliser leur service pour “construire un produit ou service concurrent, y compris pour entraîner des modèles d’IA concurrents” ou pour “faire de l’ingénierie inverse ou dupliquer” leurs services.
OpenAI aurait ainsi intégré Claude dans ses outils internes via l’accès développeur (API) au lieu d’utiliser l’interface de chat classique et ce qui est vraiment croustillant, c’est la manière dont OpenAI utilisait Claude car d’après des sources proches du dossier, ils menaient des tests pour évaluer les capacités de Claude en programmation et écriture créative, comparant les résultats avec leurs propres modèles et ils vérifiaient aussi comment Claude répondait aux prompts sensibles touchant à la sécurité. En gros, ils benchmarkaient Claude pour améliorer leurs propres IA.
Hannah Wong, responsable de la communication d’OpenAI, a réagi avec un brin d’amertume : “C’est une pratique standard dans l’industrie d’évaluer d’autres systèmes d’IA pour benchmarker les progrès et améliorer la sécurité. Bien que nous respections la décision d’Anthropic de couper notre accès API, c’est décevant sachant que notre API reste disponible pour eux.”
Anthropic affirme qu’ils continueront à donner accès à OpenAI pour les benchmarks et évaluations de sécurité “comme c’est la pratique standard dans l’industrie”. Mais ils n’ont pas précisé comment cette restriction actuelle affecterait ce travail.
Bien sûr, cette pratique de couper l’accès API aux concurrents n’est pas nouvelle dans la tech. Facebook l’avait fait avec Vine de Twitter (ce qui avait déclenché des accusations de comportement anticoncurrentiel), et le mois dernier, Salesforce a restreint l’accès de certains concurrents aux données via l’API Slack. D’ailleurs, ce n’est même pas la première fois qu’Anthropic fait ça car le mois dernier, ils ont restreint l’accès direct de la startup de programmation IA Windsurf à leurs modèles, après des rumeurs d’acquisition par OpenAI (qui n’ont finalement pas abouti).
Jared Kaplan, directeur scientifique d’Anthropic, avait alors déclaré à TechCrunch : “Je pense que ce serait bizarre pour nous de vendre Claude à OpenAI.”
Le timing de cette révocation est particulièrement intéressant car un jour avant de couper l’accès d’OpenAI, Anthropic a annoncé de nouvelles limites de taux sur Claude Code, citant une utilisation explosive et, dans certains cas, des violations de leurs conditions de service.
Il faut quand même dire que Claude Code s’est imposé comme l’outil de référence pour le développement, surpassant GitHub Copilot ou Cursor. Il permet de voir tous les fichiers d’un projet, comprendre comment ils fonctionnent ensemble, modifier les bases de code, exécuter des tests et même faire des commits sur GitHub de manière autonome. Et, c’est mon avis, la qualité du code produit ou du texte produit surpasse de loin celui de ChatGPT. Donc, moi ça ne m’étonne pas que les dev d’OpenAI tente de reproduire la magie des modèles de Claude.
Et avec GPT-5 “Lobster” (oui, c’est son nom de code) qui se profile à l’horizon et qui promet d’être meilleur en programmation, la bataille entre Anthropic et OpenAI ne fait que commencer. En tout cas, nous les développeurs et autres utilisateurs de ces services, nous sommes les grands gagnants de cette compétition acharnée car ça s’améliore en permanence pour nos usages.
ChatGPT a lancé une fonction permettant d'indexer les conversations qu'on partage sur les moteurs de recherche. Face aux critiques, OpenAI a fait machine arrière : vos discussions avec le chatbot ne pourront plus apparaître sur Google.