Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Download OpenAI open-weight models gpt-oss:20/gpt-oss:120 in Ollama and use in VS Code GitHub Copilot

OpenAI has just released its first open-weight models, gpt-oss:20 and gpt-oss:120, enabling you to run these surprisingly powerful models locally, which benefits security and privacy. I downloaded gpt-oss:20 and tested it on my laptop using Ollama and within VS Code with GitHub Copilot. To my surprise, the 20 billion parameter model gpt-oss:20 responded to my prompt.

Source

Le coup de maître d'OpenAI qui cache une stratégie à 500 milliards

Vous savez ce qui m’a le plus questionné dans cette annonce d’OpenAI dont tout le monde parle ? Pas le fait qu’ils offrent ChatGPT Enterprise aux agences fédérales américaines pour 1 dollar. Non, c’est surtout que ça arrive pile poil au moment où la boîte négocie une valorisation à 500 milliards de dollars avec ses investisseurs.

Un dollar contre 500 milliards. Ça vous paraît logique comme calcul ?

À moi non plus.

La réalité, c’est qu’OpenAI vient de jouer l’un des coups les plus brillants de l’histoire de la tech et contrairement à ce qu’on pourrait croire, cette “générosité” n’a rien de charitable. C’est du business pur et dur, orchestré avec une précision chirurgicale. Parce que voyez-vous, OpenAI a déjà empoché un contrat de 200 millions de dollars avec le Département de la Défense en juin dernier. Ils ont alors lancé “OpenAI for Government” et obtenu l’approbation officielle de la GSA (General Services Administration) comme fournisseur agréé pour les agences fédérales. Cette offre à 1 dollar, c’est donc juste la cerise sur le gâteau.

L’astuce (selon moi), c’est qu’ils viennent de transformer le gouvernement américain en client captif. Des milliers de fonctionnaires qui vont s’habituer à utiliser ChatGPT au quotidien, qui vont intégrer l’outil dans leurs workflows, leurs processus, leurs habitudes. Et au bout d’un moment, quand OpenAI reviendra avec un tarif “normal”, croyez-vous que le gouvernement pourra s’en passer et revenir à l’age de pierre ?

C’est exactement la stratégie du dealer qui offre la première dose gratuite.

Mais le plus top moumoute dans toute cette histoire (et vous pouvez me traiter de parano), c’est l’accès aux données que ça leur offre. Parce qu’avec ChatGPT Gov qui permet aux agences d’y injecter des “informations sensibles non-publiques”, OpenAI va avoir une vision privilégiée sur les tendances, les projets, les préoccupations du gouvernement américain. Pas besoin d’espionner quand vos “clients” vous donnent volontairement accès à leurs réflexions stratégiques.

OpenAI demande même au gouvernement américain d’évaluer “le niveau de données disponible pour entrainer les IA américaines” et pousse pour que les lois fédérales préemptent les réglementations des États. En gros, ils veulent façonner le cadre réglementaire à leur avantage tout en ayant un accès privilégié aux rouages du pouvoir.

OpenAI veut devenir puissant.

D’un point de vue investisseurs, c’est du caviar. Montrer qu’on a le gouvernement américain dans sa poche, c’est le genre d’argument qui fait monter les valorisations. Surtout quand on sait que les contrats publics, une fois établis, sont rarement remis en question et peuvent durer des décennies.

Au final, cette opération séduction va rapporter bien plus que les quelques millions “perdus” sur cette offre symbolique car entre les futurs contrats gouvernementaux, l’influence réglementaire et la crédibilité que ça apporte face aux investisseurs, ça parle déjà d’un retour sur investissement qui se chiffre en milliards.

OpenAI n’est pas votre ami. OpenAI devient naturellement l’extension technologique d’Oncle Sam et vous verrez, dans quelques années, quand on parlera de dépendance technologique, on citera cette manœuvre comme un cas d’école, j’en suis convaincu !

50 000 confessions ChatGPT ont fuité - De l'avocat ripou au dissident en danger

Vous savez ce qui est pire que de se confier à un psy qui prend des notes ?

Bah c’est se confier à ChatGPT en pensant que c’est privé, évidemment !

Un chercheur du nom de Digital Digging vient de révéler que 50 000 conversations ChatGPT ont fuité sur Google, et le contenu est explosif. Un avocat qui demande comment virer une communauté indigène d’Amazonie, des dissidents arabes qui critiquent leur gouvernement, et des PDG qui balancent leurs secrets d’entreprise comme si c’était Snapchat.

Le truc complètement dingue, c’est que tout ça vient d’une petite checkbox innocente dans la fonction de partage de ChatGPT. Vous savez, c’est ce bouton “Share” que tout le monde utilise pour montrer ses prompts géniaux à ses potes. Sauf qu’il y avait une option “Make this chat discoverable” que personne ne lisait vraiment. Du coup Google a indexé toutes ces conversations, et n’importe qui pouvait tomber dessus en cherchant les bons mots-clés.

Digital Digging a ainsi analysé 512 de ces conversations publiques et a découvert que 20% contenaient des informations sensibles ou potentiellement compromettantes : Des victimes de violence domestique qui planifient leur fuite, des professionnels de santé qui partagent des protocoles de traitement détaillés (bonjour le secret médical), et même des utilisateurs qui décrivent des activités cyber-criminelles potentielles. Certains utilisateurs arabes ont partagé des critiques du gouvernement égyptien, ce qui pourrait littéralement leur coûter leur liberté.

L’exemple le plus choquant reste quand même cet avocat d’une compagnie énergétique qui demandait conseil pour négocier le déplacement d’une communauté indigène en Amazonie. Le mec demandait littéralement comment obtenir “le prix le plus bas possible dans les négociations”. Si ça c’est pas un scénario de méchant de James Bond, je sais pas ce que c’est. Et tout ça, accessible publiquement pendant des mois avant qu’OpenAI ne réagisse.

OpenAI a bien essayé de faire le ménage en urgence. Ils ont supprimé les URLs originales, ajouté des tags noindex et nofollow, et demandé à Google de tout désindexer. Gizmodo rapporte qu’ils ont tenté de retirer près de 50 000 conversations de l’index Google. Le CISO d’OpenAI a même qualifié ça d’"expérience de courte durée pour aider les gens à découvrir des conversations utiles". Lol.

Mais voilà le problème : Internet n’oublie jamais. Archive.org, la Wayback Machine, a sauvegardé plus de 110 000 de ces conversations avant qu’OpenAI ne puisse réagir. Et Digital Digging confirme qu’OpenAI n’a même pas demandé à Archive.org de supprimer ces archives. Mark Graham, le directeur de la Wayback Machine, a confirmé qu’aucune demande d’exclusion à grande échelle n’a été faite. Du coup, toutes ces confessions sont encore accessibles pour qui sait où chercher.

Ce qui ressort de cette affaire, c’est surtout que les gens traitent ChatGPT comme un confessionnal numérique. Ils partagent leurs secrets les plus sombres, leurs plans d’affaires confidentiels, leurs problèmes personnels, en pensant que c’est entre eux et la machine. Sauf que non. Dès que vous cliquez sur “Share”, vous créez potentiellement une trace permanente sur Internet. Et même si OpenAI supprime tout de son côté, des dizaines de services d’archivage ont déjà fait des copies.

OpenAI, la boîte qui nous sermonne constamment sur l’importance de l’IA “sûre et responsable”, vient donc de créer la plus grande base de données de confessions publiques de l’histoire de l’humanité. Ils ont littéralement transformé leur chatbot en piège à secrets, et maintenant des milliers de personnes découvrent que leurs conversations privées sont consultables par n’importe qui avec une connexion Internet.

Pour les victimes de cette fuite (qui je le rappelle on quand même cliqué sur “Share” donc bon…), les conséquences peuvent être dramatiques. On parle de personnes qui ont révélé des informations pouvant détruire leur carrière, leur mariage, voire les mettre en danger physique dans le cas des dissidents politiques.

Bref, traitez ChatGPT comme vous traiteriez Twitter ou Facebook. Si vous ne voulez pas que ça se retrouve sur la place publique, ne le partagez pas. Et surtout, SURTOUT, lisez les petites cases à cocher avant de cliquer sur “Partager” parce qu’entre “partager avec un ami” et “indexer sur Google pour l’éternité”, il n’y a qu’une checkbox de différence.

Comme d’hab sur Internet, rien n’est vraiment privé, et ce qui est mis en ligne le reste pour toujours. Même quand c’est censé être une conversation privée…

OpenAI libère enfin ses modèles open-weight GPT-OSS - Comment les utiliser ?

OpenAI vient de lâcher dans la nature ses premiers modèles open-weight depuis GPT-2, et apparemment, c’est du lourd. Après 5 longues années à garder jalousement ses modèles bien au chaud derrière des API payantes, Sam Altman et sa bande balancent donc gpt-oss-120b et gpt-oss-20b, deux modèles que vous pouvez télécharger gratuitement sur Hugging Face et faire tourner chez vous.

Ils ont claqué des milliards de dollars en recherche pour créer ces modèles, et maintenant ils les offrent au monde entier sous licence Apache 2.0. C’est beau !

Pour ceux qui se demandent ce que ça change, un modèle open-weight c’est comme avoir accès au moteur d’une voiture avec le capot grand ouvert. Vous pouvez voir comment ça fonctionne, bidouiller les paramètres internes, et surtout, le faire tourner en local sans connexion internet. Greg Brockman, le cofondateur d’OpenAI, explique que c’est complémentaire à leurs services payants comme ChatGPT et l’avantage, c’est que vos données ne partent pas dans le cloud.

Les deux nouveaux modèles utilisent l’approche chain-of-thought qu’OpenAI a introduite avec son modèle o1 l’automne dernier. Cela veut dire que au lieu de balancer une réponse directe, l’IA passe par plusieurs étapes de raisonnement pour répondre à vos questions. Ces modèles text-only ne sont pas multimodaux (donc pas d’images ou de sons), mais ils peuvent naviguer sur le web, appeler d’autres modèles cloud pour certaines tâches, exécuter du code et même agir comme des agents IA autonomes.

Le plus petit des deux, gpt-oss-20b avec ses 21 milliards de paramètres (dont 3,6 milliards actifs), est suffisamment compact pour tourner sur une machine avec 16 Go de RAM. Le gros calibre, gpt-oss-120b avec ses 117 milliards de paramètres (5,1 milliards actifs), nécessite 80 Go de mémoire et tourne idéalement sur une seule GPU H100. Les deux supportent un contexte de 128 000 tokens, soit l’équivalent de 300-400 pages de roman que vous pouvez balancer d’un coup.

D’après les benchmarks, gpt-oss-120b atteint quasiment les performances d’OpenAI o4-mini sur les tâches de raisonnement, tandis que gpt-oss-20b s’approche d’o3-mini. Sur une RTX 5090, vous pouvez atteindre jusqu’à 256 tokens par seconde, ce qui est franchement impressionnant pour du local. Avec l’architecture Mixture-of-Experts (MoE) et la précision native MXFP4, ces modèles sont optimisés pour tourner efficacement même sur du matériel grand public.

Bon, passons aux choses sérieuses avec le tutoriel Ollama pour faire tourner tout ça chez vous.

Installation d’Ollama

D’abord, installez Ollama si ce n’est pas déjà fait. Sur macOS, ouvrez un terminal et tapez :

brew install ollama

Sur Linux, c’est encore plus simple :

curl -fsSL https://ollama.ai/install.sh | sh

Pour Windows, téléchargez directement l’installateur sur ollama.com et suivez les instructions.

Lancement du serveur Ollama

Une fois installé, démarrez le serveur Ollama :

ollama serve

Le serveur va se lancer sur le port 11434 par défaut. Laissez cette fenêtre de terminal ouverte.

Téléchargement et exécution des modèles gpt-oss

Dans un nouveau terminal, vous pouvez maintenant télécharger et lancer les modèles. Pour le modèle léger gpt-oss-20b (idéal si vous avez 16 Go de RAM minimum) :

ollama pull gpt-oss:20b
ollama run gpt-oss:20b

Pour le modèle plus costaud gpt-oss-120b (nécessite au moins 80 Go de RAM ou un bon GPU) :

ollama pull gpt-oss:120b
ollama run gpt-oss:120b

Configuration du niveau de raisonnement

Une fonctionnalité sympa de ces modèles, c’est que vous pouvez ajuster l’effort de raisonnement selon vos besoins. Dans Ollama, vous pouvez configurer ça avec :

ollama run gpt-oss:20b --reasoning low # Pour des réponses rapides
ollama run gpt-oss:20b --reasoning medium # Équilibré (par défaut)
ollama run gpt-oss:20b --reasoning high # Pour des analyses complexes

Utilisation avec Python

Si vous préférez intégrer ça dans vos scripts Python, installez le package officiel :

pip install ollama

Puis utilisez-le comme ceci :

import ollama

response = ollama.chat(model='gpt-oss:20b', messages=[
{
'role': 'user',
'content': 'Explique-moi la différence entre un modèle open-weight et open-source',
},
])
print(response['message']['content'])

Alternative avec Hugging Face CLI

Si vous voulez télécharger directement depuis Hugging Face pour plus de contrôle :

# Installation de Hugging Face CLI
pip install huggingface-hub

# Téléchargement de gpt-oss-20b
huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/

# Téléchargement de gpt-oss-120b
huggingface-cli download openai/gpt-oss-120b --include "original/*" --local-dir gpt-oss-120b/

Optimisations pour cartes NVIDIA RTX

Si vous avez une carte NVIDIA RTX, vous pouvez bénéficier d’optimisations spécifiques car Ollama détecte automatiquement votre GPU et applique les optimisations. Donc pour vérifier que votre GPU est bien détectée :

nvidia-smi # Pour voir votre GPU
ollama list # Pour voir les modèles disponibles

Quelques commandes utiles

Pour lister tous les modèles installés :

ollama list

Pour supprimer un modèle si vous manquez d’espace :

ollama rm gpt-oss:120b

Pour voir les logs et débugger si ça plante :

ollama logs

Le fait qu’OpenAI ait attendu mars pour annoncer ces modèles puis les ait retardés pour des tests de sécurité supplémentaires montre qu’ils prennent le sujet au sérieux. Eric Wallace, chercheur en sécurité chez OpenAI, explique qu’ils ont même fine-tuné les modèles en interne sur des scénarios à risque pour mesurer jusqu’où un “bad actor” pourrait les pousser. Résultat, les modèles n’ont pas atteint un niveau de risque élevé selon leur framework de préparation.

Pour finir, OpenAI s’est associé avec Azure, vLLM, llama.cpp, LM Studio, AWS, Fireworks, Together AI et plein d’autres plateformes pour rendre ces modèles accessibles partout. Microsoft propose même AI Foundry Local sur Windows où vous pouvez juste taper foundry model run gpt-oss-20b dans un terminal pour commencer.

Voilà, vous avez tout ce qu’il faut pour jouer avec les nouveaux jouets d’OpenAI. C’est quand même fou de voir OpenAI revenir à ses racines open source après toutes ces années à s’enfermer. Avec la licence Apache 2.0, vous pouvez utiliser ces modèles commercialement, les redistribuer, et les intégrer dans vos propres projets.

Pour plus d’infos, consultez le dépôt GitHub officiel ou la page Ollama dédiée. Allez-y, téléchargez, testez, et surtout, amusez-vous bien avec ces nouveaux modèles. Le futur de l’IA locale commence maintenant, et il est entre vos mains.

Guerre froide dans l'IA - Anthropic coupe l'accès de Claude à OpenAI

C’est la guerre froide de l’IA car Anthropic vient de couper l’accès de son API Claude à OpenAI, accusant le créateur de ChatGPT d’avoir violé ses conditions d’utilisation pour développer GPT-5. On assiste là, à un vrai clash entre titans de l’IA, j’vous raconte !

Mardi dernier, Anthropic a tout simplement débranché OpenAI de son API Claude. La raison ? Les équipes techniques d’OpenAI auraient utilisé Claude Code, l’outil de programmation star d’Anthropic, pour préparer le lancement de GPT-5.

Et ça, c’est strictement interdit par les conditions d’utilisation. Christopher Nulty, porte-parole d’Anthropic, n’y est pas allé par quatre chemins : “Claude Code est devenu l’outil de référence pour les développeurs partout dans le monde, donc ce n’était pas surprenant d’apprendre que les équipes techniques d’OpenAI utilisaient aussi nos outils de programmation avant le lancement de GPT-5. Malheureusement, c’est une violation directe de nos conditions de service.”

Concrètement, les conditions commerciales d’Anthropic interdisent d’utiliser leur service pour “construire un produit ou service concurrent, y compris pour entraîner des modèles d’IA concurrents” ou pour “faire de l’ingénierie inverse ou dupliquer” leurs services.

OpenAI aurait ainsi intégré Claude dans ses outils internes via l’accès développeur (API) au lieu d’utiliser l’interface de chat classique et ce qui est vraiment croustillant, c’est la manière dont OpenAI utilisait Claude car d’après des sources proches du dossier, ils menaient des tests pour évaluer les capacités de Claude en programmation et écriture créative, comparant les résultats avec leurs propres modèles et ils vérifiaient aussi comment Claude répondait aux prompts sensibles touchant à la sécurité. En gros, ils benchmarkaient Claude pour améliorer leurs propres IA.

Hannah Wong, responsable de la communication d’OpenAI, a réagi avec un brin d’amertume : “C’est une pratique standard dans l’industrie d’évaluer d’autres systèmes d’IA pour benchmarker les progrès et améliorer la sécurité. Bien que nous respections la décision d’Anthropic de couper notre accès API, c’est décevant sachant que notre API reste disponible pour eux.

Anthropic affirme qu’ils continueront à donner accès à OpenAI pour les benchmarks et évaluations de sécurité “comme c’est la pratique standard dans l’industrie”. Mais ils n’ont pas précisé comment cette restriction actuelle affecterait ce travail.

Bien sûr, cette pratique de couper l’accès API aux concurrents n’est pas nouvelle dans la tech. Facebook l’avait fait avec Vine de Twitter (ce qui avait déclenché des accusations de comportement anticoncurrentiel), et le mois dernier, Salesforce a restreint l’accès de certains concurrents aux données via l’API Slack. D’ailleurs, ce n’est même pas la première fois qu’Anthropic fait ça car le mois dernier, ils ont restreint l’accès direct de la startup de programmation IA Windsurf à leurs modèles, après des rumeurs d’acquisition par OpenAI (qui n’ont finalement pas abouti).

Jared Kaplan, directeur scientifique d’Anthropic, avait alors déclaré à TechCrunch : “Je pense que ce serait bizarre pour nous de vendre Claude à OpenAI.

Le timing de cette révocation est particulièrement intéressant car un jour avant de couper l’accès d’OpenAI, Anthropic a annoncé de nouvelles limites de taux sur Claude Code, citant une utilisation explosive et, dans certains cas, des violations de leurs conditions de service.

Il faut quand même dire que Claude Code s’est imposé comme l’outil de référence pour le développement, surpassant GitHub Copilot ou Cursor. Il permet de voir tous les fichiers d’un projet, comprendre comment ils fonctionnent ensemble, modifier les bases de code, exécuter des tests et même faire des commits sur GitHub de manière autonome. Et, c’est mon avis, la qualité du code produit ou du texte produit surpasse de loin celui de ChatGPT. Donc, moi ça ne m’étonne pas que les dev d’OpenAI tente de reproduire la magie des modèles de Claude.

Et avec GPT-5 “Lobster” (oui, c’est son nom de code) qui se profile à l’horizon et qui promet d’être meilleur en programmation, la bataille entre Anthropic et OpenAI ne fait que commencer. En tout cas, nous les développeurs et autres utilisateurs de ces services, nous sommes les grands gagnants de cette compétition acharnée car ça s’améliore en permanence pour nos usages.

Source : Wired

❌