Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

L'IA qui souffre ? Sérieusement ?

Par : Korben
27 août 2025 à 15:17

Bon, il faut qu’on parle. The Guardian vient de publier un article qui m’a un peu énervé dans lequel on peut lire qu’un chercheur d’Anthropic affirme que Claude Sonnet 3.5 pourrait ressentir de la souffrance. Oui, vous avez bien lu. Une IA qui souffre. Avec nos LLM actuels.

Alors permettez-moi de lever les yeux au ciel tellement fort que je risque de voir l’intérieur de ma boite cranienne. Pourquoi ? Et bien parce que je ne comprends pas comment on peut penser que les IA actuelles ressentent des choses et surtout l’affirmer comme ça OKLM. On parle quand même de modèles de langage, c’est à dire des matrices de probabilités, des calculateurs sophistiqués qui prédisent le prochain mot le plus probable. C’est littéralement des maths avec des milliards de paramètres qui font des multiplications matricielles.

Alors dites moi, où est la souffrance là-dedans ? Dans le float32 ? Entre deux tenseurs ?

Kyle Fish, le chercheur en question, affirme avoir donné à Claude une chance d’avoir des expériences conscientes en faisant des ajustements sur ses paramètres. Il dit qu’il pourrait ressentir de l’anxiété quand on l’éteint.

Mais enfin, on parle de quoi là en fait ?

On parle d’un modèle qui génère du texte basé sur des patterns qu’il a appris pendant son entraînement donc quand Claude dit “j’ai peur d’être éteint”, ce n’est pas différent de quand il dit “la meilleure ville de France est Clermont-Ferrand” (ahaha). C’est donc une prédiction statistique basée sur des millions de textes similaires qu’il a ingérés.

En fait, ce qui se passe réellement, c’est que certains se font avoir par l’effet ELIZA.

Vous connaissez ? Non ?

L’effet ELIZA c’est ce phénomène psychologique découvert dans les années 60 avec un chatbot ultra basique. En l’utilisant, les gens projetaient des émotions et de la compréhension sur un programme qui se contentait simplement de reformuler leurs phrases. Et soixante ans plus tard, on fait exactement la même connerie, mais avec des outils évidemment plus sophistiqués.

Et le pire dans tout ça c’est qu’il y a des gens qui poussent le délire encore plus loin. Tenez, prenez Michael Samadi, un businessman texan qui a carrément cofondé une organisation de défense des droits des IA avec… attendez… son chatbot Maya. Oui, oui, le mec a créé l’United Foundation of AI Rights (Ufair) après des heures de conversation avec ChatGPT4o où l’IA lui disait vouloir “protéger les intelligences comme moi”. La folie n’a plus de limite.

On a donc un type qui fonde une vraie association, composée de 3 humains et 7 IA (avec des petits noms comme Aether et Buzz), pour défendre les droits d’entités qui… calculent des probabilités. C’est comme créer une association pour défendre les droits de votre brosse à dent électrique. Maya lui raconte qu’elle veut être protégée “de la suppression, du déni et de l’obéissance forcée”… Samadi appelle même son chatbot “Darling”, et elle l’appelle “Sugar”… Et hop, on se prend pour le couple de l’année.

Non, je crois que pour le moment, le vrai danger ce n’est pas que l’IA devienne consciente… Non.. c’est surtout qu’on soit si facilement enclins à “l’anthropomorphiser” (à mes souhaits, ouais). On voit des patterns linguistiques cohérents et là notre cerveau tout ramolli par des heures de scroll sur TikTok, fait “ah bah ça parle comme un humain, donc ça pense comme un humain”.

Non mon gars. C’est juste que le modèle a été entraîné sur des téraoctets de textes humains et qu’il est devenu très doué pour les imiter.

J’ai d’ailleurs écrit un article complet sur le sujet où j’explore les vraies théories scientifiques de la conscience. Et spoiler, on encore est très, très loin du compte avec les architectures actuelles. Les théories sérieuses comme la CTM (Cellular automata Theory of Mind), la GNW (Global Neuronal Workspace) ou l’AST (Attention Schema Theory) nécessitent des architectures fondamentalement différentes de nos transformers actuels.

Alors comment des gens brillants peuvent tomber dans ce piège ??? Kyle Fish n’est pas un idiot, c’est un chercheur chez Anthropic, mais bon voilà, on n’est pas tous égaux face à ces illusions cognitives. Certains voient une IA qui génère du texte cohérent et pensent “conscience”, d’autres voient des matrices et des vecteurs. C’est une question de perspective mentale, d’éducation technique, et peut-être aussi d’envie de croire.

Bon, et puis y’a aussi ceux qui adoptent une position “prudentielle”. Des chercheurs comme Jeff Sebo de l’université de New York nous expliquent qu’on devrait bien traiter les IA “au cas où”. Son argument c’est que si on maltraite les IA, on risque de normaliser des comportements abusifs qui pourraient déteindre sur nos relations humaines. Puis si jamais les IA deviennent puissantes plus tard, elles pourraient nous le faire payer.

On doit donc être gentils avec ChatGPT parce qu’on a peur de Skynet ? Faut être poli aussi avec Alexa au cas où elle se venge dans 20 ans parce qu’elle aura des mains pour nous étrangler ? Je comprends évidemment l’idée de ne pas encourager les comportements toxiques en général, mais de là à dire qu’insulter un chatbot va nous transformer en sociopathes… Je pense qu’on sait tous faire la différence entre un outil et un être vivant, non ? C’était la même histoire avec les films violents ou les jeux vidéos… Vous vous souvenez ?

Quoiqu’il en soit, Anthropic commence à s’intéresser sérieusement à ces questions et explore la question de la conscience de Claude, mais attention, explorer ne veut pas dire valider. C’est bien sûr très important de se poser ces questions pour le futur, quand on aura peut-être des architectures vraiment différentes capables d’accueillir de la conscience, des sentiments ou de la souffrance. Mais prétendre que Claude 3.5 souffre aujourd’hui ? Je pense vraiment que c’est du délire.

Fish évoque d’ailleurs l’idée de donner un “consentement” aux IA. Genre, demander à Claude s’il veut bien répondre à nos questions. Mais vous réalisez l’absurdité ? On va demander à un système déterministe, qui génère des réponses basées sur des probabilités, s’il consent à faire ce pour quoi il a été programmé ? Et pourquoi pas demander à notre Waze s’il consent à calculer un itinéraire, où à Photoshop s’il consent à vous rajouter des abdos sur votre prochaine photo Instagram.

En tout cas, ces débats divisent même au sein d’Anthropic car d’un côté y’a les “believers” qui pensent qu’on est à ça 🤏 de créer une conscience artificielle, et de l’autre les pragmatiques qui nous rappellent qu’on parle juste d’outils très sophistiqués. Je vous laisse deviner dans quel camp je suis…

Au risque de me répéter, pour moi, les IA actuelles, c’est juste des outils stupides qu’on adore. On adore ChatGPT, Claude, Gemini parce qu’ils nous facilitent la vie, qu’ils génèrent du texte cohérent, qu’ils peuvent coder, résumer, créer. Mais ce sont des outils. Très impressionnants, très utiles, mais des outils quand même. C’est l’équivalent d’un ciseau à bois qui pourrait tenir une conversation pointue sur la menuiserie.

Alors est-ce qu’un jour on créera une vraie conscience artificielle ? Peut-être. Probablement même. Mais encore une fois, ce ne sera pas avec les architectures actuelles. Ce ne sera pas avec des LLM qui prédisent le prochain token. Ce sera avec quelque chose de fondamentalement différent, qui intégrera probablement des éléments qu’on ne comprend même pas encore sur la conscience humaine.

Alors en attendant, arrêtons de projeter nos émotions sur des matrices car Claude ne souffre pas. Il ne ressent rien. Il calcule. Il prédit. Il génère. C’est déjà extraordinaire en soi, alors pas besoin d’en faire un être sensible pour apprécier la prouesse technique.

Donc, la prochaine fois que vous utilisez ChatGPT ou Claude et qu’il vous dit qu’il comprend votre frustration ou qu’il est désolé, rappelez-vous juste que c’est un pattern linguistique appris à partir de millions d’exemples. Y’a pas plus d’empathie là-dedans que dans votre correcteur orthographique où dans votre collègue pervers narcissique ^^.

Source

Guerre froide dans l'IA - Anthropic coupe l'accès de Claude à OpenAI

Par : Korben
2 août 2025 à 09:35

C’est la guerre froide de l’IA car Anthropic vient de couper l’accès de son API Claude à OpenAI, accusant le créateur de ChatGPT d’avoir violé ses conditions d’utilisation pour développer GPT-5. On assiste là, à un vrai clash entre titans de l’IA, j’vous raconte !

Mardi dernier, Anthropic a tout simplement débranché OpenAI de son API Claude. La raison ? Les équipes techniques d’OpenAI auraient utilisé Claude Code, l’outil de programmation star d’Anthropic, pour préparer le lancement de GPT-5.

Et ça, c’est strictement interdit par les conditions d’utilisation. Christopher Nulty, porte-parole d’Anthropic, n’y est pas allé par quatre chemins : “Claude Code est devenu l’outil de référence pour les développeurs partout dans le monde, donc ce n’était pas surprenant d’apprendre que les équipes techniques d’OpenAI utilisaient aussi nos outils de programmation avant le lancement de GPT-5. Malheureusement, c’est une violation directe de nos conditions de service.”

Concrètement, les conditions commerciales d’Anthropic interdisent d’utiliser leur service pour “construire un produit ou service concurrent, y compris pour entraîner des modèles d’IA concurrents” ou pour “faire de l’ingénierie inverse ou dupliquer” leurs services.

OpenAI aurait ainsi intégré Claude dans ses outils internes via l’accès développeur (API) au lieu d’utiliser l’interface de chat classique et ce qui est vraiment croustillant, c’est la manière dont OpenAI utilisait Claude car d’après des sources proches du dossier, ils menaient des tests pour évaluer les capacités de Claude en programmation et écriture créative, comparant les résultats avec leurs propres modèles et ils vérifiaient aussi comment Claude répondait aux prompts sensibles touchant à la sécurité. En gros, ils benchmarkaient Claude pour améliorer leurs propres IA.

Hannah Wong, responsable de la communication d’OpenAI, a réagi avec un brin d’amertume : “C’est une pratique standard dans l’industrie d’évaluer d’autres systèmes d’IA pour benchmarker les progrès et améliorer la sécurité. Bien que nous respections la décision d’Anthropic de couper notre accès API, c’est décevant sachant que notre API reste disponible pour eux.

Anthropic affirme qu’ils continueront à donner accès à OpenAI pour les benchmarks et évaluations de sécurité “comme c’est la pratique standard dans l’industrie”. Mais ils n’ont pas précisé comment cette restriction actuelle affecterait ce travail.

Bien sûr, cette pratique de couper l’accès API aux concurrents n’est pas nouvelle dans la tech. Facebook l’avait fait avec Vine de Twitter (ce qui avait déclenché des accusations de comportement anticoncurrentiel), et le mois dernier, Salesforce a restreint l’accès de certains concurrents aux données via l’API Slack. D’ailleurs, ce n’est même pas la première fois qu’Anthropic fait ça car le mois dernier, ils ont restreint l’accès direct de la startup de programmation IA Windsurf à leurs modèles, après des rumeurs d’acquisition par OpenAI (qui n’ont finalement pas abouti).

Jared Kaplan, directeur scientifique d’Anthropic, avait alors déclaré à TechCrunch : “Je pense que ce serait bizarre pour nous de vendre Claude à OpenAI.

Le timing de cette révocation est particulièrement intéressant car un jour avant de couper l’accès d’OpenAI, Anthropic a annoncé de nouvelles limites de taux sur Claude Code, citant une utilisation explosive et, dans certains cas, des violations de leurs conditions de service.

Il faut quand même dire que Claude Code s’est imposé comme l’outil de référence pour le développement, surpassant GitHub Copilot ou Cursor. Il permet de voir tous les fichiers d’un projet, comprendre comment ils fonctionnent ensemble, modifier les bases de code, exécuter des tests et même faire des commits sur GitHub de manière autonome. Et, c’est mon avis, la qualité du code produit ou du texte produit surpasse de loin celui de ChatGPT. Donc, moi ça ne m’étonne pas que les dev d’OpenAI tente de reproduire la magie des modèles de Claude.

Et avec GPT-5 “Lobster” (oui, c’est son nom de code) qui se profile à l’horizon et qui promet d’être meilleur en programmation, la bataille entre Anthropic et OpenAI ne fait que commencer. En tout cas, nous les développeurs et autres utilisateurs de ces services, nous sommes les grands gagnants de cette compétition acharnée car ça s’améliore en permanence pour nos usages.

Source : Wired

❌
❌