Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 16 mai 2026Flux principal

GitLike - Le GitHub décentralisé sur IPFS

Par : Korben ✨
16 mai 2026 à 09:42

Branislav Đalić, un dev serbe basé à Belgrade, vient de balancer un projet plutôt original baptisé GitLike . Il s'agit d'un GitHub décentralisé qui stocke vos repos sur IPFS et remplace le mot de passe par votre clé Ethereum (votre wallet quoi...).

Vous connectez votre wallet via SIWE (le standard EIP-4361, signature dans MetaMask ou WalletConnect), vous créez un repo, et hop, chaque commit, chaque fichier, chaque arbre devient un objet IPFS adressé par son CID. Tout pareil que Git côté usage, sauf que derrière y'a pas de serveur GitHub mais un simple Worker Cloudflare qui orchestre Pinata ou Filebase pour pinner vos données.

Côté install, la doc propose tout simplement de faire un npm install -g gitlike avec ensuite l'utiliser avec les commandes Git habituelles (init, clone, push, pull, branch), sauf que le package n'est pas encore publié sur npm public pour l'instant. Du coup, faudra patienter ou aller chercher le code directement dans le repo GitHub si vous voulez bricoler dès aujourd'hui.

La doc officielle mais l'install npm marche pas.

L'architecture tient en 3 étages bien séparés. Votre navigateur s'occupe de l'interface et de la signature avec le wallet, un petit serveur Cloudflare joue les videurs en backend (qui a le droit d'écrire, dans quel ordre, à quelle vitesse), et IPFS stocke tout le code en mode décentralisé via Pinata ou Filebase.

Et si vos repos doivent rester privés, vous pouvez activer un chiffrement qui se fait directement dans votre navigateur, comme ça personne d'autre ne lit vos fichiers en clair. En gros, votre onglet de navigateur fait office de vitrine, le Worker joue le mec de la sécu, et IPFS sert de coffre-fort distribué.

Le truc cool, c'est que GitLike peut importer votre code directement depuis GitHub ou GitLab, donc migrer un projet existant ne prend que quelques clics ! Et vous retrouvez tout le confort moderne, à savoir les pull requests avec gestion des conflits, des règles de protection sur les branches sensibles, et même un système pour déléguer l'écriture à un agent IA avec un périmètre limité dans le temps et l'espace (genre, commit uniquement sur telle branche, et seulement pendant 24h).

Sympa, donc, pour vibe coder avec un agent 100% autonome sans pour autant lui filer toutes vos clés et qu'il ne détruise tout dans une apocalypse nucléaire (Quoi, j'en fais trop ?)

Après même si l'idée semble sympa, je trouve que ça déplace le risque plutôt que de le faire disparaître. Parce que si vous paumez votre wallet, vous perdez l'accès en écriture (et possiblement en lecture si c'est chiffré) à tous vos repos, et y'a plus qu'à recommencer. Donc sauvegarder votre seed phrase (les 12 ou 24 mots de récupération du wallet, vous savez) est donc critique !

Quand on voit le rythme auquel GitHub colle ses nouveautés derrière Copilot Pro, c'est peut-être une solution intéressante que de décentraliser tout ça. J'ai fait un article aussi sur Patreon pour tous ceux qui voudraient se barrer de Github.

Côté concurrence, vous trouverez également Radicle qui fonctionne en peer-to-peer pur (mais demande un daemon local) ou l'ancien Mango (Ethereum + IPFS, mais plus trop maintenu). GitLike, lui, mise tout sur le navigateur et votre wallet, donc c'est plus simple !

Après c'est jeune et faut voir ça plus comme un proof of concept solide qu'un GitHub-killer. Mais ça tient bien la route et je trouve l'idée d'un Git contrôlé par un wallet ethereum plutôt classe. C'est peut-être ça le vrai web3 ;)))

Allez donc jeter un œil à gitlike.dev !

À partir d’avant-hierFlux principal

Un robot qui construit des maisons en argile

Par : Korben ✨
4 mai 2026 à 15:26

Vous connaissez ICON, qui imprime des maisons en béton avec ses grosses machines ? Hé bien Terran Robotics fait en fait pareil, mais avec de la terre, ou plutôt avec l'argile extraite directement du terrain. Du coup ça revient carrément moins cher.

Leur techno consiste en un robot suspendu par des câbles entre quatre tourelles dressées aux coins du chantier qui crache de l'argile. Zach Dwiel (CEO, ex-Intel) et Danny Weddle (CDO, architecte) ont développé ce système depuis 2019 et leur premier chantier est actuellement en cours.

D'abord la pince robotisée ramasse l'argile sur place. Ensuite elle la dépose couche par couche sur les murs en construction. Un outil de compactage tasse chaque dépôt, et des caméras couplées à du machine learning évaluent la qualité de la paroi en continu.

Le matériau c'est ce qu'on appelle de l'adobe . Rien à voir avec Photoshop, hein... De l'adobe c'est un mélange entre de l'argile, de la terre, de l'eau et de la paille. L'avantage c'est que tout est sourcé directement sur le terrain.

Bon, ça suppose que la terre soit suffisamment argileuse, ce qui n'est pas garanti partout, mais dans la plupart des cas ça passe. D'après l'un des inventeurs : "C'est le matériau le moins cher pour construire. Notre but c'est le logement abordable." L'adobe offre en prime une bonne inertie thermique et régule naturellement l'humidité et le son.

Source : Terran Robotics

Par contre, je vais rien leur dire mais de ce que je connais au BTP, c'est quand même pas l'idée du siècle de construire SUR un terrain argileux à cause du gonflement et de la rétractation de l'argile en période de pluie / sécheresse... Breeeef, j'suis pas sûr que j'opterai pour ça moi... Après si l'argile est récupérée plus loin, pourquoi pas...

Quoi qu'il en soit, la première maison sort au Texas, sur le campus Proto-Town, un terrain de 485 hectares près de Lockhart financé par Josh Kushner, Bill Ackman et Fred Ehrsam (co-fondateur de Coinbase).

Ce 1er chantier a 2 murs en adobe et 2 en bois seulement pour tester... Mais la prochaine maison sera réalisée 100% en terre et ils visent la construction de 20 maisons cette année. La portabilité c'est l'argument fort de cette techno car au lieu de déplacer un gros engin qui mobilise une logistique complète, tout tient dans un petit camion. Ainsi, un opérateur peut gérer plusieurs chantiers simultanément.

Comparé à de l'impression 3D béton à la ICON, le fait d'utiliser directement ce qui se trouve sur le terrain, c'est moins de capital de départ, moins de matière transportée, et surtout c'est déployable n'importe où. C'est le principe des robots à câbles parallèles (CDPR) appliqué au bâtiment... dans l'esprit des projets robotiques open source mais à l'échelle d'une maison entière !

Bref, construire avec de l'argile je trouve ça chouette car c'est quand même une méthode qui a fait ses preuves et que l'humain emploie depuis des millénaires. Mais construire sur de l'argile, j'suis moins fan. Quoi qu'il en soit, c'est une chouette invention je trouve !

Source : KXAN / Terran Robotics / Proto-Town

Anthropic teste le retrait de Claude Code pour les nouveaux abonnés Pro à 20 dollars

22 avril 2026 à 09:38

Environ 2% des nouveaux abonnés Pro d'Anthropic ne peuvent plus utiliser Claude Code, le CLI de codage maison. L'info vient de The Register ce mardi, et l'entreprise parle d'un test A/B temporaire.

Sauf que la page tarifaire publique, elle, a bien été modifiée, avec des croix qui remplacent les coches en face de Claude Code sur la ligne Pro à 20 dollars par mois.

Le responsable de la croissance chez Anthropic, Amol Avasare, a tenté de calmer le jeu. Dans une réponse publique, il a confirmé qu'il s'agit d'un test sur environ 2% des nouveaux abonnés, en précisant que les abonnés Pro et Max existants ne sont pas touchés. Il a aussi promis que tout changement qui affecterait les abonnés actuels serait précédé d'un préavis large. Très bien.

Derrière le test, il y a un vrai souci économique. Quand Max a été lancé il y a un an, Claude Code n'était pas inclus dans l'abonnement. La fonction a été ajoutée depuis, et Anthropic reconnaît que l'usage a beaucoup changé, que l'engagement par abonné explose, et que les plans actuels n'ont pas été pensés pour ce niveau de consommation.

En clair, les 20 dollars mensuels ne couvrent pas le coût des tokens brûlés par des développeurs qui font tourner Claude Code toute la journée sur leurs projets.

Le problème de ce genre de test, c'est qu'il se passe à la vue de tous. Un test A/B est censé tester silencieusement deux variantes sur un petit segment d'utilisateurs. Quand la documentation publique change et que tout le monde voit Claude Code disparaître de la ligne Pro, on n'est plus vraiment dans le test, on est dans le flottement.

En pratique, un développeur qui souscrit aujourd'hui ne sait pas si Claude Code sera inclus ou pas. Du coup certains abonnés parlent de modification de plan sans préavis et évoquent carrément des alternatives chinoises moins chères comme porte de sortie.

Maintenant il faut savoir qu'Anthropic n'est pas le seul à serrer la vis. GitHub Copilot et Google Gemini Code Assist ont connu les mêmes tensions sur leurs quotas, face à une demande qui dépasse ce que les marges permettent de subventionner.

Un Pro à 20 dollars avec du Claude Code illimité, ça ressemblait quand même à un cadeau subventionné pour les premiers abonnés. À un moment, la facture arrive.

Bref, Anthropic veut faire passer la pilule sans le dire. Si l'usage a explosé au point de casser l'économie du plan, un vrai changement de tarif aurait été plus honnête qu'un test planqué.

Source : The Register

Des startups mortes revendent leurs Slack, emails et tickets Jira pour entraîner des IA

20 avril 2026 à 14:27

Quand une startup ferme, ses conversations Slack, ses emails, ses tickets Jira et ses téraoctets de Google Drive ne disparaissent pas. Et maintenant, certaines les revendent.

SimpleClosure, une boîte spécialisée dans la fermeture d'entreprises, propose aux fondateurs de monétiser ce qu'elle appelle l'"exhausteur opérationnel" de leur défunte société en le vendant comme données d'entraînement pour des modèles d'IA.

C'est ce qu'a fait Shanna Johnson, l'ancienne patronne de cielo24, une entreprise de sous-titrage et transcription qui a fermé après 13 ans d'activité. Conversations internes, échanges clients, documentation technique, tout est parti dans le lot.

SimpleClosure supprime les données personnelles identifiables avant la vente, mais le contenu des échanges reste intact. En un an, la boîte a bouclé une centaine de transactions de ce type et récupéré plus d'un million de dollars pour les fondateurs concernés, avec des prix entre 10 000 et 100 000 dollars par entreprise.

SimpleClosure lance d'ailleurs Asset Hub, une plateforme dédiée où les sociétés en fermeture peuvent mettre en vente leurs dépôts de code, leurs archives Slack, leurs emails et leurs documents internes. Le marché se structure.

Le problème évident, c'est que les gens qui ont écrit ces messages ne savaient pas qu'ils finiraient dans un jeu de données d'entraînement. Marc Rotenberg, fondateur du Center for AI and Digital Policy, résume assez bien : "Les problèmes de vie privée ici sont quand même conséquents."

Un employé qui discute de son salaire, de ses problèmes personnels ou d'un conflit avec un collègue sur Slack n'a jamais donné son accord pour que ça serve à calibrer un modèle de langage.

Côté juridique, c'est complètement le flou. Les données appartiennent à l'entreprise, pas aux employés, et quand l'entreprise est en liquidation, le liquidateur ou le fondateur dispose de fait des actifs.

Du coup, dans les faits rien n'interdit aujourd'hui la revente de conversations internes anonymisées aux États-Unis, même si le RGPD en Europe pose des limites que les boîtes américaines n'ont pas.

Bref, si votre ancienne startup a coulé, vos messages Slack sont peut-être déjà dans un dataset quelque part.

Source : TechSpot

Ruby Central en péril financier après le clash des mainteneurs RubyGems

Par : Korben
20 avril 2026 à 13:27

Ruby Central, l'association qui gère l'écosystème Ruby (RubyGems, Bundler, les conférences RubyConf et RailsConf), est en "vrai péril financier".

Le conseil d'administration l'a annoncé en se séparant de sa directrice exécutive, Shan Cureton, dans le cadre d'un plan de réduction des coûts. Les finances de l'organisation dépendaient trop "du timing optimiste de la réception des fonds par rapport aux dates fixes de nos dépenses", selon les administrateurs.

Le contexte, c'est un conflit qui dure depuis des mois. Fin 2025, Ruby Central a retiré plusieurs mainteneurs historiques de RubyGems et Bundler sans les prévenir.

Les mainteneurs concernés ont visiblement mal pris ce move, et ont lancé un fork rival appelé Gem Cooperative (gem.coop). Dans la foulée, ils ont publiquement accusé Ruby Central de prise de contrôle autoritaire. L'ancienne directrice avait en fait justifié les retraits par des demandes de sponsors et d'entreprises dépendantes de Ruby, inquiètes de problèmes de supply chain et de gestion des accès.

Le résultat, c'est un écosystème fracturé. D'un côté, Ruby Central avec le registre officiel RubyGems.org et les conférences. De l'autre, des mainteneurs expérimentés partis avec leur savoir-faire et une partie de la communauté. Et entre les deux, des sponsors qui hésitent à mettre de l'argent dans une organisation en crise de gouvernance.

Le conseil a voté en avril la transition vers un "working board" bénévole, ce qui veut dire moins de salariés et plus de travail non rémunéré. C'est le genre de restructuration qui peut effectivement sauver les finances à court terme, mais qui fatigue forcément les contributeurs au bout d'un moment.

Pour les développeurs Ruby, c'est quand même préoccupant. RubyGems est l'équivalent de npm pour JavaScript ou pip pour Python, c'est l'infra de base sur laquelle tournent des milliers de projets en production. Une association gestionnaire en péril financier et en conflit avec ses propres mainteneurs, ça fragilise clairement toute la chaîne.

Bref, Ruby Central doit trouver un modèle viable sans ses mainteneurs historiques et sans directrice. Pas simple.

Source : The Register

Le Japon lance son IA souveraine avec 8 géants industriels

Par : Korben
13 avril 2026 à 14:39

Gros chantier IA au Japon. SoftBank a pris la tête d'un consortium qui réunit sept autres poids lourds nationaux : NEC, Honda, Sony, trois banques (MUFG, Sumitomo Mitsui, Mizuho) et deux sidérurgistes (Nippon Steel, Kobe Steel).

L'objectif : monter une nouvelle société dédiée à la construction d'une IA entièrement japonaise, sans dépendance étrangère. Le spécialiste tokyoïte Preferred Networks rejoindra l'aventure un peu plus tard, en renfort technique.

L'objectif est clair. Rattraper les Américains et les Chinois. Le modèle visé ambitionne d'atteindre environ 1 000 milliards de paramètres d'ici la fin de la décennie, soit l'ordre de grandeur des plus gros modèles d'OpenAI ou d'Alibaba. Il sera multimodal (texte, images, vidéos, son) et surtout orienté vers ce que les Japonais appellent la "physical AI", c'est-à-dire une IA capable de piloter des robots et des machines dans le monde réel.

L'intégration sur des bras robotisés, des lignes de production ou des véhicules autonomes est prévue pour l'exercice fiscal 2030. Côté industriel, c'est évidemment cohérent avec l'ADN du pays, où la robotique est reine depuis quarante ans.

Le gouvernement n'est pas en reste. Le ministère japonais de l'Économie prévoit d'injecter environ mille milliards de yens de soutien à l'IA sur cinq ans, via l'organisme NEDO. La nouvelle société est éligible à ce dispositif, ce qui lui donne un sacré matelas financier pour attirer les talents.

Au passage, une centaine d'ingénieurs en IA seront recrutés, et la direction sera assurée par un cadre de SoftBank. Le data center principal s'installera à Sakai, près d'Osaka, dans une ancienne usine LCD de Sharp reconvertie pour l'occasion. GPU dernier cri, tout le traitement reste sur le territoire japonais.

C'est justement ce point qui cristallise la logique du projet. Beaucoup d'industriels japonais refusaient d'envoyer leurs données sensibles (plans d'usine, relevés de capteurs, IP métier) vers des clouds américains ou chinois pour faire tourner de l'IA. En gardant tout le traitement local, le consortium offre une alternative souveraine aux membres du club, puis aux autres entreprises du pays.

Sauf que voilà, la bataille des modèles fondation se joue déjà depuis trois ans et les écarts de puissance sont importants. Arriver fin 2029 avec un modèle à mille milliards de paramètres, c'est atteindre le niveau actuel des meilleurs américains, pas celui des modèles qui existeront à ce moment-là.

La vraie force du projet est probablement ailleurs. Sur l'IA physique et l'industrie, le Japon a un terrain de jeu unique, avec des décennies d'avance en robotique et une base manufacturière dense. Si Honda, Nippon Steel et Kobe Steel injectent leurs données et leurs cas d'usage dans le modèle, ça peut produire quelque chose de très différent des LLM généralistes américains.

À noter que certaines sources évoquent un effort public global de l'ordre de 3 000 milliards de yens quand on cumule tous les dispositifs, ce qui donne une idée du sérieux de l'engagement étatique. Bref, le Japon arrive tard mais il amène ses industriels, son argent et son avantage robotique.

Source : Nikkei Asia

DARPA investit dans une batterie radioactive capable d'alimenter un PC portable pendant des mois

Par : Korben
9 avril 2026 à 11:48

La DARPA vient de confier 5,2 millions de dollars à la startup Avalanche Energy pour développer une batterie à base de particules alpha. L'objectif : créer une source d'énergie compacte de quelques kilos, capable d'alimenter un ordinateur pendant des mois, destinée aux missions spatiales et militaires. Et la startup a une idée derrière la tête.

5,2 millions de dollars pour une pile nucléaire

Avalanche Energy, une jeune entreprise basée dans l'État de Washington, vient de décrocher un contrat de 5,2 millions de dollars auprès de la DARPA, l'agence de recherche du Pentagone. Le programme s'appelle "Rads to Watts" et il va durer 30 mois.

L'idée, c'est de fabriquer des cellules solides miniaturisées capables de convertir les particules alpha émises par des radio-isotopes en électricité. On appelle ça une batterie "alphavoltaïque", un cousin éloigné des piles bêtavoltaïques qu'on trouve dans certains pacemakers.

La différence, c'est que les particules alpha transportent beaucoup plus d'énergie. Avalanche ne travaille pas seule : l'équipe comprend l'Université de l'Utah, Caltech, le laboratoire national de Los Alamos et McQuaide Microsystems.

Plus de 10 watts par kilo

Côté performances, la DARPA vise un objectif précis : dépasser les 10 watts par kilogramme. Pour donner un ordre de grandeur, les générateurs thermoélectriques à radio-isotopes utilisés sur les rovers martiens Perseverance et Curiosity produisent environ 2,5 watts par kilo pour une masse d'à peu près 45 kilos. Les batteries bêtavoltaïques actuelles, elles, plafonnent dans la gamme des microwatts.

Avec cette nouvelle technologie, quelques kilos de batterie suffiraient à alimenter un système de la taille d'un PC portable pendant des mois. Le principal défi technique est connu : les particules alpha endommagent les semi-conducteurs très rapidement, parfois en quelques heures. Avalanche travaille donc sur des puces résistantes à la dégradation, capables d'encaisser ce bombardement sur la durée.

La fusion n'est jamais très loin

Robin Langtry, le cofondateur d'Avalanche Energy, ne cache pas que ce contrat sert aussi un objectif plus ambitieux. L'entreprise développe en parallèle l'Orbitron, un réacteur à fusion compacte de la taille d'un bureau, prévu pour produire entre 1 et 100 kilowatts électriques.

Les puces conçues pour la batterie alphavoltaïque pourront servir dans ce réacteur, puisque la fusion génère aussi des particules alpha à haute énergie. Avalanche a déjà levé 29 millions de dollars en février 2026 et obtenu un contrat de 1,25 million auprès de l'AFWERX, la branche innovation de l'armée de l'air américaine. L'entreprise a construit et testé des démonstrateurs en interne ces deux dernières années, mais personne n'a encore produit de gain net d'énergie.

Le volet batterie radioactive est le plus crédible du projet. Produire 10 watts par kilo à partir de particules alpha, c'est ambitieux mais faisable avec les bons matériaux et un peu de patience. Par contre, le réacteur à fusion de bureau, on va dire que c'est un autre sujet.

Les spécialistes estiment qu'un prototype fonctionnel ne verra pas le jour avant une trentaine d'années. Avalanche a le mérite de financer sa recherche fusion avec des applications concrètes à court terme, et la DARPA ne donne pas 5 millions à n'importe qui. Maintenant, entre une pile qui tient des mois et un réacteur à fusion portatif, il y a quand même un petit gap.

Source : The Register

Higgsfield - Le Netflix de l'IA où 4 personnes remplacent tout un studio

Par : Korben
21 mars 2026 à 09:00

100 millions de dollars, c'est ce que coûterait normalement la production d'un pilote de qualité ciné, d'après Higgsfield, une boite basée à San Francisco et fondée par Alex Mashrabov.

Et eux, ils l'ont fait en 4 jours avec une équipe de 4 personnes et quelques GPU. Bienvenue dans l'ère du streaming généré par IA !

La plateforme vient en effat de lancer ses Original Series , une sorte de Netflix où tout le catalogue est généré par IA. On y trouve 13 séries dispo (sci-fi, thriller, anime, comédie...) avec des titres comme Arena Zero, Spit & Glow ou encore Tails of Steel, plus 6 autres en préparation. Et tout ça, des dialogues aux effets visuels en passant par le doublage, est généré par intelligence artificielle (même si évidemment, y'a des humains derrière pour le scénario, le prompting et le montage).

Mais le truc fou je trouve, c'est le modèle communautaire. En fait, Higgsfield a organisé un concours qui a attiré plus de 8 700 créateurs venus de plus de 100 pays, comme ça plutôt que de produire en interne, ils laissent la communauté proposer des teasers. Les spectateurs votent alors pour ceux qu'ils préfèrent, et les gagnants se retrouvent à produire des séries complètes avec l'équipe.

Cela veut dire que n'importe qui avec une bonne idée et un bon sens du prompt peut devenir "réalisateur"... sans jamais toucher une caméra ni un plateau de tournage.

Côté boîte à outils, la plateforme ne fait pas les choses à moitié. Y'a le Cinema Studio 2.5 pour la génération vidéo , et la plateforme intègre des modèles tiers comme Kling 3.0 (vidéos de 15 secondes avec personnages cohérents), Sora 2 , Veo 3.1, et même du clonage vocal via ElevenLabs. Pour l'image, y'a Nano Banana Pro (oui, c'est le vrai nom) qui sort du 4K, et plus de 100 apps prêtes à l'emploi pour le face swap, les VFX ou la création de contenu commercial.

Par contre, tout ça repose sur des modèles tiers... donc le jour où OpenAI ou Google changent les conditions liées à leurs API, ça peut les secouer un peu.

Maintenant pour ceux qui se demandent si c'est gratuit, oui, y'a un tier free avec des crédits quotidiens via l'app mobile Diffuse. Sauf que les crédits partent trèèès vite, car générer une vidéo de 15 secondes en 4K, ça consomme pas mal de compute. Pour les gros volumes, faudra donc passer à la caisse.

Alors c'est pas encore 100% nickel mais j'ai été vraiment bluffé par cet épisode par exemple :

C'est vrai que le lipsync n'est pas toujours perfecto, que les mains font parfois n'importe quoi, et que la continuité entre les plans n'est pas toujours raccord.

Mais le concept est dingue quand même car là où il fallait un studio avec des centaines de techniciens, des caméras RED à 50 000 balles et des mois de post-production, y'a maintenant un pipeline automatisé qui prend un scénario et crache un épisode complet. Et le fait que les créateurs viennent du monde entier, sans formation ciné, ça change tout en terme de scénario et de diversité de contenus !

Donc, si vous voulez voir à quoi ressemble le cinéma actuel quand c'est l'IA qui tient la caméra, allez jeter un œil. C'est encore un peu brouillon mais ça progresse très vite (trop ?), je trouve...

ChatGPT leur a coûté 200 000 dollars, ils ont créé leur propre IA pour corriger le tir

Par : Korben
19 mars 2026 à 16:30

Une startup spécialisée dans le dessalement de l'eau a perdu 200 000 dollars et quatre mois de recherche après avoir fait confiance à ChatGPT et Grok pour un choix de matériaux. Du coup, l'équipe a développé Rozum, un moteur de raisonnement qui fait tourner plusieurs modèles d'IA en parallèle et vérifie leurs réponses avant de les livrer.

Une erreur qui a fait très mal

L'histoire commence chez Waterline Development, une entreprise californienne qui travaille sur la désalinisation de l'eau. L'équipe devait choisir entre deux types d'électrodes en carbone pour son procédé. Elle a demandé à ChatGPT et à Grok de l'aider à trancher. Les deux modèles ont recommandé le tissu de carbone. Sauf que ce choix était le mauvais : mauvaise conductivité, problèmes de rétention d'eau, durabilité insuffisante. Derek Bednarski, le fondateur (passé par Tesla pendant huit ans), résume la situation : les modèles se sont trompés avec aplomb, et ça leur a coûté quatre mois et 200 000 dollars.

Et voilà que l'équipe a décidé de construire son propre outil. En janvier 2026, le projet est devenu une entreprise à part entière : Rozum Corporation, basée à San Mateo en Californie. Le nom vient du slave, il veut dire "raison".

Comment ça fonctionne

Rozum fait tourner plusieurs modèles d'IA en même temps sur une même question. Chaque réponse passe ensuite par un système de vérification qui utilise des outils déterministes : exécution de code, outils de chimie comme RDKit, mathématiques symboliques. Le système détecte les erreurs, les hallucinations, les calculs faux et les citations inventées.

Sur un test de 1 000 questions de niveau doctorat, cette vérification a signalé des affirmations non fondées dans 76,2 % des réponses des modèles. Et 21,3 % des sources citées par ces modèles n'existaient tout simplement pas. Sur le test de référence Humanity's Last Exam, Rozum affiche 65,7 % de bonnes réponses, soit 7 points de plus que le meilleur score connu publiquement.

Pas pour tout le monde

Le service est accessible sur liste d'attente. Il coûte plus cher qu'un modèle classique et prend beaucoup plus de temps, de quelques minutes à plusieurs heures par requête. Rozum ne vise pas le grand public. La cible, ce sont les ingénieurs, les chercheurs et les analystes qui prennent des décisions où chaque erreur coûte des millions.

Sur le papier, c'est malin. Quand on sait que trois quarts des réponses des meilleurs modèles contiennent des affirmations non vérifiées, on comprend que certains secteurs ne puissent pas se contenter d'un ChatGPT brut. Bon par contre, un outil qui met des heures à répondre et qui coûte plus cher, ça limite forcément l'usage au quotidien. On est clairement sur un produit de niche, pour ceux qui investissent des millions sur une analyse technique. Pour le commun des mortels qui demande une recette de gâteau à ChatGPT, on est tranquilles, a minima.

Source : Globenewswire

❌
❌