Le gars vient quand même de nous sortir une pépite au Forum de Davos qui m'a laissé sur le cul. Le patron de Microsoft, confortablement installé aux côtés de Larry Fink (le boss de BlackRock) a prévenu en totale détente le monde entier que le boom de l'IA risquait de se transformer en bulle... si les gens n'adoptaient pas assez vite l'intelligence artificielle.
Mais mort de lol.
Relisez bien cette phrase... Le mec qui a investi 14 milliards de dollars dans OpenAI nous explique aujourd'hui que si on n'achète pas son produit, ça va devenir une bulle. Un peu comme un dealer de coke qui vous dirait "achetez ma came, sinon je vais devoir arrêter d'en importer et vous n'aurez plus rien".
Un bon petit raisonnement en cercle comme on les aime... mdrrr.
Pour le coup, voici sa citation exacte, à savourer sans modération : "Pour que ça ne soit pas une bulle par définition, il faut que les bénéfices soient répartis de manière beaucoup plus équitable." Traduction pour gens comme moi qui comprennent vite si on leur explique longtemps : Actuellement, les seuls qui profitent vraiment de l'IA, ce sont les boîtes tech et si ça reste comme ça, le château de cartes va s'écrouler.
Le plus beau dans l'histoire, c'est que Microsoft lui-même vient de perdre son accès exclusif aux modèles d'OpenAI suite à une restructuration de leur partenariat. Terminé les privilèges et donc Nadella nous explique maintenant qu'il bosse aussi avec Anthropic et xAI, OKLM. Diversification, qu'il appelle ça.... Au secours.
Bref, on assiste à un moment assez incroyable, j'avoue, où des géants de la tech qui après avoir investi des milliards de milliards de milliards dans l'IA, commencent à flipper leur stock options que personne n'en veuille vraiment. Bah oui, le problème c'est que pour l'instant, à part
jouer avec ChatGPT
pour écrire des mails ou générer des images rigolotes,
la "révolution" se fait un peu attendre dans le monde réel
, c'est vrai.
Et maintenant ce serait à nous de sauver leurs investissements ?
"Quelle indignité" comme dirait notre Edmond Dantes des bac à sables...
Bonne nouvelle pour les fans d'IA (et mauvaise pour Google) ! Il semblerait que nos vieilles habitudes de recherche soient en train de changer... Du moins pour ceux qui ont déjà sauté le pas vers du payant.
C'est ce que suggère en tout cas une étude de Bango qui fait pas mal de bruit. Figurez-vous les amis que 72% des abonnés ChatGPT interrogés aux États-Unis ont paramétré en page d’accueil de leur browser le chatbot d'OpenAI.
Pour ces utilisateurs-là, Google n'est donc plus le point de départ automatique...
Après évidemment c'est juste un sondage et c'est "juste" 1400 users payants aux US (donc un public déjà conquis) qui ont répondu mais n'empêche, le signal est fort.
On est passé en quelques années de "Je cherche un truc -> j'en sais rien -> j'invente une réponse fausse mais crédible dans ma tête de boomer, que je vais ensuite répéter à tout le monde comme étant une vérité" à "Je cherche un truc -> Je tape dans Google -> Je scrolle 800 pubs -> J'ai ma réponse mais pas toujours le recul pour recouper l'info".
Et maintenant c'est "Je demande à l'IA -> J'ai la réponse officielle validée par les américains -> Je comprends rien -> elle m'explique comme si j'avais 5 ans et que j'étais trépané".
Hop, terminé !
Bon oui, j'abuse un peu mais vous me connaissez... L'étude montre aussi que 78% de ces mêmes utilisateurs ont installé le widget ChatGPT directement sur l'écran d'accueil de leur téléphone ou de leur tablette.
ChatGPT est devenu leur maison quoi.
Alors bien sûr, comme je vous le disais,
Google essaie de muscler son jeu avec Gemini
mais l'habitude est déjà prise pour beaucoup. On assiste à un vrai glissement vers le "AI-first" car les gens veulent une réponse et pas une liste de liens renvoyant vers des sites de merde faits par des référenceurs incapables.
D'ailleurs, 75% des sondés affirment aussi vouloir centraliser leurs tâches quotidiennes dans ChatGPT et 74% disent même qu'ils sont prêts à acheter des trucs directement via l'interface. ChatGPT est donc en train de devenir une sorte de super-app qui fait le café... Le rêve de Sam Altman de faire de ChatGPT l'OS de votre vie est peut-être bien en train de devenir une réalité.
Perso, je trouve ça assez dingue. Si vous êtes du genre à utiliser Google pour tout et n'importe quoi, préparez-vous donc au choc. Bien sûr, Google ne va pas disparaître demain matin mais pour les éditeurs de sites qui dépendent du trafic de recherche (pas mon cas, mon trafic est majoritairement du direct), ça promet quelques sueurs froides.
Bref, on n'arrête pas le progrès (ou la flemme, c'est selon) et reste à voir maintenant si cette tendance va se confirmer côté grand public ou rester un truc de niche pour les gens prêts à lâcher 20 balles par mois.
Dans une vidéo publiée sur X le 19 janvier 2026, le compte Retro Fighters a dévoilé le Battle Dock, une coque rétro dans laquelle vient se glisser le dock officiel de la Switch 2, afin de lui donner l’apparence iconique d’une GameCube.
Dans une démonstration publiée sur LinkedIn le 16 janvier 2026, des chercheurs de Tenable ont révélé une faille de sécurité dans le nouvel outil d’OpenAI, ChatGPT Translate, rappelant les premières générations de garde‑fous appliqués aux agents LLM.
Wokyis dévoile une station d’accueil rétro pour Mac mini qui reprend le design du Macintosh, tout en ajoutant du stockage M.2, de nombreux ports et un écran intégré de 5 pouces.
Si vous utilisez des agents IA en ligne de commande genre Claude Code et que vous leur faites exécuter des scripts téléchargés sur le net, voici un outil qui devrait vous plaire.
Fence est un utilitaire qui permet de lancer vos commandes dans un environnement isolé, sans avoir besoin de Docker ou de conteneurs. L'outil bloque par défaut toutes les connexions réseau sortantes et restreint l'accès au système de fichiers, du coup, si votre agent IA décide de faire des bêtises, il se retrouvera face à un mur.
Concrètement, vous préfixez simplement votre commande par fence comme ceci :
fence curl https://example.com
# → 403 Forbidden (bloqué par le sandbox)
fence -t code npm install
# Utilise le template "code" qui autorise les registres npm
Et c'est tout ! L'outil embarque des templates préconfigurés pour les cas d'usage courants comme le template "code" par exemple qui autorise les connexions vers npm, PyPI et les principaux fournisseurs LLM, tout en bloquant le reste du genre :
fence -c "rm -rf /"
# → Hop, c'est bloqué ! Et heureusement !
Vous pouvez aussi créer votre propre config dans ~/.fence.json pour autoriser des domaines spécifiques.
Et petit bonus sympa, y'a même une intégration directe possible avec Claude Code :
fence import --claude -o ~/.fence.json
Comme ça, vos permissions Claude Code seront converties en règles Fence sans vous prendre la tête.
Côté technique, Fence repose sur sandbox-exec sous macOS et bubblewrap sous Linux donc il n'y a pas de daemon qui tourne en permanence, ni de dépendances complexes. Vous installez, vous lancez, et ça marche ! Que demande le peuple ?
Pour l'installation :
# Installation rapide
curl -fsSL https://raw.githubusercontent.com/Use-Tusk/fence/main/install.sh | sh
# Ou via Go
go install github.com/Use-Tusk/fence/cmd/fence@latest
Sous Linux, il faudra installer bubblewrap et socat au préalable (disponibles dans les dépôts des principales distribs) et si vous cherchez d'autres solutions d'isolation pour votre OS,
Firejail
reste également une bonne référence dans le domaine.
Bref, si vous faites tourner des agents IA qui exécutent du code, Fence ajoutera une couche de sécurité bien sentie ! Et comme quasiment tous les outils dont je parle, celui-ci est open source (licence Apache 2.0).
– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –
Vous le savez peut-être si vous me suivez sur les réseaux et ailleurs, j'ai publié il y a peu un article « prise en main » sur
Mac4Ever pour le SiWiQU S3 Max
, un dock très complet avec port Ethernet pour la Switch 2. C'était clairement un produit génial si vous avez une Switch 2, mais il y a une suite à cette histoire, q
ui m'a fait récupérer aussi ce modèle là…
Mon très cher neveu est passé par là, il a vu la bête et il m’a piqué le dock pour pouvoir trimballer sa Switch 2 chez ses potes. Et du coup bah c’est le drame : plus de dock pour moi, et un tonton trop gentil qui se retrouve sans son dock alternatif. Mon dock principal, encombrant, étant connecté à la TV de mon salon.
Sauf que voilà, j'avais un besoin très précis, à savoir installer un dock secondaire dans ma chambre, connecté à ma TV LG OLED 4K, principalement pour pouvoir jouer à Animal Crossing tard jusqu’au bout de la nuit bien au chaud sous ma couette.
Je n’ai clairement pas besoin de l’ethernet pour cet usage, j'ai donc recontacté la marque SiWiQU, je leur ai demandé s'ils pouvaient m'envoyer
leur autre modèle
, à savoir la version standard, sans port Ethernet, qui est aussi moins chère moins chère. Ils ont accepté. Et ben je peux vous dire que c'est là aussi un super choix.
Au déballage on retrouve la patte de la marque avec ce coloris Rouge et Bleu qui colle très bien avec les Joy-Con de la console. L’accessoire est minuscule et tient vraiment dans la poche. J'avais un peu peur pour la stabilité vu la taille de la Switch 2, mais comme sur le modèle précédent, c'est du solide. Il y a des patins en silicone antidérapants dessous, et surtout ce système ingénieux de connecteur USB-C sur ressorts qui évite de forcer sur le port de la console quand on la pose un peu vite.
L’autre truc bien pratique c’est la présence d'un bouton physique de bascule à l'arrière. C'est une fonctionnalité qui permet, d'une simple pression, de faire revenir l'image sur l'écran de la Switch tout en continuant de l'alimenter via le dock. C'est pratique si quelqu'un veut récupérer la télé pendant que vous finissez votre partie, ou si vous voulez simplement utiliser le dock comme un stand de charge posé sur la table de nuit, avec un angle de vision à 45 degrés.
Une fois connecté à ma LG OLED, l’image est parfaite, comme avec le dock d’origine. Le port HDMI 2.1 gère très bien la 4K l'image est parfaitement fluide, même en 120Hz. L'autre gros point fort par rapport au dock officiel de Nintendo c'est sa conception "ouverte". La Switch 2 n'est pas enfermée entre deux plaques de plastique et le dos reste à l'air libre, ça permet une bien meilleure dissipation de la chaleur.
Autre point important, ce dock n'est pas bridé ou bloqué par Nintendo, il fonctionne, tout simplement, mise à jour après mise à jour de la console.
Bref, si vous n'avez pas besoin de la connexion Ethernet filaire car le Wi-Fi de la Switch 2 vous suffit, cette version allégée du dock SiWiQU est sans doute le meilleur rapport qualité/prix du moment. Pour moins de 30 euros, vous récupérez un dock de voyage fiable, qui gère la charge rapide (
je vous recommande ce chargeur pour aller avec
) et qui ne chauffe pas. Mon neveu est ravi avec le modèle Ethernet, et moi j'ai tout ce qu’il faut pour dealer des navets dans mon lit.
Après plusieurs années d'exclusivité pour la PlayStation 4 et la PlayStation 5, Final Fantasy VII Remake débarque enfin sur d'autres consoles. Les propriétaires d'une Nintendo Switch 2, notamment, vont pouvoir découvrir cette réinvention incroyable, dans des conditions de surcroît idéales. On y a joué.
Près de sept ans après la fin de Game of Thrones, un second spin-off de la saga vient enfin de voir le jour : A Knight of the Seven Kingdoms. Située avant les évènements de la série originale, cette épopée en 6 épisodes vient de commencer sa diffusion sur HBO Max le 19 janvier 2026. Et si vous avez vu le premier épisode, vous avez forcément des questions sur une scène particulièrement... déstabilisante.
Le roadster 100 % électrique chinois SC01 pourrait débarquer en Europe. Seulement 1 000 exemplaires seront réservés pour le continent, tandis que la production sera assurée par un atelier en Italie.
Alors que GTA 6 n’est pas encore sorti, un élu appelle à son interdiction en Russie, dénonçant des contenus jugés « destructeurs et vulgaires ». Il évoque notamment la présence de scènes de strip-tease masculin et propose soit un bannissement, soit une version expurgée conforme aux exigences locales.
OpenAI a officialisé le déploiement de son système de prédiction d’âge. Pour trier les adolescents des adultes, l’IA analyse désormais vos heures de connexion et vos habitudes de vie. Une méthode qui oblige les utilisateurs, en cas de doute de l'algorithme, à prouver leur majorité via un selfie.
Vous avez 15 ans d'emails répartis sur 4 comptes différents et vous aimeriez bien pouvoir chercher dedans sans devenir complétement fou ? Bichon est fait pour vous. C'est un archiveur d'emails open source écrit en Rust qui synchronise vos boîtes mail et vous permet de tout fouiller via une interface web ultra léchée.
Le truc c'est que Bichon n'est pas un client mail. Vous ne pouvez pas envoyer ou recevoir de messages avec. C'est vraiment un outil d'archivage pur qui se connecte à vos serveurs IMAP, aspire tous vos emails, les compresse, les déduplique et les indexe pour que vous puissiez faire des recherches full-text dessus pour par exemple retrouver ce mail de 2012 où votre ex vous expliquait sa recette secrète du tiramisu.
L'interface web est plutôt propre, codée en React avec ShadCN UI. Vous pouvez filtrer par compte, par dossier, par expéditeur, par nom de pièce jointe, par taille, par date... Y'a même un dashboard avec des stats sur vos emails si vous aimez les graphiques. Et bonne nouvelle, le WebUI est disponible en 18 langues, donc le français est de la partie !
Côté authentification, ça gère le mot de passe IMAP classique mais aussi OAuth2 avec refresh automatique du token. C'est hyper pratique pour Gmail ou Outlook qui aiment bien compliquer les choses. Y'a aussi un support proxy si vous êtes derrière un firewall capricieux et une découverte automatique des serveurs IMAP. Hop, on branche et ça synchronise !
La stack technique envoie du bois également puisque le backend est en Rust basé sur le framework Poem, et le moteur de recherche/stockage utilise Tantivy. C'est un moteur de recherche full-text codé lui aussi en Rust, l'équivalent de Lucene mais sans la lourdeur de la JVM. Pour les métadonnées et la config, le projet utilise Native_DB et le tout est packagé en binaires pour Linux, macOS et Windows, ou en image Docker si vous préférez le self-hosted sans prise de tête.
Un truc important depuis la version 0.2.0 c'est que le modèle d'authentification a changé. L'ancien compte "root/root" a sauté au profit d'un compte admin par défaut (identifiants : "admin" / "admin@bichon"). Pensez donc à changer le mot de passe immédiatement, sinon ce sera la fête du slip dans vos archives. Et notez bien que le mot de passe de chiffrement que vous définissez au premier lancement ne peut pas être changé ensuite, donc choisissez-le bien, genre "KorbenCestLePlusBeau123".
Et si vous avez déjà des tonnes de vieux mails qui traînent en local, sachez que depuis la v0.3.0, y'a également un outil en ligne de commande qui s'appelle bichonctl. Ça permet d'importer vos archives au format EML ou MBOX directement dans le bouzin. C'est nickel pour centraliser tout votre passé exporté par ailleurs.
Bref, si vous cherchez un moyen propre d'archiver vos mails sans que ça bouffe toute votre RAM comme un client Java des années 2000, Bichon fait grave le taff. C'est léger, c'est rapide, et c'est en Rust. Ensuite, vous pourrez dormir tranquille !
Merci à Lorenper pour l'info et si vous cherchez d'autres outils cools pour vos mails, jetez aussi un œil à
Mailspring
ou si vous kiffez le stockage en Rust,
Garage
est une pépite.
Je trouve qu'il n'y a rien de plus idiot qu'un débat philosophique sur ce qu'est "vraiment" l'intelligence quand on a juste besoin que le boulot soit fait... J'en vois certains en faire des tartines à longueur de journée sur Linkedin, notamment pour tenter de définir le niveau d'intelligence des IA mais de mon point de vue, c'est vraiment perdre son temps que d'essayer d'évaluer ça.
Récemment, je suis tombé sur un billet de
Bertrand Meyer sur le Blog de CACM
qui met enfin des mots sur mon malaise... En fait il explique qu'il y a 2 grandes visions qui s'opposent concernant la définition de l'intelligence.
D'un côté, on a l'approche plutôt "européenne" où l'intelligence, c'est comprendre les choses, comprendre le monde, savoir expliquer le "pourquoi du comment". Et de l'autre côté, on a une vision plus "américaine" et pragmatique où l'intelligence c'est avant tout réussir à s'adapter et agir en conséquence avec succès.
En gros, ça veut dire que pour les ricains, si ça marche, c'est une preuve d'intelligence.
Et là, tout s'éclaire car l'IA d'aujourd'hui, nos chers LLM d'amour et autres réseaux neuronaux, correspondent parfaitement à cette seconde définition. En effet pour beaucoup de chercheurs, ces systèmes ne "comprennent" pas le monde au sens cognitif du terme mais réussissent quand même à donner très souvent les bonnes réponses et à trouver de bonnes solutions à tout un tas de problèmes.
Un peu comme
ces modèles médicaux de Google
capables d'aider les médecins dans leurs diagnostics... ça marche, c'est utile, et même si ça ne remplace pas (encore) l'expertise humaine (enfin sauf celle des internes ^^), c'est déjà génial !
Perso, je me positionne sur ça de manière un peu plus basique. Parce que je suis un mec basique... Je suis un techos, pas un marketeux ni un philosophe alors la seule question que je me pose finalement c'est "est-ce que ce que ça fait le taf" ?
Et surtout, est-ce que ce que l'IA produit c'est de qualité ?
Quand c'est du texte par exemple, mon premier critère c'est donc de savoir si l'information est juste. Ensuite c'est de savoir si c'est agréable à lire. Et enfin, est ce qu'on en retire quelque chose (un apprentissage, du fun, un élargissement de sa pensée) ?
Voilà c'est tout... et ça je l'applique aussi bien aux textes écrits par des humains qu'à ceux écrits par des algos.
Si ces 3 conditions ne sont pas remplies, c'est (pour moi, hein) de la merde. Et donc j'applique ces principes du mieux que je peux, aussi à ce que j'écris.
Je pourrais bien sûr ajouter d'autres critères du genre "Est ce que j'ai fait le tour de la question de manière encyclopédique ?" et "Est ce que en écrivant cela, je ne vais pas insécuriser un random qui va ensuite m'attaquer publiquement pour rassurer son égo auprès de sa communauté ?" mais bon, ici c'est pas Wikipédia et j'suis pas non plus le psy des gens qui détestent mon contenu mais viennent quand même me lire religieusement chaque jour. Donc j'avoue, je fais l'impasse... Ahaha.
Maintenant pour ceux qui se demandent encore comment définir l'intelligence artificielle, voyez plutôt ça comme un outil capable de "faire comme si" avec suffisamment de talent pour que l'expérience soit bluffante de réalisme. Un peu comme quand on regarde un super film avec de super acteurs... On sait qu'ils font semblant et pourtant on ressent de l'émotion. Bah là c'est pareil, l'illusion est douce et hormis certains cas pathologiques où ça pourrait être problématique, je ne vois pas ça comme un souci de se faire "illusionner" par un texte IA tant que mes 3 critères plus haut sont remplis.
Que ce soit du texte humain ou du texte IA, le résultat peut être perçu par un humain comme similaire si c'est bien fait. Faut pas non plus oublier que beaucoup d'humains ne savent pas s'exprimer correctement et encore moins structurer correctement leur pensée pour la mettre par écrit (et je ne vise personne, mais suivez mon regard vers les services de micro-blogging et autres commentaires Youtube... ^^).
Le point important, crucial même (et là je sors mon panneau "Achtung danger"), c'est que pour chaque texte produit par une IA, un humain devrait le relire, le corriger, et l'améliorer. S'en porter garant en fait, sinon, c'est juste du texte générique de qualité standard avec peu de valeur ajoutée (si ce n'est faire du résumé quoi...) et un fort risque d'hallucinations.
Et je sais que la mode du moment est au slop IA aussi bien dans les mails, les médias, les sites SEO, les discours officiels du gouvernement et j'en passe mais putain, passer un petit coup de vérif / polish manuel par-dessus, c'est pas la mer à boire et hop, on retrouve instantanément une âme dans l'article et cela peu importe que ça passe le détecteur IA ou pas... Ces machins là font principalement de la vérification en surface et
si vous écrivez trop parfaitement
ou si votre IA écrit trop dégueulasse, vous aurez du faux positif dans un sens ou dans l'autre.
Je pense donc qu'on s'en fout un peu de savoir si la machine a une âme ou si elle "comprend" réellement le sens de la vie (spoiler : ce n'est pas le cas). Moi, tant qu'elle m'aide à coder un script Python vite fait ou à préparer un super article pour vous sans que j'aie à me taper des tonnes de doc, ça me va.
De nouvelles aurores boréales ont été observées en France dans la nuit du 20 au 21 janvier 2026. Le spectacle lumineux, un peu moins intense que la nuit précédente, a été à nouveau photographié.
Claude, l'IA d'Anthropic, peut désormais se connecter à des données de santé grâce à quatre nouvelles intégrations : Apple Health (iOS), Health Connect (Android), HealthEx et Function Health. La fonctionnalité est pour l'instant proposée en bêta aux États-Unis pour les abonnés Pro et Max.