L’université de Cambridge a dévoilé le 11 décembre un outil qui suit en temps réel le coût de la vérification par SMS de faux comptes sur plus de 500 plateformes. L’analyse publiée dans la revue Science met en évidence de fortes disparités selon les pays, mais surtout une hausse des prix à l’approche d’élections sur certaines messageries.
L’université de Cambridge a dévoilé le 11 décembre un outil qui suit en temps réel le coût de la vérification par SMS de faux comptes sur plus de 500 plateformes. L’analyse publiée dans la revue Science met en évidence de fortes disparités selon les pays, mais surtout une hausse des prix à l’approche d’élections sur certaines messageries.
Mozilla a un nouveau PDG et une nouvelle ambition. Anthony Enzor-DeMeo veut transformer le célèbre navigateur libre en un « écosystème » propulsé par l'intelligence artificielle. Une orientation stratégique qui, à peine annoncée, provoque une levée de boucliers chez les fidèles.
Firefox 146, disponible depuis le 9 décembre 2025, apporte la sauvegarde locale chiffrée sur Windows et cette version corrige aussi 13 failles de sécurité.
La contre-offensive émerge face à l'opération Bluebird. Elon Musk et X Corp ont lancé des poursuites contre les auteurs de l'initiative, qui tentent de récupérer les marques « Twitter » et « Tweet ».
Depuis le 15 décembre 2025, Meta ne propose plus d'application Messenger officielle sur Mac et Windows. Une décision frustrante pour des millions d'utilisateurs qui avaient pris l'habitude de l'utiliser tous les jours sur leur ordinateur.
Google commence à tester une évolution majeure de Google Translate qui utilise l'IA générative pour ne plus se tromper dans les traductions. Une des nouveautés majeures est l'arrivée d'un mode « live » qui permet d'initier une conversation avec n'importe quels écouteurs.
Malgré de très nombreuses améliorations ces dernières années, Meta a décidé de tuer la version Mac et Windows de Facebook Messenger. Depuis le 16 décembre, il est obligatoire de passer par le site messenger.com depuis un navigateur ou d'utiliser son smartphone.
C’est le résultat d'années de campagne du gouvernement australien et de parents d’enfants victimes de harcèlement en ligne : l'entrée en vigueur d’une loi interdisant les réseaux sociaux aux moins de 16 ans. Des applications telles qu’Instagram, Snapchat, X, Facebook ou encore Reddit sont soumises à l’obligation de bannir les moins de 16 ans sous peine d’amendes. Si cette loi soulève de nombreuses questions sur son efficacité réelle et ses modalités de mise en œuvre, et si d’autres pays privilégient des mesures moins contraignantes, le texte n’en constitue pas moins une première mondiale et suscite un intérêt à l’international.
Le petit loup mal-aimé d'Intermarché fait désormais le tour du monde, embarquant au passage le cœur de nombreux internautes. Si vous faites partie de celles et ceux qui ont fondu en découvrant cette publicité animée, voici 4 films d'animation qui devraient vous plaire, à voir en streaming.
Le personnage solitaire de la publicité d'Intermarché est en train de devenir le loup le plus adoré d'Internet. L'engouement pour la vidéo dans le monde est tel que la chanson de Claude François, Le Mal-Aimé, bondit dans les écoutes en streaming.
Euria, c'est le nom de la nouvelle IA gratuite, souveraine et respectueuse de la vie privée de l'hébergeur suisse Infomaniak ! Voici l'essentiel à savoir.
Proton Sheets, un tableur collaboratif intégré à Proton Drive, conçu pour offrir une alternative à Google Sheets et Excel respectueuse de la vie privée.
Ce vendredi 5 décembre 2025, Cloudflare a subi une nouvelle panne importante ayant perturbé l'Internet mondial : elle est liée à la faille critique React2Shell.
Ce tutoriel explique comment tester une application web pour savoir si elle est vulnérable à la faille React2Shell. Cette analyse s'appuie sur un script Python.
Une
étude de Graphite
vient de sortir et annonce que plus de la moitié des articles publiés sur Internet seraient désormais générés par IA. C’est fou non ?
Pour arriver à cette conclusion Graphite a analysé 65 000 URLs via
Common Crawl
et utilisé un détecteur d’IA et c’est comme ça qu’ils ont découvert que depuis novembre 2024, les articles IA auraient dépassé les articles humains en volume.
Alors en route vers l’apocalypse de l’écriture humaine ?
Bon déjà, première question qui me vient c’est : Comment est-ce qu’ils ont fait pour détecter ça ? Ouais parce qu’à ma connaissance, les outils de détection d’IA, comment dire… c’est de la grosse merde en barre. C’est encore moins fiable qu’un grand modèle de langage (LLM) pas fiable.
J’imagine que ce qu’ils détectent, ce sont les articles générés par IA de manière basique, donc le genre de contenu où quelqu’un a tapé un prompt vite fait et a publié le résultat sans même le relire ou un bot qui publie à la chaîne. Donc pas de travail sur le style, pas d’angle éditorial, pas de valeur ajoutée, bref, du bon gros contenu SEO produit à la chaîne pour remplir des pages et grappiller du trafic Google.
Du coup, si on suit ce raisonnement, ce que l’étude nous dit vraiment c’est que 50% du contenu web actuel, c’est de la merde. Et là, je me pose une question : est-ce que ça change vraiment quelque chose par rapport à avant ?
Bah ouais parce qu’avant l’IA, on avait déjà les fermes SEO, les articles écrits par des rédacteurs payés au lance-pierre qui se copient les uns les autres, les textes sans âme rédigés pour plaire à l’algorithme plutôt qu’aux lecteurs ou juste attirer le chaland pour engranger de la thune Adsense. De mon point de vue, le web était déjà rempli de contenu médiocre et l’IA n’a fait qu’industrialiser le processus.
Ce qui a changé donc, c’est la quantité. On produit plus de merde, plus vite, mais cette merde existait déjà.
Par contre, je ne suis pas d’accord avec la vision apocalyptique de certains. Un texte bien travaillé avec l’IA devient impossible à distinguer d’un texte humain et dans certains cas, il peut même être meilleur. C’est mon avis, mais c’est pas rare qu’un texte retravaillé à l’aide de l’IA soit plus complet, plus documenté, plus creusé, avec moins d’erreurs (si c’est bien fait évidemment). Un rédacteur web payé pour pondre 10 articles par jour n’a pas le temps d’aller au fond des choses alors qu’avec l’IA comme outil d’accompagnement, il peut rapidement explorer plusieurs angles d’un sujet, intégrer différentes perspectives, aller plus loin dans la recherche et l’analyse.
Et je parle bien de contenu informatif ici, pas de création littéraire ou artistique. Parce que là, effectivement, c’est pas ouf… Mais pour expliquer un concept technique, présenter un outil, vulgariser une actu…etc., l’IA peut être un sacré accélérateur de qualité si on sait s’en servir.
Je pense donc que le vrai problème, c’est la production bête et méchante qui consiste à générer du texte sans relecture, sans vérification, sans apport personnel… je trouve ça con et dangereux. Dangereux parce que les hallucinations existent et on peut vite se retrouver à propager de fausses infos. Et ce foutu style générique IA n’apporte rien au lecteur… Aucun plaisir quoi…
Puis quand on sait que y’en a déjà pas mal d’entre vous qui ne lisent plus les contenus, mais se les font résumer avec Claude ou ChatGPT, je me dis qu’on gagnerait du temps de processeur si les fermes SEO / IA publiaient directement des résumés IA et basta ^^.
L’étude de Graphite montre également que les contenus IA sont surtout des guides pratiques, des actus formatées, des descriptions de produits… Bref, du contenu utilitaire où l’originalité n’a jamais été le critère numéro un. Ce n’est donc pas une invasion de l’IA dans la création, mais plutôt une automatisation d’un contenu fast-actu jetable qui existait déjà par ailleurs.
Ce qui est précieux dans ce contexte, c’est justement le style, la patte d’un auteur, une voix reconnaissable. C’est le genre de truc qu’un rédacteur pressé n’a jamais eu le temps de développer et qu’une IA générique ne peut pas inventer. Encore une fois c’est mon point de vue, mais les bons “rédacteurs web” sont ceux qui ont une vraie identité éditoriale et qui savent se démarquer de ce foutu “ton journalistique” qui nous endort tous…
Voilà, au final, le rôle de l’auteur ou du créateur de contenu reste le même, IA ou pas IA… C’est simplement de faire en sorte que son contenu soit lu et pour ça, il faut que ce soit agréable à lire, que ça apporte quelque chose, que ça fasse grandir / réfléchir le lecteur ou que ça le divertisse également ! Bref, que l’outil soit un stylo, un clavier ou un LLM, l’objectif ne change pas.
Donc si vous êtes tenté d’utiliser une IA pour la production de votre contenu, par pitié, n’automatisez rien, continuez à relire, à mettre votre “patte”, à y insérer votre réflexion et surtout, travaillez bien vos prompts pour sortir du style par défaut.
Ce tutoriel explique comment installer et configurer CrowdSec avec Traefik pour détecter et bloquer les adresses IP malveillantes à l'origine d'attaques Web.
WordPress, c’est bien. Mais WordPress qui injecte des scripts d’emojis, des styles Gutenberg, des shortlinks et 47 autres trucs dont vous n’avez pas besoin dans chaque page de votre site… c’est moins bien évidemment. Heureusement, Terence Eden, un dev qui en avait marre de voir son code source ressembler à un plat de spaghetti, a compilé
une petite liste de tout ce qu’on peut virer
.
Car WordPress a adopté une philosophie de type “Decisions, not options” (des décisions, pas des options) où en gros, au lieu de vous laisser choisir, ils décident pour vous de ce qui est bon pour vous. Un peu comme Macron ^^. Le problème c’est que leurs décisions incluent un tas de fonctionnalités dont la plupart des gens n’ont rien à faire 🥲.
Par exemple les emojis. J’sais pas si vous savez, mais WordPress charge un script de détection d’emojis et une feuille de style dédiée sur CHAQUE page de votre site. Pourquoi tant de haine ? Hé bien parce que si vous tapez :-) dans un article, WordPress veut le transformer en joli emoji. Sauf que si vous utilisez les vrais emojis Unicode (comme tout le monde en 2025), hé ce script ne sert à rien. Et il y a aussi le grand remplacement des emojis dans les flux RSS…. Bref, tout ça, ça dégage.
Ensuite y’a le formatage automatique avec wptexturize qui transforme vos guillemets droits en guillemets typographiques “comme ça”. Et mon préféré, capital_P_dangit qui remplace automatiquement “Wordpress” par “WordPress” avec le P majuscule. Oui, vous ne le saviez pas, mais WordPress corrige l’orthographe de son propre nom dans vos articles. Mais quelle bande de nazes ^^.
Gutenberg, l’éditeur de blocs que j’adore, injecte lui aussi ses styles globaux même si vous utilisez l’éditeur classique. Et c’est pareil pour les styles de la librairie de blocs et l’éditeur de widgets basé sur les blocs. Si vous êtes resté sur le Classic Editor comme beaucoup de gens, tout ça ne sert alors qu’à alourdir vos pages.
Côté métadonnées, WordPress ajoute aussi pleiiiiin de trucs dans le code de vos pages comme les shortlinks, le RSD (Real Simple Discovery, un truc d’il y a 20 ans), des liens vers les flux de commentaires, les liens JSON de l’API REST…
Aux chiottes toutes ces conneries !
Le script de Terence fait aussi sauter l’ajout automatique des tailles d’images (wp_img_tag_add_auto_sizes), les templates de pièces jointes, et les block hooks qui modifient votre contenu. L’idée c’est donc de reprendre le contrôle sur ce que WordPress génère, au lieu de le laisser décider tout seul.
Et grâce à son script, le site de Terence (sans Philippe) obtient d’excellents scores sur
PageSpeed Insights
, ce qui prouve que tout ce bloat n’est vraiment pas nécessaire. Son script PHP complet fait environ 190 lignes et
il est dispo sur son GitLab
, bien commenté pour que vous puissiez choisir ce que vous voulez garder ou virer.
Attention quand même, certaines de ces désactivations peuvent casser des fonctionnalités si vous les utilisez vraiment. Par exemple, si vous avez des plugins qui dépendent de l’API REST, la virer complètement serait une mauvaise idée. Même chose pour les blocks Gutenberg si vous utilisez cet éditeur. L’astuce c’est donc de tester chaque modification une par une et de voir ce qui se passe.