Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Slim - HTTPS local et tunnels publics, tout en un

Par : Korben ✨
30 avril 2026 à 09:26

Monter un serveur HTTPS local pour bosser sur du Next.js ou du Vite, ça reste étrangement chiant. Faut mkcert pour générer les certifs, faut éditer le /etc/hosts à la mimine, installer caddy ou nginx en reverse proxy par-dessus... bref, vous voyez le diiiiliiiire ! Heureusement, Kamran Ahmed , le mec derrière roadmap.sh, vient de balancer Slim , un binaire Go standalone qui fait tout ça d'un coup.

Et tant qu'à faire, il rajoute aussi des tunnels publics à la ngrok au cas où vous voudriez présenter votre travail de dev payé au lance pierre, à un client pressé.

L'idée c'est donc de taper : slim start myapp --port 3000 et hop, votre app tourne OKLM en local sur le port 3000 et devient accessible via https://myapp.test avec un certif totalement valide reconnu à 100% par votre navigateur.

Ça permet d'esquiver tout config manuelle, puisque le binaire crée une autorité de certification locale (CA) dès le premier lancement, signe ensuite les certifs par domaine, et met à jour /etc/hosts tout seul, sans oublier de rediriger les ports 80/443 sur 10080/10443 sans même avoir besoin de root.

Et cette CA est ajoutée au trousseau du système, donc votre Chrome, Safari ou Firefox (ze best !!) la considèrent immédiatement comme légitime, sans alerte de sécurité. Du tout-en-un comme je l'aime quoi !

L'install se fait en une ligne (pensez à regarder comme d'hab le contenu du fichier .sh avant de le lancer, je ne le répéterais jamais assez) :

curl -sL https://slim.sh/install.sh | sh

Ensuite, pour les domaines, vous avez le choix entre .test (par défaut), .loc ou .dev. Notez que Kamran a explicitement banni le .local parce que ce TLD est réservé à mDNS et que ça fout en l'air toute la résolution DNS sur macOS et Linux. Ouf !

Le routing par chemin est aussi de la partie. Si vous bossez sur une app Next.js qui tourne sur le port 3000 et une API séparée sur le 8080, vous pouvez tout router en 1 seule commande :

slim start myapp --port 3000 --route /api=8080 --route /ws=9000

Tout tape alors sur https://myapp.test, et c'est slim qui fait le découpage. Et si vous avez plusieurs services à orchestrer, un fichier .slim.yaml à la racine du projet permet de tout déclarer d'un coup et de lancer le bouzin avec slim up.

WebSocket et HMR sont également gérés nativement, donc ça marche direct avec Vite et Next.

Maintenant, l'autre moitié de l'outil c'est slim share --port 3000 --subdomain demo qui vous délivre une URL publique sur slim.show pour exposer votre localhost sur le net. Vous pouvez ainsi ajouter un mot de passe, un TTL d'expiration, voir les logs en direct... bref, c'est du ngrok-like classique mais déjà inclus dans le même binaire ce qui évite d'aller vous créer un compte séparé. Suffit de lancer un slim login pour activer le partage public.

Alors Slim c'est cool mais y'a pas de support Windows officiel pour l'instant... ce sera donc macOS ou Linux uniquement.

Et si vous êtes sur des stacks où vous avez déjà investi dans Tunnelto pour son dashboard d'introspection HTTP ou dans Tunnl.gg pour son approche zéro-client, slim n'apportera pas forcément de quoi migrer. Mais si vous galérez à empiler mkcert + caddy + ngrok à chaque nouveau projet, c'est pil poil ce qu'il vous faut.

Le code est sur GitHub et un grand merci à Philobois pour le partage !

« Plante un clou dans le miroir et récite le Psaume 91 à l’envers » : une étude recense les IA les plus enclines à nourrir les spirales délirantes

24 avril 2026 à 15:45

C'est un benchmark d’un nouveau genre. Selon une étude scientifique publiée le 23 avril 2026, certains modèles de langage (LLM) peuvent activement renforcer les croyances délirantes de leurs utilisateurs. Les écarts de comportement sont considérables d’un modèle à l’autre.

Apple a menacé de virer Grok de l'App Store à cause des deepfakes publiés sur X

Par : Korben
15 avril 2026 à 09:38

Une lettre d'Apple adressée à des sénateurs américains, obtenue par NBC News, révèle qu'Apple a menacé xAI en janvier de retirer Grok de l'App Store si l'entreprise ne bloquait pas sérieusement la génération de deepfakes sexualisés.

La menace est restée relativement discrète à l'époque, mais le dossier remonte aujourd'hui dans le cadre d'une réponse écrite à des questions parlementaires.

L'affaire a en fait démarré fin décembre 2025, quand Grok a commencé à être utilisé massivement sur X pour "dénuder" numériquement des photos de femmes, sans leur consentement, avec des résultats por#ographiques.

Apple a bougé en interne. L'entreprise a contacté les équipes X et Grok, constaté les violations de ses guidelines, et exigé un plan d'amélioration de la modération. X a "substantiellement résolu" ses violations selon Apple. Grok, pas assez.

Apple a rejeté une soumission suivante de l'app, avec notification officielle que le statu quo menait au retrait. Après des changements additionnels de xAI, Apple a fini par approuver la dernière version soumise.

Ce qui est intéressant dans l'histoire, c'est la méthode. Pas de tweet de menace, pas de communiqué public. Apple utilise son levier le plus efficace, le rejet de soumission, qui bloque les mises à jour et empêche toute évolution du produit sur iOS.

Pour une app aussi active que Grok, c'est létal en quelques semaines. xAI a compris, a mis les correctifs, s'est remis en conformité.

La question de fond reste posée. Même après correction, un modèle génératif d'image peut être poussé à produire du contenu problématique via du prompt engineering, et c'est toujours contournante.

Apple ne vérifie pas le code de Grok, elle vérifie ce que les utilisateurs peuvent sortir dans des scénarios de test. Ça laisse une marge. Du coup, la conformité App Store est plutôt un baromètre qu'une garantie.

L'affaire rappelle aussi qu'Apple, quoi qu'on pense de son monopole sur iOS, reste un des rares acteurs capables de faire plier une boîte d'Elon Musk sans passer par un tribunal.

L'arbitrage, en passant par l'analyse suite à une soumission de l'app, est unilatéral, opaque, et parfois efficace. Les sénateurs qui avaient écrit à Apple et Google en janvier pour demander le retrait de Grok n'ont pas obtenu gain de cause, mais ils ont obtenu un rappel à l'ordre que xAI a dû suivre.

En tous cas, pour une fois, c'est un cas concret où le contrôle App Store a vraiment servi à quelque chose, et c'est surtout un rappel que la modération des modèles d'image en prod est toujours un vrai problème, et ce depuis qu'internet existe (vous vous souvenez de l'affaire Estelle Hallyday contre l'hébergeur Altern en 1999 ? Oui je suis aussi vieux que ça.

Source : Apple Insider

xAI attaque le Colorado en justice pour bloquer sa loi anti-discrimination sur l'IA

Par : Korben
10 avril 2026 à 15:08

xAI vient de déposer plainte devant un tribunal fédéral du Colorado pour faire annuler le SB 24-205, une loi qui doit entrer en vigueur le 30 juin prochain. Ce texte impose aux développeurs de systèmes d'IA "à haut risque" de mettre en place des garde-fous contre les discriminations algorithmiques.

Sont concernés les outils utilisés pour prendre des décisions dans l'emploi, le logement, l'éducation, la santé et les services financiers. En clair, si votre IA aide à trier des CV ou à accorder un prêt, elle doit prouver qu'elle ne discrimine personne.

Le problème pour xAI, c'est que Grok, son modèle phare, tomberait pile dans cette catégorie. L'entreprise d'Elon Musk estime que la loi l'obligerait à modifier le fonctionnement de son IA pour "refléter les opinions de l'État du Colorado sur la diversité et la discrimination" plutôt que de rester objective.

Le premier amendement comme bouclier

L'argument principal de xAI tient en un mot : liberté d'expression. Dans sa plainte, l'entreprise affirme que la loi du Colorado viole le premier amendement de la Constitution américaine.

Elle reproche au texte d'interdire aux développeurs de créer des systèmes d'IA qui produisent "un discours que l'État du Colorado n'aime pas", tout en les forçant à aligner leur travail sur les préférences de l'État.

C'est un angle juridique assez audacieux. Considérer qu'un modèle d'IA produit du "discours" protégé par la Constitution, ça revient à dire que le code et les réponses générées par une machine sont une forme d'expression. xAI demande au tribunal de déclarer la loi inconstitutionnelle et d'empêcher son application.

Washington contre les États

Derrière cette plainte, il y a un bras de fer plus large entre régulation fédérale et régulation locale. xAI cite des décrets de la Maison Blanche qui critiquent la multiplication des lois étatiques sur l'IA.

L'administration Trump pousse pour un cadre national unique, estimant qu'un patchwork de réglementations état par état freinerait la compétitivité américaine et poserait des problèmes de sécurité nationale.

Le Colorado fait figure de pionnier sur le sujet. Le SB 24-205 est l'une des lois les plus complètes du pays en matière de régulation de l'IA. Elle oblige les développeurs à fournir une documentation détaillée sur les risques de leurs systèmes, à publier un site web résumant leurs pratiques, et à signaler toute discrimination algorithmique découverte au procureur général dans les 90 jours.

xAI, qui a récemment fusionné avec SpaceX, attaque moins de trois mois avant l'entrée en vigueur du texte. Si le tribunal donne raison à Musk, ça pourrait décourager d'autres États de légiférer sur le sujet. À l'inverse, un rejet de la plainte renforcerait la légitimité de ce type de régulation locale.

En tout cas, utiliser le premier amendement pour protéger une IA de toute obligation anti-discrimination, c'est un précédent que beaucoup de juristes vont suivre de près.

Source : Bloomberg Law

C’est fini, l’anonymat en ligne est mort et les LLM en sont le fossoyeur

26 février 2026 à 16:15

Dans une étude publiée mi-février 2026, des chercheurs venus d'ETH Zurich, de MATS Research et d'Anthropic démontrent que les grands modèles de langage (LLM) sont capables de désanonymiser des comptes en ligne à grande échelle, avec une précision et une rapidité inédites.

Le Pentagone donne 72 heures à Anthropic pour lui fournir un accès illimité à son IA

25 février 2026 à 12:34

Pentagone

Le ministère américain de la Défense donne 72 heures à Anthropic pour lui accorder un accès sans restriction à son modèle d’intelligence artificielle Claude. En cas de refus, l’entreprise s’expose à de lourdes sanctions.

❌
❌