Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 28 novembre 2025Flux principal

Il y a un message crypté au siège de la CIA et une personne a payé 1 million de dollars pour percer son secret

28 novembre 2025 à 10:31

Les documents permettant de décoder le dernier message secret de Kryptos, la célèbre sculpture codée installée au siège de la CIA, ont été adjugés 962 500 dollars le 22 novembre 2025. Plus de trente ans après son installation, le code K4 continue de défier cryptographes et amateurs du monde entier.

Il y a un message crypté au siège de la CIA et une personne a payé 1 million de dollars pour percer son secret

28 novembre 2025 à 10:31

Les documents permettant de décoder le dernier message secret de Kryptos, la célèbre sculpture codée installée au siège de la CIA, ont été adjugés 962 500 dollars le 22 novembre 2025. Plus de trente ans après son installation, le code K4 continue de défier cryptographes et amateurs du monde entier.

Nvidia : pourquoi Jensen Huang a traité de « maboules » les managers qui limitent l’usage de l’IA

27 novembre 2025 à 17:22

développement code programmation jensen huang nvidia

Alors que Nvidia bat de nouveaux records financiers, son PDG Jensen Huang critique les équipes réticentes face à l'IA, qualifiant leur hésitation de folie. Une marche forcée vers l'automatisation qui contraste pourtant avec les doutes grandissants sur la productivité réelle de ces outils.

Hier — 27 novembre 2025Flux principal

Pour le patron de Nvidia, il faut être maboule pour ne pas utiliser l’IA à tous les niveaux

27 novembre 2025 à 14:26

développement code programmation jensen huang nvidia

Alors que Nvidia bat de nouveaux records financiers, son PDG Jensen Huang critique les équipes réticentes face à l'IA, qualifiant leur hésitation de folie. Une marche forcée vers l'automatisation qui contraste pourtant avec les doutes grandissants sur la productivité réelle de ces outils.

Comment cacher 🤔󠄻󠅟󠅢󠅒󠅕󠅞󠄞󠅙󠅞󠅖󠅟󠄐󠅓󠄗󠅕󠅣󠅤󠄐󠅠󠅢󠅕󠅣󠅡󠅥󠅕󠄐󠅑󠅥󠅣󠅣󠅙󠄐󠅒󠅙󠅕󠅞󠄐󠅡󠅥󠅕󠄐󠅜󠅕󠄐󠅖󠅢󠅟󠅝󠅑󠅗󠅕󠄐󠅖󠅟󠅞󠅔󠅥 un mess

Par : Korben
27 novembre 2025 à 13:13

Vous voyez cet emoji ? 😎󠄺󠄗󠅑󠅙󠄐󠅠󠅑󠅣󠄐󠅥󠅞󠄐󠅠󠅕󠅥󠄐󠅜󠅕󠄐󠅝󠅕󠅙󠅜󠅜󠅕󠅥󠅢󠅣󠄐󠅣󠅙󠅤󠅕󠄐󠅔󠅥󠄐󠅝󠅟󠅞󠅔󠅕󠄐󠄯 Hé bien, il contient peut-être un message secret que vous ne pouvez pas voir.

Non je ne suis pas devenu fou, c’est de la stéganographie Unicode et c’est le sujet de ma dernière vidéo.

L’idée c’est de planquer du texte invisible à l’intérieur de n’importe quel caractère grâce aux sélecteurs de variation Unicode. Ces petits caractères invisibles se glissent après un emoji et peuvent encoder un message complet. À l’oeil nu, vous voyez juste un smiley. Mais en réalité, y’a peut-être tout un paragraphe caché dedans.

Dans cette vidéo, je vous montre donc comment utiliser l’outil open source de Paul Butler pour encoder et décoder vos propres messages. On teste aussi si ChatGPT arrive à lire ces messages cachés et je vous explique les applications concrètes comme le watermarking de contenu ou l’envoi de messages discrets.

C’est une technique à la fois fun et utile à connaître, que ce soit pour protéger vos créations ou juste pour impressionner vos potes geeks.

J’ai tout expliqué en 13 minutes, accessible même si vous n’y connaissez rien en Unicode. Et un grand merci à mes soutiens sur Patreon sans qui rien ne serait possible !

À partir d’avant-hierFlux principal

Découvrez Portainer CE : un outil qui simplifie l’administration des conteneurs Docker

19 novembre 2025 à 09:45

Ce tutoriel explique comment installer et utiliser Portainer CE pour administrer les conteneurs Docker et créer une nouvelle stack Docker Compose facilement.

The post Découvrez Portainer CE : un outil qui simplifie l’administration des conteneurs Docker first appeared on IT-Connect.

P2P Live Share - Pour coder à plusieurs sans donner son âme à Microsoft

Par : Korben
13 novembre 2025 à 06:53

Vous connaissez Live Share de Microsoft ? C’est un truc génial dans VS Code qui permet de coder à plusieurs en temps réel, de partager des terminaux, de debug ensemble. Sauf qu’il y a un petit détail relou : il faut un compte Microsoft ou GitHub. Et comme par hasard, toutes vos sessions doivent passer par les serveurs de Redmond.

Sympa donc pour la télémétrie.

Heureusement, P2P Live Share fait exactement la même chose, mais en peer-to-peer. Pas besoin de vous créer un compte, ça ne transite par aucun serveur intermédiaire, et surtout Microsoft ne mate pas votre code. Vous donnez simplement l’URL de la session à votre pote, il la colle dans son VS Code, et vous êtes connectés en direct, en P2P les amis, grâce à WebRTC !

Et l’extension fait tout ce qu’on attend d’un outil de collaboration à savoir du partage de code en temps réel, une synchronisation des curseurs, des terminaux partagés, du port forwarding, et même un chat intégré.

Une fois installé, quand vous lancez une session, P2P Live Share génère une URL unique avec un ID de room. Vous envoyez cette URL à votre collègue, il clique sur “Join”, et hop, vous êtes connectés en WebRTC direct.

D’ailleurs, selon la doc officielle , l’extension utilise plusieurs serveurs de signaling pour garantir la connexion : BitTorrent, Firebase, IPFS, Nostr comme ça, si l’un tombe, les autres prennent le relais. C’est du vrai décentralisé et vous pouvez même partager des ports, comme avec avec Live Share classique.

Comme ça, vous lancez un serveur web local sur le port 3000, et votre collègue peut y accéder directement depuis son navigateur. C’est super pratique pour tester une app en développement sans déployer quoi que ce soit.

Le terminal partagé fonctionne aussi très bien ! Vous ouvrez un shell, et votre pote peut taper des commandes dedans en temps réel. Bon, niveau sécurité, faut faire confiance à la personne en face mais c’est le même principe qu’avec Live Share.

Ce projet est open source sous licence MIT , donc vraiment libre et tout est chiffré de bout en bout. Alors oui, c’est moins mature que Live Share et forcément, il y aura des bugs mais au moins, vous ne filez pas votre code à Microsoft !

A découvrir ici !

Github Copilot pour Xcode est sorti - Et c'est Microsoft qui l'a fait !

Par : Korben
21 octobre 2025 à 11:20

Pendant qu’Apple peaufine son IA maison pour Xcode (sans date de sortie, évidemment), Microsoft vient tranquillou installer ses petites affaires dans l’écosystème le plus verrouillé du marché en sortant son extension officielle Github Copilot pour Xcode , pile-poil au moment où les rumeurs nous soufflent qu’Apple travaille aussi sur sa propre solution locale.

Cette extension de Github pour Xcode propose trois fonctionnalités principales. Tout d’abord de la complétion de code en temps réel. Ensuite, pendant que vous tapez, un tchat vous permet de poser des questions sur votre code, et il y a également un mode Agent qui peut modifier directement vos fichiers et lancer des commandes terminal. C’est gratuit jusqu’à 2000 complétions et 50 messages tchat par mois, donc largement de quoi rendre accro la majorité des devs iOS avant qu’Apple ne sorte son propre truc !

Maintenant pour utiliser un outil Microsoft dans un IDE Apple, vous devez accorder trois permissions macOS sacrées : Background, Accessibilité, et Xcode Source Editor Extension. Hé oui, Apple force littéralement ses développeurs à ouvrir toutes ces portes et niveau permissions, c’est l’Accessibilité qui pose régulièrement problème, car faut souvent la désactiver puis la réactiver pour que ça fonctionne correctement.

Ensuite l’installation est assez classique. Soit via Homebrew ou en téléchargeant le DMG directement depuis le dépôt GitHub.

brew install --cask github-copilot-for-xcode

Vous glissez ensuite l’app dans Applications, vous accordez les trois permissions système, vous activez l’extension dans les préférences Xcode, et hop, vous signez ça avec votre compte GitHub Copilot.

Un autre projet communautaire existait déjà intitni/CopilotForXcode , non officiel mais fonctionnel, qui supportait GitHub Copilot, Codeium et ChatGPT mais comme Microsoft sort maintenant sa version officielle pour contrôler le territoire comme un dealer dans son quartier, j’imagine que cette dernière ne va plus faire long feu.

Les tests comparatifs montrent que Copilot reste plus rapide et plus précis que le système de prédiction local d’Apple intégré dans Xcode car Apple mise uniquement sur du traitement local avec un modèle embarqué (pas de cloud donc, tout est sur votre Mac), surtout que Microsoft a déjà des années d’avance sur l’entraînement de ses IA et la rapidité de ses serveurs.

Donc voilà, les développeurs iOS se retrouvent maintenant à choisir entre attendre un hypothétique Copilot d’Apple sans date de sortie, ou donner les clés de leur Xcode à Microsoft dès maintenant. Ou alors continuer à coder sans IA comme les hommes de Cro-Magnon à l’époque !

En tout cas, avec 2000 complétions gratuites par mois comme dose pour devenir accro, combien vont résister si Apple tarde encore 6 mois de plus ??

Source

Azure DevOps local MCP Server reaches general availability

Par : IT Experts
16 octobre 2025 à 23:07
Microsoft has released the Azure DevOps local MCP Server as generally available, transitioning from public preview to production-ready status. The server enables AI assistants to access Azure DevOps data, including work items, pull requests, test plans, builds, and wikis. This allows IT professionals to automate DevOps workflows through natural language commands while maintaining data security within their local network.

Source

Dyad - Créer des apps web avec l'IA sans coder et sans sacrifier vos données perso

Par : Korben
9 octobre 2025 à 09:17

Vous connaissez ces outils qui promettent de créer des apps web juste en discutant avec une IA ? Genre Lovable, v0, Bolt, Replit…etc. C’est magique, sauf que tout tourne dans le cloud, vos données passent par leurs serveurs et vous êtes du coup enfermés dans leur écosystème.

Hé bien Dyad fait la même chose, mais un peu différemment puisque tout tourne en local sur votre machine. En plus c’est open-source et c’est gratuit.

Dyad, c’est donc un builder d’applications web piloté par IA. Vous lui expliquez ce que vous voulez, il génère le code directement chez vous sur votre machine et le truc cool, c’est qu’il vous laisse choisir votre modèle IA.

ChatGPT d’OpenAI, Gemini 2.5 Pro de Google, Claude Sonnet 4.5 d’Anthropic, prenez ce que vous voulez, vous mettez vos propres clés API et ça roule. Et si vous tenez vraiment à une vie privée totale, vous pouvez même utiliser Ollama pour faire tourner des modèles en local sans jamais que ça se connecte à internet.

Le projet est dispo sur GitHub , c’est codé en TypeScript, ça s’installe sur Mac et Windows, et y’a aucune inscription requise. Bref, vous téléchargez, vous lancez, et ça marche.

Dyad s’intègre avec Supabase pour la partie backendce qui permet d’avoir une bonne authentification, une base de données, des fonctions serveurr…etc. Tout y est, du coup vous pouvez créer des vraies apps full-stack, et pas juste des interfaces statiques comme on peut le faire avec mon petit LocalSite . Vous partez d’une idée, vous discutez avec l’IA, et vous sortez une application complète qui tourne sur votre machine en full vibe coding !

Il y a bien sûr des plans payants mais la version gratuite fait déjà le job pour du développement solo. Le créateur de Dyad s’appelle Will Chen et a même monté une communauté Reddit r/dyadbuilders où chacun montre un peu ce qu’il a fait. Ça peut vous donner des idées des capacités de cet outil.

Bref, si vous voulez jouer avec un vrai app builder IA sans dépendre du cloud et sans vendre votre âme à une plateforme propriétaire, Dyad fera très bien le job ! Vous pouvez même ensuite ouvrir les fichiers générés dans un VS Code ou Cursor si vous voulez mettre les mains dans le cambouis.

Download OpenAI open-weight models gpt-oss:20/gpt-oss:120 in Ollama and use in VS Code GitHub Copilot

6 août 2025 à 20:15
OpenAI has just released its first open-weight models, gpt-oss:20 and gpt-oss:120, enabling you to run these surprisingly powerful models locally, which benefits security and privacy. I downloaded gpt-oss:20 and tested it on my laptop using Ollama and within VS Code with GitHub Copilot. To my surprise, the 20 billion parameter model gpt-oss:20 responded to my prompt.

Source

❌
❌