Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 26 mars 2026Flux principal

GitHub va utiliser vos données Copilot pour entraîner ses modèles d'IA

Par : Korben
26 mars 2026 à 16:50

À partir du 24 avril, GitHub activera par défaut la collecte des données d'interaction Copilot pour les utilisateurs Free, Pro et Pro+. Le gros sujet ici, c'est que le code, les suggestions acceptées et même la structure de vos dépôts pourront servir à améliorer les modèles d'IA de la plateforme.

Ce qui change à partir du 24 avril

GitHub vient d'annoncer une mise à jour de sa politique de confidentialité qui concerne directement Copilot. À compter du 24 avril 2026, la plateforme collectera par défaut les données d'interaction de ses utilisateurs pour entraîner ses modèles d'intelligence artificielle.

On parle ici des suggestions de code acceptées ou modifiées, des extraits de code envoyés au modèle, du contexte autour du curseur, des commentaires, de la documentation, des noms de fichiers, de la structure des dépôts, et même des retours comme les pouces en l'air ou en bas sur les suggestions.

Mario Rodriguez, le directeur produit de GitHub, assure que cette collecte permettra aux modèles de mieux comprendre les méthodes de développement et de proposer des suggestions de code plus précises et sécurisées.

Qui est concerné

Tous les abonnés Copilot Free, Pro et Pro+ sont concernés par ce changement. Et c'est automatique, pas besoin de cocher quoi que ce soit. Par contre, les comptes Copilot Business et Enterprise échappent à cette collecte, tout comme les étudiants et enseignants qui bénéficient de Copilot Pro gratuitement.

GitHub précise aussi que les utilisateurs qui avaient déjà désactivé le partage de données pour l'amélioration du produit conserveront leur réglage. Pour les autres, c'est l'opt-out qui s'applique, c'est-à-dire que c'est activé par défaut et c'est à vous de faire la démarche pour refuser.

Comment désactiver la collecte

Pour ceux qui ne souhaitent pas que leur code serve à nourrir les modèles de GitHub, la manipulation est assez simple. Il faut se rendre dans les paramètres du compte, section Copilot, puis dans les options de confidentialité.

L'option à désactiver s'appelle "Allow GitHub to use my data for AI model training". GitHub insiste sur le fait que le contenu des dépôts privés n'est pas collecté "au repos", mais attention, si vous utilisez Copilot activement avec le partage activé, vos interactions dans un dépôt privé sont bien concernées.

La tendance est lourde : après Anthropic, JetBrains et Microsoft lui-même, GitHub suit le mouvement et pioche dans les données de ses utilisateurs pour alimenter ses modèles.

Le choix de l'opt-out plutôt que de l'opt-in est quand même un classique américain qui passe toujours un peu mal de ce côté de l'Atlantique. D'ailleurs, sur la page de discussion GitHub, les réactions parlent d'elles-mêmes : 59 pouces vers le bas contre 3 petites fusées.

Difficile de faire plus clair comme signal. Bon par contre, au moins les comptes pro entreprise et les étudiants sont protégés, c'est déjà ça. Reste que pour tous les développeurs indépendants et les contributeurs open source en offre gratuite, c'est un peu l'histoire du produit gratuit dont on finit par être la matière première. Allez, un petit tour dans les paramètres et on n'en parle plus.

Source : Ghacks.net

GitHub va activer par défaut la collecte de données Copilot pour entraîner l’IA

26 mars 2026 à 12:11

GitHub vient d'annoncer que les interactions avec l'IA Copilot seront utilisées pour entraîner les modèles IA. Voici comment désactiver la collecte de données.

Le post GitHub va activer par défaut la collecte de données Copilot pour entraîner l’IA a été publié sur IT-Connect.

Hier — 25 mars 2026Flux principal

Dire à une IA qu'elle est experte la rend moins performante

Par : Korben
25 mars 2026 à 16:08

Des chercheurs de l'université de Californie du Sud viennent de publier une étude improbable : demander à un modèle d'IA de jouer les experts dégrade ses performances sur les tâches factuelles. Commencer un prompt par "Tu es un expert en programmation" produit de moins bons résultats que de poser la question directement.

Le piège du "tu es un expert"

L'étude, intitulée "Expert Personas Improve LLM Alignment but Damage Accuracy", a mesuré l'impact des instructions de rôle sur les réponses des modèles de langage.

Sur le benchmark MMLU, qui teste les connaissances générales et le raisonnement, les modèles avec une persona d'expert ont obtenu 68 % de bonnes réponses contre 71,6 % sans aucune instruction de rôle.

La baisse est constante sur toutes les catégories testées : maths, code, sciences, culture générale. Bref, dire à une IA qu'elle est brillante la rend un peu moins brillante.

Quand ça marche quand même

Par contre, le persona prompting fonctionne très bien pour un autre type de tâches : la sécurité et l'alignement. En attribuant un rôle de "moniteur de sécurité" au modèle, les chercheurs ont augmenté le taux de refus d'attaques de 53,2 % à 70,9 %, soit une hausse de 17,7 points. Pour les tâches d'écriture et de mise en forme, les personas aident aussi.

L'explication est assez logique : quand on colle un rôle d'expert au modèle, il bascule en mode "suivi d'instructions" et mobilise moins de ressources pour aller chercher les faits dans ses données d'entraînement. Aucune connaissance n'est ajoutée, on déplace juste l'attention du modèle.

Le bon réflexe à adopter

Les chercheurs de l'USC proposent un outil baptisé PRISM qui active automatiquement les personas uniquement quand c'est utile. Mais en attendant que ce genre de système soit intégré aux chatbots grand public, la recommandation est simple : si vous avez besoin de réponses factuelles ou de code, posez votre question directement sans ajouter de rôle.

Si vous voulez que l'IA respecte un ton, un format ou des consignes de sécurité, le persona prompting reste la bonne approche.

On a quand même passé deux ans à répéter partout qu'il fallait commencer ses prompts par "Tu es un expert en..." pour avoir de meilleurs résultats. Visiblement, c'était un peu du vent.

Source : Search Engine Journal

À partir d’avant-hierFlux principal

Il confie une mise à jour à une IA, elle supprime toute sa base de production

20 mars 2026 à 19:10

Claude Code Sonnet

Des incidents récents survenus chez un développeur indépendant et, plus largement, au sein de grandes entreprises comme Amazon, relancent les questions sur l’usage de l’IA dans le développement logiciel.

Moxie Marlinspike (Signal) s’allie à Meta pour « bunkeriser » vos conversations avec l’IA

20 mars 2026 à 11:04

Dix ans après avoir sécurisé WhatsApp, le créateur du protocole Signal, Moxie Marlinspike, récidive. Son nouveau projet, Confer, va s'intégrer à Meta AI pour garantir que vos échanges avec l'intelligence artificielle restent strictement privés, même pour Mark Zuckerberg.

Comma 4 + openpilot 0.11 - La conduite assistée open source passe un cap

Par : Korben
19 mars 2026 à 11:24

Vous vous souvenez quand je vous parlais de Geohot et de sa voiture autonome en 2015 ? Le mec bidouillait une Acura avec des caméras à 13 balles et rêvait de vendre son kit à 1000 balles. Hé bien 10 ans plus tard, c'est fait ! Et si je vous reparle de ça aujourd'hui, c'est parce que sa société comma.ai sort la v0.11 d' openpilot ainsi qu'un nouveau boîtier qui tient dans la main, le Comma 4 !

Alors qu'est-ce qui change avec cette version 0.11 ?

En gros, c'est le premier système de conduite assistée dont le modèle est entièrement entraîné dans une simulation générée par un réseau neuronal.

Comma est donc sorti du simulateur classique avec des règles codées à la main pour passer officiellement sur World Model de 2 milliards de paramètres qui a avalé 2,5 millions de minutes de vidéo de conduite réelle filmées par les dashcams de leurs anciens boîtiers Comma 3 et 3X pour apprendre à simuler tout ce qu'il se passe sur la route.

Et c'est dans cette simulation apprise que le petit réseau neuronal qui pilote votre voiture s'entraîne. Concrètement, openpilot gère le maintien de voie et l'accélération/freinage sur l'autoroute, un peu comme un super régulateur adaptatif. Résultat avec cette v0.11 (qui succède à la v0.10 sortie il y a quelques mois ), ça converge mieux en vitesse, ça réagit mieux autour des voitures garées, et les utilisateurs qui l'ont testé préfèrent carrément ce mode Experimental au régulateur classique de leur voiture.

George Hotz, alias Geohot (le génie qui avait hacké l'iPhone à 17 ans puis la PS3), continue de faire les choses à sa manière et c'est pour ça que je l'adore ! Pas de levée de fonds à 10 milliards, pas de partenariat avec un constructeur auto. Non, juste sa dream team à San Diego qui conçoit, fabrique et assemble tout sur place et dernièrement, ils ont même ouvert leur propre datacenter avec 600 GPU et 4 pétaoctets de stockage... le tout pour environ 5 millions de dollars alors que la même infra en cloud leur aurait coûté 5 fois plus cher.

Donc bravo George pour les économies ^^ !

Côté hardware, le Comma 4 est une petite merveille d'ingénierie. Il est cinq fois plus petit que le Comma 3X, avec la même puissance de calcul (Snapdragon 845 MAX), un écran OLED, triple caméra 360 degrés et un système de refroidissement custom qui ne bride jamais le processeur... le tout sans faire un bruit.

Vous le collez sur votre pare-brise, hop, 5 minutes d'install, pas de temps de séchage (le 3X demandait 48 heures de séchage !), pas besoin de Wi-Fi au démarrage et c'est parti mon kiki. Et c'est compatible avec plus de 300 véhicules , dont Toyota, Hyundai, Honda, Ford et même des Lexus ou des Kia. Cela coûte 999 dollars, ou 699 si vous renvoyez votre ancien appareil, peu importe son état.

Et pour ceux qui se demandent comment ça se compare aux gros... Hé bien pendant que Mercedes met en pause son Drive Pilot de niveau 3 parce que ça coûte trop cher à développer, et que Tesla promet le niveau 5 depuis une décennie sans jamais le livrer, comma.ai sort un truc open source qui marche sur beaucoup de bagnoles lambda (pas les françaises, désolé ^^).

Donc pas besoin de claquer 35 000 à 45 000 euros dans une Tesla pour avoir de l'assistance à la conduite potable. Vous gardez votre Toyota ou votre Honda, vous branchez le Comma 4 sur le bus CAN (le réseau interne de votre voiture) et vous avez un truc qui envoie du bois ! Attention par contre, c'est du niveau 2 : donc vous devez garder les mains sur le volant et les yeux sur la route !! Car le problème c'est qu'en France, la légalité de ce genre de boîtier reste floue, donc renseignez-vous bien avant de foncer. Et sauf si votre bagnole est dans la liste de compatibilité, ça ne marchera pas forcément et là faudra suer un peu dans le code et le reverse pour le portage !

La v0.11 apporte aussi un détail technique qui a son importance. La consommation en veille du Comma 4 est passée de 225 milliwatts à 52 milliwatts, soit une réduction de 77%. Cela veut dire qu'avant ça vidait la batterie de votre bagnole en quelques semaines si vous le laissiez branché sans démarrer la voiture. Mais maintenant c'est plutôt en mois donc on peut le laisser tout le temps actif, ça passe. Pour réussir cette prouesse, ils ont désactivé les périphériques inutiles sur le microcontrôleur STM32, réduit le voltage scaling de VOS1 à VOS3, et mis le CPU en mode stop... du bel embarqué bien optimisé comme on aime !

Ce que je trouve dingue, c'est que c'est open source et qu'il n'y a encore eu aucun constructeur en Europe qui n'a eu la présence d'esprit d'intégrer ça dans ses bagnoles alors que les Chinois ne font que ça depuis des mois.

Perso, j'ai pas encore craqué pour le Comma 4. À vrai dire j'attends qu'il y ait une petite promo parce que 999 dollars ça pique un peu, mais clairement c'est sur ma liste. Mais en tout cas, je ne peux que saluer le chemin parcouru depuis ce prototype de 2015 conçu dans un garage. C'est quand même dingue ce que fait cette boîte avec une fraction des moyens de Tesla ou de Waymo.

Bref, si la conduite assistée open source vous branche, c'est le moment de s'y intéresser.

J’ai demandé à Gemini de relire mon article, il a voulu inventer une fausse interview

17 mars 2026 à 17:00

Alors que j'ai sollicité Gemini pour une simple relecture d'un de mes articles sur OpenAI, l'IA de Google a franchi la ligne rouge : elle a proposé d'inventer, de toutes pièces, une interview fictive.

Trop d’IA dans Windows 11 ? Microsoft abandonne finalement plusieurs fonctions Copilot

17 mars 2026 à 07:57

Windows 11 et CopilotMicrosoft enterre plusieurs intégrations de Copilot prévues dans Windows 11, notamment dans les notifications, les Paramètres et l’Explorateur de fichiers.

Cet article Trop d’IA dans Windows 11 ? Microsoft abandonne finalement plusieurs fonctions Copilot a été publié en premier par GinjFo.

Pas de porno mais de l’érotisme : ce que l’on sait du futur « mode adulte » de ChatGPT

16 mars 2026 à 18:13

Alors que le « mode adulte » de ChatGPT est de nouveau repoussé, le Wall Street Journal a révélé, ce dimanche 15 mars 2026, de nouveaux détails sur le fonctionnement de l’outil. Entre promesses de contenus érotiques textuels et failles inquiétantes du système de vérification d'âge, la firme de Sam Altman navigue en pleine zone grise.

J’ai testé Runna pour courir mon premier semi-marathon : j’ai réussi, mais leur modèle est en danger de mort

Par : Julien Cadot
14 mars 2026 à 14:03

Défi idiot, crise de la presque quarantaine, pression populaire et professionnelle (on le dit peu, mais Humanoid est une boîte de sportives et de sportifs) : quelle que soit ma raison profonde, j'ai eu envie de courir un semi-marathon. Et pour m'aider dans cette tâche, moi qui n'ai pas couru depuis 15 ans, j'ai testé une app bien connue : Runna. Verdict : quelques jours après avoir passé la ligne d'arrivée du semi-marathon de Paris.

Cette entreprise vous offre 800 dollars pour harceler une intelligence artificielle

13 mars 2026 à 18:28

Être payé 800 dollars pour pousser des chatbots à bout ? C’est l’étonnante offre d’emploi lancée par la startup Memvid, qui cherche une personne capable de tester les trous de mémoire et les limites frustrantes de l’intelligence artificielle.

❌
❌