Vue normale
Comment une fausse maladie a trompé les chatbots et infiltré la littérature scientifique
![]()
La bixonimanie n’existe pas, mais des articles de blogs et des prépublications sur cette maladie inventée par une chercheuse en médecine ont suffi à tromper plusieurs intelligences artificielles conversationnelles et à s’introduire dans un article scientifique officiel, soulevant d'inquiétantes questions sur la vérification des données à l’ère de la démocratisation de l’IA.
Le seul rival de Mario sur PS5 est enfin bradé sur Amazon
![]()
[Deal du jour] Que faisiez-vous en 2024 ? Eh bien, pendant ce temps, Team Asobi, le studio de développement japonais, sortait ce qui est aujourd'hui considéré comme le « Mario de la PS5 ». Sacré GOTY 2024, le jeu se trouve rarement en promotion, sauf aujourd'hui sur Amazon.
Une lumière vive au-dessus du Pacifique : la fin d’Artémis II vue de l’ISS
![]()
Les astronautes à bord de l'ISS ont tenté d'observer le retour sur Terre de la mission Artémis II, car la trajectoire finale de la capsule Orion ne se trouvait pas si loin que cela de la Station spatiale internationale.
-
Le Crabe Info
- Microsoft commence à effacer Copilot de ses applications, à commencer par le Bloc-notes
Microsoft commence à effacer Copilot de ses applications, à commencer par le Bloc-notes
-
Le Crabe Info
- Windows 11 : vérifiez si vos certificats Secure Boot sont à jour avec Sécurité Windows
Windows 11 : vérifiez si vos certificats Secure Boot sont à jour avec Sécurité Windows
-
Numerama
- Les astronautes d’Artémis II ont passé un petit coup de fil à l’ISS, où se trouve Sophie Adenot
Les astronautes d’Artémis II ont passé un petit coup de fil à l’ISS, où se trouve Sophie Adenot
![]()
Durant leur voyage vers la Lune, les astronautes à bord de la mission Artémis II ont pu avoir une conversation avec d'autres voyageurs spatiaux : l'équipage de la Station spatiale internationale, en orbite autour de la Terre, dont la Française Sophie Adenot.
-
Windows Central - News, Forums, Reviews, Help for Windows 10 and all things Microsoft.
- "Make file recovery more predictable": A major change to OneDrive is about to roll out, and I happily welcome anything that improves sync performance
"Make file recovery more predictable": A major change to OneDrive is about to roll out, and I happily welcome anything that improves sync performance
-
Windows Central - News, Forums, Reviews, Help for Windows 10 and all things Microsoft.
- “Copilot is in a survival scramble”: I break down Microsoft’s chaotic AI strategy shift — and why I’m still trying to figure out where this all leads next
“Copilot is in a survival scramble”: I break down Microsoft’s chaotic AI strategy shift — and why I’m still trying to figure out where this all leads next
-
Windows Central - News, Forums, Reviews, Help for Windows 10 and all things Microsoft.
- Microsoft dismisses a trending Bing-era disclaimer that "Copilot is for entertainment purposes only": There's no reason for you to worry about this outdated language
Microsoft dismisses a trending Bing-era disclaimer that "Copilot is for entertainment purposes only": There's no reason for you to worry about this outdated language
-
Cyberguerre
- Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code
Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code
![]()
Coup dur pour Anthropic. L'entreprise derrière le très performant modèle Claude a accidentellement rendu public le code source de son outil pour développeurs, Claude Code. Des internautes ont fouillé dans les dossiers et ont découvert plusieurs projets de l'entreprise. Y compris un curieux concept de Tamagotchi.
-
Cyberguerre
- Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code
Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code
![]()
Coup dur pour Anthropic. L'entreprise derrière le très performant modèle Claude a accidentellement rendu public le code source de son outil pour développeurs, Claude Code. Des internautes ont fouillé dans les dossiers et ont découvert plusieurs projets de l'entreprise. Y compris un curieux concept de Tamagotchi.
-
Windows Central - News, Forums, Reviews, Help for Windows 10 and all things Microsoft.
- This is Microsoft's new "Copilot Cowork": An experiment with Anthropic's Claude AI models that plans and delegates your work
This is Microsoft's new "Copilot Cowork": An experiment with Anthropic's Claude AI models that plans and delegates your work
GitHub fait machine arrière et va bien entraîner ses IA sur vos données
![]()
GitHub change son fusil d'épaule. Après avoir laissé planer un temps l’idée que les données de ses utilisateurs serviraient avant tout à améliorer Copilot sans forcément être réinjectées dans les modèles d’IA, la plateforme annonce désormais qu’elles seront bel et bien utilisées pour entraîner ses IA, à certaines conditions.
-
Windows Central - News, Forums, Reviews, Help for Windows 10 and all things Microsoft.
- Yes, your office admin can fully remove Microsoft's Copilot app from your work PCs — if you follow this strict criteria for 28 days
Yes, your office admin can fully remove Microsoft's Copilot app from your work PCs — if you follow this strict criteria for 28 days
Aujourd’hui est le pire jour pour utiliser votre IA au travail
![]()
Un analyste de Gartner préconise aux entreprises de couper l'usage de l'IA le vendredi après-midi. Explications.
GitHub va utiliser vos données Copilot pour entraîner ses modèles d'IA
À partir du 24 avril, GitHub activera par défaut la collecte des données d'interaction Copilot pour les utilisateurs Free, Pro et Pro+. Le gros sujet ici, c'est que le code, les suggestions acceptées et même la structure de vos dépôts pourront servir à améliorer les modèles d'IA de la plateforme.
Ce qui change à partir du 24 avril
GitHub vient d'annoncer une mise à jour de sa politique de confidentialité qui concerne directement Copilot. À compter du 24 avril 2026, la plateforme collectera par défaut les données d'interaction de ses utilisateurs pour entraîner ses modèles d'intelligence artificielle.
On parle ici des suggestions de code acceptées ou modifiées, des extraits de code envoyés au modèle, du contexte autour du curseur, des commentaires, de la documentation, des noms de fichiers, de la structure des dépôts, et même des retours comme les pouces en l'air ou en bas sur les suggestions.
Mario Rodriguez, le directeur produit de GitHub, assure que cette collecte permettra aux modèles de mieux comprendre les méthodes de développement et de proposer des suggestions de code plus précises et sécurisées.
Qui est concerné
Tous les abonnés Copilot Free, Pro et Pro+ sont concernés par ce changement. Et c'est automatique, pas besoin de cocher quoi que ce soit. Par contre, les comptes Copilot Business et Enterprise échappent à cette collecte, tout comme les étudiants et enseignants qui bénéficient de Copilot Pro gratuitement.
GitHub précise aussi que les utilisateurs qui avaient déjà désactivé le partage de données pour l'amélioration du produit conserveront leur réglage. Pour les autres, c'est l'opt-out qui s'applique, c'est-à-dire que c'est activé par défaut et c'est à vous de faire la démarche pour refuser.
Comment désactiver la collecte
Pour ceux qui ne souhaitent pas que leur code serve à nourrir les modèles de GitHub, la manipulation est assez simple. Il faut se rendre dans les paramètres du compte, section Copilot, puis dans les options de confidentialité.
L'option à désactiver s'appelle "Allow GitHub to use my data for AI model training". GitHub insiste sur le fait que le contenu des dépôts privés n'est pas collecté "au repos", mais attention, si vous utilisez Copilot activement avec le partage activé, vos interactions dans un dépôt privé sont bien concernées.
La tendance est lourde : après Anthropic, JetBrains et Microsoft lui-même, GitHub suit le mouvement et pioche dans les données de ses utilisateurs pour alimenter ses modèles.
Le choix de l'opt-out plutôt que de l'opt-in est quand même un classique américain qui passe toujours un peu mal de ce côté de l'Atlantique. D'ailleurs, sur la page de discussion GitHub, les réactions parlent d'elles-mêmes : 59 pouces vers le bas contre 3 petites fusées.
Difficile de faire plus clair comme signal. Bon par contre, au moins les comptes pro entreprise et les étudiants sont protégés, c'est déjà ça. Reste que pour tous les développeurs indépendants et les contributeurs open source en offre gratuite, c'est un peu l'histoire du produit gratuit dont on finit par être la matière première. Allez, un petit tour dans les paramètres et on n'en parle plus.
Source : Ghacks.net

GitHub va activer par défaut la collecte de données Copilot pour entraîner l’IA
GitHub vient d'annoncer que les interactions avec l'IA Copilot seront utilisées pour entraîner les modèles IA. Voici comment désactiver la collecte de données.
Le post GitHub va activer par défaut la collecte de données Copilot pour entraîner l’IA a été publié sur IT-Connect.
Dire à une IA qu'elle est experte la rend moins performante
Des chercheurs de l'université de Californie du Sud viennent de publier une étude improbable : demander à un modèle d'IA de jouer les experts dégrade ses performances sur les tâches factuelles. Commencer un prompt par "Tu es un expert en programmation" produit de moins bons résultats que de poser la question directement.
Le piège du "tu es un expert"
L'étude, intitulée "Expert Personas Improve LLM Alignment but Damage Accuracy", a mesuré l'impact des instructions de rôle sur les réponses des modèles de langage.
Sur le benchmark MMLU, qui teste les connaissances générales et le raisonnement, les modèles avec une persona d'expert ont obtenu 68 % de bonnes réponses contre 71,6 % sans aucune instruction de rôle.
La baisse est constante sur toutes les catégories testées : maths, code, sciences, culture générale. Bref, dire à une IA qu'elle est brillante la rend un peu moins brillante.
Quand ça marche quand même
Par contre, le persona prompting fonctionne très bien pour un autre type de tâches : la sécurité et l'alignement. En attribuant un rôle de "moniteur de sécurité" au modèle, les chercheurs ont augmenté le taux de refus d'attaques de 53,2 % à 70,9 %, soit une hausse de 17,7 points. Pour les tâches d'écriture et de mise en forme, les personas aident aussi.
L'explication est assez logique : quand on colle un rôle d'expert au modèle, il bascule en mode "suivi d'instructions" et mobilise moins de ressources pour aller chercher les faits dans ses données d'entraînement. Aucune connaissance n'est ajoutée, on déplace juste l'attention du modèle.
Le bon réflexe à adopter
Les chercheurs de l'USC proposent un outil baptisé PRISM qui active automatiquement les personas uniquement quand c'est utile. Mais en attendant que ce genre de système soit intégré aux chatbots grand public, la recommandation est simple : si vous avez besoin de réponses factuelles ou de code, posez votre question directement sans ajouter de rôle.
Si vous voulez que l'IA respecte un ton, un format ou des consignes de sécurité, le persona prompting reste la bonne approche.
On a quand même passé deux ans à répéter partout qu'il fallait commencer ses prompts par "Tu es un expert en..." pour avoir de meilleurs résultats. Visiblement, c'était un peu du vent.
Source : Search Engine Journal
