Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 15 avril 2026Flux principal

Microsoft 365 Copilot security: Purview DLP, oversharing controls, and dashboard analytics

Par : IT Experts
15 avril 2026 à 16:00
Microsoft Purview Data Loss Prevention for web queries
Microsoft released new security and governance controls for Microsoft 365 Copilot, introducing Data Loss Prevention (DLP) policies that inspect prompts before Copilot processes them, protecting web searches from leaking sensitive data, and enabling bulk remediation of overshared SharePoint files. The Copilot Dashboard gained expanded access, user satisfaction tracking, and CSV export. This article explains what each feature does technically, how to configure the relevant policies, and where the current limitations are.

Source

Comment une fausse maladie a trompé les chatbots et infiltré la littérature scientifique

15 avril 2026 à 09:49

santé médecine

La bixonimanie n’existe pas, mais des articles de blogs et des prépublications sur cette maladie inventée par une chercheuse en médecine ont suffi à tromper plusieurs intelligences artificielles conversationnelles et à s’introduire dans un article scientifique officiel, soulevant d'inquiétantes questions sur la vérification des données à l’ère de la démocratisation de l’IA.

À partir d’avant-hierFlux principal

Le seul rival de Mario sur PS5 est enfin bradé sur Amazon

11 avril 2026 à 10:28

[Deal du jour] Que faisiez-vous en 2024 ? Eh bien, pendant ce temps, Team Asobi, le studio de développement japonais, sortait ce qui est aujourd'hui considéré comme le « Mario de la PS5 ». Sacré GOTY 2024, le jeu se trouve rarement en promotion, sauf aujourd'hui sur Amazon.

Une lumière vive au-dessus du Pacifique : la fin d’Artémis II vue de l’ISS

11 avril 2026 à 07:56

ISS Cupola

Les astronautes à bord de l'ISS ont tenté d'observer le retour sur Terre de la mission Artémis II, car la trajectoire finale de la capsule Orion ne se trouvait pas si loin que cela de la Station spatiale internationale.

Microsoft commence à effacer Copilot de ses applications, à commencer par le Bloc-notes

Par : Pierre Caer
10 avril 2026 à 11:21
Microsoft avait promis de revoir sa copie sur l’omniprésence de Copilot dans Windows 11 et les premiers gestes concrets commencent à apparaître. Une mise à jour du Bloc-notes, actuellement en cours de déploiement auprès des membres du programme Windows Insider, remplace discrètement le bouton Copilot par une icône plus neutre baptisée « Outils d’écriture ». … Lire la suite

Source

Windows 11 : vérifiez si vos certificats Secure Boot sont à jour avec Sécurité Windows

Par : Pierre Caer
10 avril 2026 à 10:41
Cette année, les certificats Secure Boot de votre PC arrivent à expiration, avec des conséquences directes sur la sécurité de votre système. Ces certificats sont en effet au cœur du démarrage sécurisé (Secure Boot), une fonctionnalité de sécurité essentielle présente sur tous les ordinateurs modernes qui vérifie, dès l’allumage, que tous les programmes qui se … Lire la suite

Source

Les astronautes d’Artémis II ont passé un petit coup de fil à l’ISS, où se trouve Sophie Adenot

Par : Hugo Ruher
8 avril 2026 à 12:30

iss artémis ii

Durant leur voyage vers la Lune, les astronautes à bord de la mission Artémis II ont pu avoir une conversation avec d'autres voyageurs spatiaux : l'équipage de la Station spatiale internationale, en orbite autour de la Terre, dont la Française Sophie Adenot.

Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code

31 mars 2026 à 18:47

claude anthropic

Coup dur pour Anthropic. L'entreprise derrière le très performant modèle Claude a accidentellement rendu public le code source de son outil pour développeurs, Claude Code. Des internautes ont fouillé dans les dossiers et ont découvert plusieurs projets de l'entreprise. Y compris un curieux concept de Tamagotchi.

Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code

31 mars 2026 à 16:04

claude anthropic

Coup dur pour Anthropic. L'entreprise derrière le très performant modèle Claude a accidentellement rendu public le code source de son outil pour développeurs, Claude Code. Des internautes ont fouillé dans les dossiers et ont découvert plusieurs projets de l'entreprise. Y compris un curieux concept de Tamagotchi.

GitHub fait machine arrière et va bien entraîner ses IA sur vos données

27 mars 2026 à 18:35

GitHub change son fusil d'épaule. Après avoir laissé planer un temps l’idée que les données de ses utilisateurs serviraient avant tout à améliorer Copilot sans forcément être réinjectées dans les modèles d’IA, la plateforme annonce désormais qu’elles seront bel et bien utilisées pour entraîner ses IA, à certaines conditions.

GitHub va utiliser vos données Copilot pour entraîner ses modèles d'IA

Par : Korben
26 mars 2026 à 16:50

À partir du 24 avril, GitHub activera par défaut la collecte des données d'interaction Copilot pour les utilisateurs Free, Pro et Pro+. Le gros sujet ici, c'est que le code, les suggestions acceptées et même la structure de vos dépôts pourront servir à améliorer les modèles d'IA de la plateforme.

Ce qui change à partir du 24 avril

GitHub vient d'annoncer une mise à jour de sa politique de confidentialité qui concerne directement Copilot. À compter du 24 avril 2026, la plateforme collectera par défaut les données d'interaction de ses utilisateurs pour entraîner ses modèles d'intelligence artificielle.

On parle ici des suggestions de code acceptées ou modifiées, des extraits de code envoyés au modèle, du contexte autour du curseur, des commentaires, de la documentation, des noms de fichiers, de la structure des dépôts, et même des retours comme les pouces en l'air ou en bas sur les suggestions.

Mario Rodriguez, le directeur produit de GitHub, assure que cette collecte permettra aux modèles de mieux comprendre les méthodes de développement et de proposer des suggestions de code plus précises et sécurisées.

Qui est concerné

Tous les abonnés Copilot Free, Pro et Pro+ sont concernés par ce changement. Et c'est automatique, pas besoin de cocher quoi que ce soit. Par contre, les comptes Copilot Business et Enterprise échappent à cette collecte, tout comme les étudiants et enseignants qui bénéficient de Copilot Pro gratuitement.

GitHub précise aussi que les utilisateurs qui avaient déjà désactivé le partage de données pour l'amélioration du produit conserveront leur réglage. Pour les autres, c'est l'opt-out qui s'applique, c'est-à-dire que c'est activé par défaut et c'est à vous de faire la démarche pour refuser.

Comment désactiver la collecte

Pour ceux qui ne souhaitent pas que leur code serve à nourrir les modèles de GitHub, la manipulation est assez simple. Il faut se rendre dans les paramètres du compte, section Copilot, puis dans les options de confidentialité.

L'option à désactiver s'appelle "Allow GitHub to use my data for AI model training". GitHub insiste sur le fait que le contenu des dépôts privés n'est pas collecté "au repos", mais attention, si vous utilisez Copilot activement avec le partage activé, vos interactions dans un dépôt privé sont bien concernées.

La tendance est lourde : après Anthropic, JetBrains et Microsoft lui-même, GitHub suit le mouvement et pioche dans les données de ses utilisateurs pour alimenter ses modèles.

Le choix de l'opt-out plutôt que de l'opt-in est quand même un classique américain qui passe toujours un peu mal de ce côté de l'Atlantique. D'ailleurs, sur la page de discussion GitHub, les réactions parlent d'elles-mêmes : 59 pouces vers le bas contre 3 petites fusées.

Difficile de faire plus clair comme signal. Bon par contre, au moins les comptes pro entreprise et les étudiants sont protégés, c'est déjà ça. Reste que pour tous les développeurs indépendants et les contributeurs open source en offre gratuite, c'est un peu l'histoire du produit gratuit dont on finit par être la matière première. Allez, un petit tour dans les paramètres et on n'en parle plus.

Source : Ghacks.net

GitHub va activer par défaut la collecte de données Copilot pour entraîner l’IA

26 mars 2026 à 12:11

GitHub vient d'annoncer que les interactions avec l'IA Copilot seront utilisées pour entraîner les modèles IA. Voici comment désactiver la collecte de données.

Le post GitHub va activer par défaut la collecte de données Copilot pour entraîner l’IA a été publié sur IT-Connect.

Dire à une IA qu'elle est experte la rend moins performante

Par : Korben
25 mars 2026 à 16:08

Des chercheurs de l'université de Californie du Sud viennent de publier une étude improbable : demander à un modèle d'IA de jouer les experts dégrade ses performances sur les tâches factuelles. Commencer un prompt par "Tu es un expert en programmation" produit de moins bons résultats que de poser la question directement.

Le piège du "tu es un expert"

L'étude, intitulée "Expert Personas Improve LLM Alignment but Damage Accuracy", a mesuré l'impact des instructions de rôle sur les réponses des modèles de langage.

Sur le benchmark MMLU, qui teste les connaissances générales et le raisonnement, les modèles avec une persona d'expert ont obtenu 68 % de bonnes réponses contre 71,6 % sans aucune instruction de rôle.

La baisse est constante sur toutes les catégories testées : maths, code, sciences, culture générale. Bref, dire à une IA qu'elle est brillante la rend un peu moins brillante.

Quand ça marche quand même

Par contre, le persona prompting fonctionne très bien pour un autre type de tâches : la sécurité et l'alignement. En attribuant un rôle de "moniteur de sécurité" au modèle, les chercheurs ont augmenté le taux de refus d'attaques de 53,2 % à 70,9 %, soit une hausse de 17,7 points. Pour les tâches d'écriture et de mise en forme, les personas aident aussi.

L'explication est assez logique : quand on colle un rôle d'expert au modèle, il bascule en mode "suivi d'instructions" et mobilise moins de ressources pour aller chercher les faits dans ses données d'entraînement. Aucune connaissance n'est ajoutée, on déplace juste l'attention du modèle.

Le bon réflexe à adopter

Les chercheurs de l'USC proposent un outil baptisé PRISM qui active automatiquement les personas uniquement quand c'est utile. Mais en attendant que ce genre de système soit intégré aux chatbots grand public, la recommandation est simple : si vous avez besoin de réponses factuelles ou de code, posez votre question directement sans ajouter de rôle.

Si vous voulez que l'IA respecte un ton, un format ou des consignes de sécurité, le persona prompting reste la bonne approche.

On a quand même passé deux ans à répéter partout qu'il fallait commencer ses prompts par "Tu es un expert en..." pour avoir de meilleurs résultats. Visiblement, c'était un peu du vent.

Source : Search Engine Journal

❌
❌