Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Mico, le « nouveau Clippy » de Microsoft, veut rendre l’IA plus humaine

Par : Pierre Caer
24 octobre 2025 à 10:25
Microsoft a levé le voile sur Mico, un avatar animé et expressif destiné à donner un visage plus humain à Copilot, son assistant intelligent intégré à Windows 11 et Microsoft 365. Ce personnage virtuel, capable d’écouter, de réagir et même de changer de couleur selon vos interactions, a été conçu par Microsoft pour rendre les … Lire la suite

Source

Github Copilot pour Xcode est sorti - Et c'est Microsoft qui l'a fait !

Par : Korben
21 octobre 2025 à 11:20

Pendant qu’Apple peaufine son IA maison pour Xcode (sans date de sortie, évidemment), Microsoft vient tranquillou installer ses petites affaires dans l’écosystème le plus verrouillé du marché en sortant son extension officielle Github Copilot pour Xcode , pile-poil au moment où les rumeurs nous soufflent qu’Apple travaille aussi sur sa propre solution locale.

Cette extension de Github pour Xcode propose trois fonctionnalités principales. Tout d’abord de la complétion de code en temps réel. Ensuite, pendant que vous tapez, un tchat vous permet de poser des questions sur votre code, et il y a également un mode Agent qui peut modifier directement vos fichiers et lancer des commandes terminal. C’est gratuit jusqu’à 2000 complétions et 50 messages tchat par mois, donc largement de quoi rendre accro la majorité des devs iOS avant qu’Apple ne sorte son propre truc !

Maintenant pour utiliser un outil Microsoft dans un IDE Apple, vous devez accorder trois permissions macOS sacrées : Background, Accessibilité, et Xcode Source Editor Extension. Hé oui, Apple force littéralement ses développeurs à ouvrir toutes ces portes et niveau permissions, c’est l’Accessibilité qui pose régulièrement problème, car faut souvent la désactiver puis la réactiver pour que ça fonctionne correctement.

Ensuite l’installation est assez classique. Soit via Homebrew ou en téléchargeant le DMG directement depuis le dépôt GitHub.

brew install --cask github-copilot-for-xcode

Vous glissez ensuite l’app dans Applications, vous accordez les trois permissions système, vous activez l’extension dans les préférences Xcode, et hop, vous signez ça avec votre compte GitHub Copilot.

Un autre projet communautaire existait déjà intitni/CopilotForXcode , non officiel mais fonctionnel, qui supportait GitHub Copilot, Codeium et ChatGPT mais comme Microsoft sort maintenant sa version officielle pour contrôler le territoire comme un dealer dans son quartier, j’imagine que cette dernière ne va plus faire long feu.

Les tests comparatifs montrent que Copilot reste plus rapide et plus précis que le système de prédiction local d’Apple intégré dans Xcode car Apple mise uniquement sur du traitement local avec un modèle embarqué (pas de cloud donc, tout est sur votre Mac), surtout que Microsoft a déjà des années d’avance sur l’entraînement de ses IA et la rapidité de ses serveurs.

Donc voilà, les développeurs iOS se retrouvent maintenant à choisir entre attendre un hypothétique Copilot d’Apple sans date de sortie, ou donner les clés de leur Xcode à Microsoft dès maintenant. Ou alors continuer à coder sans IA comme les hommes de Cro-Magnon à l’époque !

En tout cas, avec 2000 complétions gratuites par mois comme dose pour devenir accro, combien vont résister si Apple tarde encore 6 mois de plus ??

Source

Microsoft va balancer à votre patron que vous n’utilisez pas les outils IA Copilot à votre disposition

14 octobre 2025 à 12:32

Microsoft a annoncé l’intégration, dans son outil d’analyse Viva Insights, de nouvelles données permettant de mesurer le taux d’utilisation de sa solution d’IA Copilot au sein des équipes. Un nouvel outil pour les managers, qui pourront traquer l’adoption de l’intelligence artificielle au sein de leur entreprise.

Copilot pour Windows 11 peut désormais créer des documents Word, Excel et PowerPoint à votre place !

13 octobre 2025 à 13:40

L'assistant IA Copilot pour Windows 11 peut désormais rechercher dans les données Microsoft et Google, mais aussi créer des fichiers Word, Excel et PowerPoint.

The post Copilot pour Windows 11 peut désormais créer des documents Word, Excel et PowerPoint à votre place ! first appeared on IT-Connect.

CamoLeak - Quand un simple commentaire GitHub transforme Copilot en espion

Par : Korben
10 octobre 2025 à 14:44

Y’a plein de problèmes avec les IA, mais y’en a un encore un peu trop sous-estimé par les vibe codeurs que vous êtes… Ce problème, c’est qu’on leur fait confiance comme à un collègue, on leur montre notre code, nos repos privés, nos petits secrets bien planqués dans les variables d’environnement…

Par exemple, quand vous passez en revue une pull request sur GitHub, vous faites quoi ? Vous lisez le code ligne par ligne, vous cherchez les bugs, les failles de sécu, les optimisations possibles. Mais les commentaires vous les lisez ? Au mieux on les survole, c’est vrai, car c’est de la comm’ entre devs, et pas du code exécutable.

Sauf pour Copilot Chat pour qui un commentaire c’est un texte comme un autre. Et selon Omer Mayraz , chercheur en sécurité chez Legit Security, c’est exactement ce qui en fait une zone de confiance aveugle parfaite pour une attaque.

Ce qu’a découvert Omer Mayraz c’est donc une vulnérabilité critique dans GitHub Copilot Chat avec un score CVSS de 9.6 sur 10. Cela consiste à planquer des instructions malveillantes dans des commentaires markdown invisibles comme ça, ces commentaires ne s’affichent pas dans l’interface web de GitHub, mais Copilot Chat les voit parfaitement et les traite comme des prompts légitimes.

Du coup, l’attaquant peut forcer Copilot à chercher des secrets dans vos repos privés, à extraire du code source confidentiel, voire à dénicher des descriptions de vulnérabilités zero-day non publiées. Tout ça sans que vous ne voyiez rien venir évidemment !

Voici une démo complète de l’attaque en vidéo :

La première étape c’est donc l’injection de prompt via un commentaire caché. Rien de révolutionnaire, mais efficace. Ensuite, deuxième étape : le bypass de la Content Security Policy de GitHub. Normalement, Copilot Chat ne peut charger que des ressources depuis des domaines appartenant à GitHub. Il est donc impossible d’envoyer des données vers un serveur externe.

Mais c’était sans compter sur le fait que GitHub dispose d’un proxy appelé Camo, conçu à l’origine pour sécuriser l’affichage d’images externes en les servant via HTTPS et en évitant le tracking. C’est donc ce proxy de sécurité qui devient l’outil d’exfiltration. Avec ce proxy, toutes les URLs d’images externes sont automatiquement transformées en URLs Camo du type https://camo.githubusercontent.com/[hash unique] et Mayraz a simplement utilisé l’API GitHub pour pré-générer un dictionnaire complet de ces URLs Camo, chacune pointant vers un emplacement unique sur son serveur.

Troisième étape, l’exfiltration des données. Au lieu de faire passer les secrets directement dans les URLs (trop visible), Mayraz a eu l’idée d’utiliser l’ordre des requêtes. Chaque lettre de l’alphabet correspond à une URL Camo unique. En faisant charger ces URLs dans un ordre précis, on peut ainsi transmettre des données texte comme avec un alphabet ASCII artisanal. C’est plutôt créatif comme approche, je trouve.

C’est exactement le même principe que les attaques ultrasoniques contre Alexa ou Siri. Si vous ne vous en souvenez pas, des chercheurs avaient démontré qu’on pouvait envoyer des commandes vocales à des fréquences inaudibles pour l’oreille humaine, mais parfaitement comprises par les assistants vocaux.

Bah ici, c’est pareil… On a des prompts invisibles pour les humains mais que l’IA voit et exécute sans broncher. Comme pour les enceintes, on parle à la machine sans que l’humain ne s’en aperçoive et la différence, c’est qu’au lieu de jouer sur les fréquences sonores, on joue sur le markdown et les commentaires cachés.

Du coup, chaque pull request externe est un potentiel cheval de Troie. Un contributeur externe soumet par exemple une PR apparemment légitime, avec un commentaire invisible qui ordonne à Copilot de chercher “AWS_KEY” dans vos repos privés. Vous de votre côté, vous ouvrez la PR dans votre éditeur, Copilot Chat s’active bien sûr automatiquement, et hop, vos clés API partent chez l’attaquant.

Quand on sait que GitHub a créé Camo justement pour améliorer la sécurité, ça fout un peu les boules. Bref, grâce à son proof-of-concept, Mayraz a réussi à exfiltrer des clés AWS, des tokens de sécurité, et même la description complète d’une vulnérabilité zero-day stockée dans une issue privée d’une organisation et tout ça sans aucune interaction suspecte visible par la victime.

Heureusement, notre joyeux chercheur a prévenu GitHub qui a réagi assez vite. Le 14 août l’entreprise a complètement désactivé le rendu d’images dans Copilot Chat, comme ça plus d’images, plus de problème. C’est radical, c’est sûr mais c’est efficace !

Quoiqu’il en soit, ces histoires de prompt injection c’est un problème fondamental propre aux LLM qui sont encore actuellement incapable de distinguer de manière fiable les instructions légitimes des instructions malveillantes. Ça reste donc un problème de confiance…

Dans ce cas précis, on fait confiance à GitHub pour héberger notre code du coup, on fait confiance à Copilot pour nous aider à développer, tout comme on fait confiance aux contributeurs externes pour soumettre des PR de bonne foi. Et nous voilà avec une jolie chaîne de confiance prête à être exploitée…

Bref, CamoLeak c’est que le début de cette nouvelle vague de vuln liées aux assistants IA qui se retrouvent intégrés dans nos outils de développement… Donc ouvrez l’oeil car on ne sait jamais ce qui sa cache vraiment dans une pull request.

Source

L’IA Copilot Chat arrive dans les applis Microsoft 365 Apps : un cadeau signé Microsoft

17 septembre 2025 à 06:44

L'IA va être intégrée dans les applications Word, Excel, PowerPoint et Outlook de Microsoft 365 Apps, grâce à Copilot Chat, sans frais supplémentaire.

The post L’IA Copilot Chat arrive dans les applis Microsoft 365 Apps : un cadeau signé Microsoft first appeared on IT-Connect.

Windows 11 : comment supprimer et désactiver Copilot ?

Par : Pierre Caer
25 août 2025 à 08:30
Depuis plusieurs mois maintenant, Microsoft intègre son assistant d’intelligence artificiel « Copilot » dans tous les recoins de Windows 11 : dans la barre des tâches, dans le navigateur web Microsoft Edge et même dans les applications Office comment Word ou encore Excel. Si certains y voient une nouvelle manière d’interagir avec leur PC, d’autres utilisateurs le … Lire la suite

Source

GitHub Copilot concepts: An overview of all services and tools

11 juillet 2025 à 15:25
The number of GitHub Copilot concepts continues to grow, and their similar names can easily confuse. This post offers an overview of all the concepts, along with a link to find more information. The main confusion stems from the Copilot tools on GitHub.com and GitHub Copilot in VS Code. Although there is some overlap, keeping these two areas separate is essential.

Source

❌
❌