Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 16 mai 2024IT

Actif depuis 15 ans, le botnet Ebury a infecté 400 000 serveurs Linux

16 mai 2024 à 07:38

Depuis 2009, le botnet nommé Ebury a infecté pas moins de 400 000 serveurs Linux, et à la fin de l'année 2023, environ 100 000 appareils étaient toujours infectés par ce logiciel malveillant. Faisons le point !

Depuis plus de 10 ans, les chercheurs en sécurité de chez ESET suivent la progression et le comportement du botnet Ebury. Il a évolué au fil des années, que ce soit au niveau de ses capacités d'infection, que du nombre de machines compromises. Le graphique ci-dessous, partagé par ESET, montre bien cette progression.

Evolution botnet Ebury 2009 - 2024
Source : ESET - welivesecurity.com

Au total, Ebury a permis d'infecter 400 000 serveurs Linux en 15 années d'activités. Ce chiffre est énorme, mais la période est importante également : tous les serveurs n'ont pas été infectés en même temps. Comme l'explique ESET, ce botnet est actif au niveau mondial : "Il est à noter qu'il n'y a pas de limite géographique à Ebury, ce qui signifie que toute variation exceptionnelle est principalement due à l'emplacement des centres de données les plus populaires."

ESET estime qu'il est difficile d'estimer la taille du botnet à un moment donné, notamment car "il y a un flux constant de nouveaux serveurs compromis, tandis que d'autres sont nettoyés ou mis hors service."

La tactique du botnet Ebury

Les cyberattaques récentes d'Ebury montrent que les cybercriminels qui sont aux manettes cherchent à s'introduire sur l'infrastructure des fournisseurs de services Cloud et hébergeurs. Ainsi, ils peuvent prendre le contrôle des serveurs des clients de l'hébergeur dont l'infrastructure est compromise. Par exemple, il peut s'agir de serveurs VPS ou de containers.

Pour l'accès initial, la technique classique du credential stuffing est utilisée, c'est-à-dire que des couples d'identifiants et mots de passe volés sont utilisés pour essayer de "brute forcer" la cible. Lorsqu'Ebury parvient à compromettre un serveur, il s'intéresse aux connexions SSH en exfiltrant le contenu du fichier "known_host" et en volant les clés SSH. Ces informations sont ensuite utilisées pour tenter de se déplacer vers d'autres machines, notamment celles connectées sur le même segment réseau.

Source : ESET - welivesecurity.com

Par la suite, le malware est capable de rediriger le trafic du serveur compromis vers un serveur piloté par les attaquants, grâce à de l'ARP spoofing. Là encore, ceci permet aux attaquants de collecter des identifiants SSH qui seront ensuite utilisés pour compromettre de nouvelles machines.

Les serveurs compromis sont utilisés par les pirates d'Ebury dans le cadre d'opérations visant à générer de l'argent. Certains serveurs seront utilisés pour envoyer des e-mails de phishing, tandis que d'autres vont héberger des sites falsifiés permettant de voler des numéros de cartes bancaires.

Enfin, si ESET a pu rédiger un rapport aussi précis et aussi complet, ce n'est pas un hasard : ESET a travaillé en collaboration avec la "National High Tech Crime Unit" (NHTCU) des Pays-Bas, qui a récemment mis la main un serveur de sauvegarde utilisé par les opérateurs d'Ebury.

Source

The post Actif depuis 15 ans, le botnet Ebury a infecté 400 000 serveurs Linux first appeared on IT-Connect.

À partir d’avant-hierIT

Télécharger ISO Ubuntu 24.04 LTS

Par : malekalmorte
14 mai 2024 à 14:52

Ubuntu 24.04 LTS (Noble Numbat) est la version avec un support étendu publiée en Avril 2024.
Ce support s’étend sur 5 années, soit donc jusqu’en Juin 2029.

Cette version d’Ubuntu vient avec une version du noyau Linux 6.8, GCC est mis à jour vers la version 14, binutils vers 2.42, glibc vers 2.39 et Python en 3.12.
La pile réseau par défaut est dorénavant NetPlan et PipeWire est le nouveau serveur de son.

Dans ce tutoriel, vous trouverez toutes les liens gratuits pour télécharger les images d’Ubuntu et ses dérivés Kubuntu, Lubuntu, Xubuntu.

Télécharger ISO Ubuntu 24.04 LTS

Télécharger ISO Ubuntu 24.04 LTS

Ubuntu 24.04 LTS (AMD64)

Nom de fichierubuntu-22.04-desktop-amd64.iso
Taille du fichier5,7 Go
Format du fichierISO
SHA1 / MD5SHA1 : 08aef13357ce85082fe8292b22e6d1887d46ea37
LiensTélécharger Ubuntu 24.04 LTS (malekal.com)
Télécharger Ubuntu 22.04 LTS (lien direct officiel)

Comment installer Ubuntu 22.04 LTS (Linux)

Kubuntu 24.04 LTS (AMD64)

Nom de fichierkubuntu-24.04-desktop-amd64.iso
Taille du fichier3.9 Go
Format du fichierISO
SHA1 / MD5SHA1 : c36a88584a056aa27cd8abbaf6bb95a2f813ab89
LiensTélécharger Kubuntu 22.04 LTS (malekal.com)
Télécharger Kubuntu 22.04 LTS (lien direct officiel)

Comment installer Ubuntu 22.04 LTS (Linux)

Xubuntu 24.04 LTS (AMD64)

Nom de fichierxubuntu-24.04-desktop-amd64.iso
Taille du fichier3.8 Go
Format du fichierISO
SHA1 / MD5SHA1 : 2fdb4204a5573dea18c4f19bb0e69f0ec868517f
LiensTélécharger Xubuntu 22.04 LTS (malekal.com)
TéléchargerXubuntu 22.04 LTS (lien direct officiel)

Comment installer Ubuntu 22.04 LTS (Linux)

Lubuntu 24.04 LTS (AMD64)

Nom de fichierlubuntu-24.04-desktop-amd64.iso
Taille du fichier3.1 Go
Format du fichierISO
SHA1 / MD5SHA1 : 6b1bbd6626cc66792aa8322e84da469e8c38374e
LiensTélécharger Lubuntu 24.04 LTS (malekal.com)
Télécharger Lubuntu 22.04 LTS (lien direct officiel)

Comment installer Lubuntu 22.04 LTS

L’article Télécharger ISO Ubuntu 24.04 LTS est apparu en premier sur malekal.com.

Linux : monter un fichier ISO

Par : malekalmorte
12 mai 2024 à 09:02

Un fichier ISO est une image disque qui contient l’intégralité des données et la structure d’un disque optique, comme un CD ou un DVD.
Monter un fichier ISO est un processus qui permet de simuler la présence d’un disque physique dans votre ordinateur, sans avoir besoin d’un disque réel.
Vous pouvez faire cela très facilement sur Linux pour accéder au contenu du fichier image.

Dans ce tutoriel, je vous montre comment monter un fichier ISO sur Linux depuis un terminal ou en graphique.

Comment monter un fichier ISO sur Linux

Comment monter un fichier ISO sur Linux

En graphique

  • Faites un clic droit sur le fichier ISO puis Ouvrir avec Monteur d’image disque
Comment monter un fichier ISO sur Linux en ligne de commandes
  • Le lecteur virtuel est accessible depuis l’Explorateur, cliquez dessus
  • Selon la distribution Linux, le lecteur peut s’afficher dans les favoris, sur le bureau ou encore dans la barre des tâches ou lanceur
Comment monter un fichier ISO sur Linux en ligne de commandes
  • Pour retirer le lecteur virtuel du fichier image, faites simplement un clic droit dessus puis Démonter
Comment monter un fichier ISO sur Linux en ligne de commandes

En ligne de commandes depuis un terminal

La commande mount vous permet d’attacher (monter) des fichiers ISO à un point de montage particulier dans l’arborescence des répertoires.
Les instructions de cette section devraient fonctionner sur n’importe quelle distribution Linux, y compris Ubuntu, Debian, Linux Mint ou Fedora.

  • Voici la syntaxe de la commande mount :
sudo mount -o loop <fichier ISO> /dossier/destination
  • On créé le répertoire /media/iso :
sudo mkdir /media/iso
  • Puis par exemple, pour monter le fichier VBoxGuestAdditions_7.0.18.iso dans /media/iso :
sudo mount -o loop ~/Téléchargements/VBoxGuestAdditions_7.0.18.iso /media/iso
Comment monter un fichier ISO sur Linux en ligne de commandes
  • Vous vérifier que le fichier ISO est bien monté en utilisant la commande. Vous devez obtenir une ligne du type
/home/mak/Téléchargements/VBoxGuestAdditions_7.0.18.iso on /media/iso type iso9660 (ro,relatime,nojoliet,check=s,map=n,blocksize=2048,iocharset=utf8)
Comment monter un fichier ISO sur Linux en ligne de commandes
  • Enfin pour démonter le fichier ISO, utilisez la commande umount en indiquant le point de montage :
sudo umount /media/iso

Avec AcetoneISO

AcetoneISO est un programme libre et open-source qui permet de gérer et de manipuler des fichiers d’image disque tels que les fichiers ISO sous Linux. Il offre une interface graphique intuitive qui facilite diverses opérations sans nécessiter de commandes complexes en ligne de commande.
De plus, vous pouvez convertir des formats ISO, audio ou encore graver des DVD-Rom.

Pour l’installer :

sudo apt install acetoneiso

Vous pouvez monter un fichier ISO manuellement ou encore gérer une base de données depuis un répertoire.

Comment monter un fichier ISO sur Linux avec AcetoneISO

Liens

L’article Linux : monter un fichier ISO est apparu en premier sur malekal.com.

iVentoy – Un serveur PXE léger pour déployer Windows, Linux et VMware ESXi par le réseau

8 mai 2024 à 18:00

I. Présentation

Dans ce tutoriel, nous allons découvrir iVentoy, un serveur PXE très léger et simple à utiliser capable de déployer des images Windows, Linux, mais aussi VMware ESXi. À l'heure actuelle, il prend en charge de nombreux systèmes et 170 images différentes ont été testées !

iVentoy a été développé par la même personne que Ventoy, le célèbre outil de création de clés USB bootable. Sauf qu'iVentoy est un serveur PXE clé en main qui intègre à la fois le serveur DHCP et le boot PXE, tout en proposant un ensemble d'options et fonctionnalités. iVentoy est une alternative à d'autres solutions comme le rôle Windows Deployment Services (WDS) de Windows Server.

Le principe est simple : vous stockez sur votre serveur iVentoy différentes images ISO (Windows 11, Debian, Ubuntu, Windows Server, etc.) et vous démarrez iVentoy de façon à pouvoir déployer ces images ISO via le réseau local. Autrement dit, l'installation du système d'exploitation est effectuée par le réseau et vous pouvez installer plusieurs machines en même temps.

iVentoy est gratuit pour une utilisation personnelle et il est facturé 49 dollars pour une utilisation commerciale. C'est un tarif plus que raisonnable et ceci permettra de soutenir le projet. La version gratuite permet de déployer jusqu'à 20 machines simultanément, tandis que la version commerciale n'a aucune limite. Vous pouvez consulter le site d'iVentoy pour en savoir plus.

Pour approfondir le sujet du boot PXE et de WDS, voici des lectures recommandées :

II. Télécharger et installer iVentoy

iVentoy peut être installé sur Linux, mais également Windows et Windows Server. Dans cet exemple, nous allons l'installer sur un poste de travail Windows 11 : l'outil fonctionnera parfaitement et n'a aucune dépendance vis-à-vis de Windows Server.

L'installation est vraiment simple ! Rendez-vous sur le GitHub officiel et téléchargez la dernière version correspondante à votre système d'exploitation. Ici, le fichier "iventoy-1.0.220-win64-free.zip" est téléchargé.

Quand c'est fait, décompressez l'archive ZIP sur votre PC. Puis, accédez au dossier obtenu afin d'exécuter le fichier nommé "iVentoy_64". Il va permettre de lancer le serveur iVentoy ! Une notification apparaîtra à l'écran pour vous demander d'autoriser iVentoy dans le pare-feu : acceptez. Il y a également une alerte SmartScreen parce que l'exécutable n'est pas signé, mais vous pouvez l'exécuter (ce serait bien que le développeur améliore ce point).

Si nécessaire, cliquez sur "Open Link" pour accéder à l'interface de gestion d'iVentoy. Il s'agit d'une interface web accessible en locale à l'adresse suivante :

http://127.0.0.1:26000/

Voici un aperçu :

Voilà, le serveur iVentoy n'attend plus qu'une chose : être configuré pour vous permettre de déployer vos premières machines !

III. Configurer le serveur iVentoy

La première chose à effectuer, c'est alimenter la bibliothèque d'images ISO d'iVentoy. C'est très simple, il vous suffit de copier-coller vos images ISO dans le répertoire "iso" de l'application. Dans cet exemple, deux images ISO pour Windows 11 et Debian sont copiées. La liste des images ISO testées est disponible sur cette page.

Ensuite, à partir de l'interface web, cliquez sur "Image Management". Vous devriez voir apparaître vos images ISO. En cliquant sur une image ISO, nous accédons à plusieurs options, notamment pour :

  • Définir l'image sélectionnée comme image de démarrage par défaut ("Set as default boot file").
  • Protéger le démarrage sur cette image par un mot de passe ("Boot Password").
  • Injecter des pilotes ou des scripts ("Injection File")
  • Utiliser un script d'auto-installation, c'est-à-dire un fichier Unattend.xml pour Windows, un fichier preseed.cfg pour Debian, un modèle Cloud-init pour Ubuntu, etc. ("Auto Install Script")

Basculer vers l'onglet "Configuration" qui donne accès aux options pour les serveurs TFTP et DHCP. iVentoy intègre son propre serveur DHCP, mais vous pouvez utiliser un serveur DHCP externe, sur Windows Server, par exemple. Si vous utilisez un autre serveur DHCP, veillez à bien le configurer. Pour cette démonstration, le serveur DHCP intégré à iVentoy est utilisé.

Pour utiliser un serveur DHCP externe, vous devez configurer l'option "DHCP Server Mode" et ne pas utiliser le mode "Internal". Vous devez alors configurer l'option DHCP 66 avec l'adresse IP du serveur iVentoy et l'option DHCP 67 avec la valeur "iventoy_loader_16000". Pour information, le "16000" dans le nom correspond au numéro de port par défaut de l'interface web.

Basculez vers l'onglet "Boot Information" afin de démarrer le serveur iVentoy. Mais avant cela, nous devons configurer la partie "IP Configuration" afin de définir un masque de sous-réseau, une adresse IP de passerelle, un serveur DNS, ainsi qu'une plage d'adresses IP à distribuer aux machines clientes à déployer.

Voici un exemple :

Une fois que c'est fait, vous pouvez cliquer sur le bouton vert "Lecture" pour démarrer le serveur iVentoy.

Remarque : la section "MAC Filter" du menu permet de configurer le filtrage MAC pour autoriser uniquement certaines machines, via leur adresse MAC.

Désormais, nous allons pouvoir tester notre serveur iVentoy, car il est - déjà - prêt !

IV. Déployer une machine via le réseau

Pour tester le déploiement via le réseau, vous pouvez utiliser un ordinateur physique ou une machine virtuelle. Pour ma part, je vais utiliser une machine virtuelle sur VMware Workstation. Elle a bien démarré sur le réseau en iPXE et j'arrive sur une interface avec le logo iVentoy où je vois bien mes deux images : Debian et Windows 11 !

Avec les flèches directionnelles du clavier, il suffit de choisir l'image correspondante au système que nous souhaitons déployer et d'appuyer sur "Entrée".

La machine va charger l'image ISO par le réseau. Nous arrivons sur le programme d'installation de Debian 12 :

Dans le même temps, côté serveur iVentoy, la section "Device List" présente dans "Boot Information" liste toutes les machines en cours de déploiement. La colonne "Status" est intéressante, car elle indique où en est la machine et notamment l'image de démarrage sélectionnée.

Par ailleurs, il est tout à fait possible d'installer Windows 11, toujours via le boot iVentoy !

Il ne reste plus qu'à patienter pendant l'installation du système !

V. Conclusion

L'application iVentoy est à la fois simple à utiliser et très efficace ! Elle offre la possibilité de déployer facilement des images Linux, Windows, etc... Très facilement car il suffit de copier-coller l'image ISO dans le répertoire "iso" de l'application ! Si vous en avez assez de vos clés USB Ventoy, vous pouvez vous orienter sur iVentoy pour effectuer du déploiement par le réseau !

The post iVentoy – Un serveur PXE léger pour déployer Windows, Linux et VMware ESXi par le réseau first appeared on IT-Connect.

ntfsfix : réparer NTFS sur Linux

Par : malekalmorte
5 mai 2024 à 07:09

Si vous rencontrez des erreurs pour monter ou accéder à une partition NTFS d’un disque dur ou d’une clé USB sur Linux, vous pouvez réparer les erreurs avec l’utilitaire ntfsfix du paquet ntfs-3g.

Dans ce tutoriel, je vous présente cet utilitaire et je vous montre comment l’utiliser à travers des exemples.

ntfsfix : réparer NTFS sur Linux

Qu’est-ce que ntfsfix

ntfsfix est un outil de réparation pour les systèmes de fichiers NTFS, généralement utilisé dans les environnements Linux. Le système de fichiers NTFS (New Technology File System) est le système de fichiers principal utilisé par les systèmes d’exploitation Microsoft Windows.

Cet outil fait partie du paquet ntfs-3g, un logiciel libre qui permet aux systèmes d’exploitation basés sur Linux de lire et d’écrire sur des systèmes de fichiers NTFS.

Les principales fonctions incluent :

  • Réparer des erreurs mineures : ntfsfix peut résoudre certaines erreurs mineures du système de fichiers NTFS, ce qui permet à un système Linux d’accéder correctement aux partitions NTFS.
  • Effacer les journaux d’erreurs : Il supprime les journaux d’erreurs marqués comme “bad” (mauvais), ce qui peut aider à résoudre certains problèmes.
  • Configurer pour une vérification complète par Windows : ntfsfix ne fait pas une réparation complète du système de fichiers NTFS. Au lieu de cela, il marque la partition NTFS pour une vérification par les outils de réparation natifs de Windows, tels que ntfsfix. Cela signifie qu’une fois que la partition NTFS est montée sur un système Windows, ce dernier effectuera une vérification complète du système de fichiers et pourra réparer toute erreur majeure.

Il est important de noter que ntfsfix ne doit pas être considéré comme un outil de réparation complet pour les systèmes de fichiers NTFS. Il est principalement conçu pour permettre l’accès immédiat à une partition NTFS depuis un environnement Linux, mais pour une réparation complète, il est recommandé d’utiliser les outils natifs de Windows.

Comment utiliser ntfsfix sur Linux

  • Sur les distributions Linux à base de Debian, Ubuntu, Mint, avec APT :
sudo apt-get install ntfs-3g
  • Pour les distributions Linux de type Fedora / Redhat :
sudo yum install epel-release # RHEL
sudo yum install ntfs-3g # Fedora
sudo ntfsfix /dev/sda5

Pour effectuer une simulation où ntfsfix n’écrit rien mais montre seulement ce qui aurait été fait, utilisez l’option -n ou –no-action.
Remplacez /dev/sda4 par le lecteur de disque :

sudo ntfsfix -n /dev/sda4

Après cela, vous pouvez lancer la réparation sans option :

sudo ntfsfix /dev/sda4

ntfsfix dispose d’une autre option utile -b ou –clear-bad-sectors pour effacer la liste des secteurs défectueux. Cette fonctionnalité est particulièrement utile après le clonage d’un ancien disque contenant des secteurs défectueux sur un nouveau disque.

sudo ntfsfix -b /dev/sda4

De plus, ntfsfix permet d’effacer le drapeau de volume sale si le volume peut être fixé et monté. Vous pouvez invoquer cette fonctionnalité en contournant l’option -d comme indiqué.

sudo ntfsfix -d /dev/sda4
Remarque : ntfsfix ne peut réparer que certaines erreurs de partition NTFS. S’il échoue, chkdsk réussira probablement. Si Windows est installé, vous pouvez également charger Windows et exécuter son programme de vérification des disques, chkdsk.

L’article ntfsfix : réparer NTFS sur Linux est apparu en premier sur malekal.com.

Résoudre les erreurs et problèmes pour monter une partition NTFS (clé USB, disque dur) sur Linux

Par : malekalmorte
4 mai 2024 à 11:15

Vous utiliser Linux et vous ne parvenez pas à monter une partition NTFS (New Technology File System).
Cela peut se produire sur une partition de disque spécifique ou une clé USB.
En général vous rencontrez une erreur mount et impossible d’accéder aux fichiers de la partition de disque ou clé USB : mount: wrong fs type, bad option, bad superblock, Failed to mount ou $MFTMirr does not match $MFT (record 3).

Dans ce tutoriel, je vous donne toutes les solutions pour résoudre les problèmes pour monter une partition NTFS sur Linux.

Résoudre les erreurs et problèmes pour monter une partition NTFS (clé USB, disque dur) sur Linux

Pourquoi Linux ne parvient pas à monter une partition NTFS

Voici les principales raisons qui peuvent faire que vous rencontriez des problèmes pour accéder à un disque en NTFS sur Linux :

  • Le système de fichiers NTFS est endommagé
  • La partition de disque est corrompu. Par exemple elle est passée en RAW
  • Le disque présente un problème matériel, comme une corruption de disque

Un autre cas courant est que le système de fichiers n’est pas propre et doit être vérifié.
Dans ce cas là, mount peut renvoyer l’erreur suivant :

$MFTMirr does not match $MFT (record 3).
Failed to mount '/dev/sda1': Erreur d'entrée/sortie

NTFS is either inconsistent, or there is a hardware fault, or it's a SoftRAID/FakeRAID hardware. In the first case run chkdsk /f on Windows then reboot into Windows twice. The usage of the /f parameter is very important! If the device is a SoftRAID/FakeRAID then first activate it and mount a different device under the /dev/mapper/ directory, (e.g.
/dev/mapper/nvidia_eahaabcc1). Please see the 'dmraid' documentation for more details.

Nautilus ou autre explorateur de fichier peuvent aussi afficher une erreur

Impossible d'accéder à l'emplacement
error mounting - wrong fs type, bad option, bad superblock
Impossible d'accéder à l'emplacement sur Linux : error mounting - wrong fs type, bad option, bad superblock

Comment résoudre les erreurs NTFS sur Linux

Faire un chkdsk (si Windows est disponible)

Si vous avez une installation Dual-boot (sinon passez au paragraphe suivant), vous pouvez utiliser l’utilitaire internet de Windows chkdsk (check disk).
Comme son nom l’indique, il permet de réparer les erreurs du système de fichiers.

  • Redémarrez sous Windows
  • Sur votre partition de disque ou clé USB : faites un clic droit > Propriétés
  • Onglet Outils
  • Puis cliquez sur Vérifier

Il est aussi possible de lancer la commande depuis l’invite de commandes :

chkdsk X: /R /F

où X: est la lettre de lecteurs à vérifier.

Consultez ce guide pour plus d’aide pour utiliser l’utilitaire chkdsk : chkdsk : réparer les erreurs de disque/lecteur NTFS/FAT sur Windows

Utiliser ntfsfix sous Linux

Si Windows n’est disponible, vous pouvez utiliser l’utilitaire de réparation NTFS de Linux nommé ntfsfix.
Notez qu’il est réputé pour être moins performant que chkdsk mais il peut résoudre les problèmes mineurs.

  • Installez la suite d’utilitaires NTFS pour Linux :
sudo apt-get install ntfs-3g
  • Puis utilisez la commande suivante en spécifiant la lecteur de disque :
sudo ntfsfix /dev/sdaXX
  • Pour vérifier et réparer les secteurs défectueux, ajoutez l‘option -b. Pour effacer l’indicateur de volume sale, utilisez l’option -d :
sudo ntfsfix -b -d /dev/sda6

Monter la partition de disque manuellement

Si aucune des étapes ci-dessus n’a fonctionné, vous pouvez essayer de monter manuellement la partition. Ouvrez une fenêtre de terminal et tapez :

sudo mount -t ntfs /dev/sdXY /mnt

Remplacez /dev/sdXY par votre propre nom de périphérique ou l’emplacement de votre disque dur, et choisissez n’importe quel répertoire comme point de montage (dans ce cas, mon exemple utilise “/mnt”). Il est essentiel de garder à l’esprit que ces étapes ne peuvent réparer que quelques types d’erreurs NTFS.

Dans certains cas, la récupération d’une partition NTFS défectueuse peut nécessiter un formatage ou une restauration à partir de sauvegardes. Il est essentiel de toujours effectuer des sauvegardes régulières pour éviter de perdre des données importantes.

Si cela fonctionne, il est possible que votre fichier fstab soit mal configuré : mount et fstab : monter des partitions de disques ou NTFS, NFS, CIFS sur Linux

Vérifier les secteurs défectueux à l’aide de smartmontools

Si votre disque dur présente des secteurs défectueux, cela peut entraîner l’erreur “NTFS Partition Failed to Mount” (Échec du montage de la partition NTFS). Vous pouvez utiliser smartmontools pour vérifier la présence de secteurs défectueux sur votre disque dur.

Smartmontools est un paquetage open-source qui fournit des utilitaires pour surveiller l’état des périphériques de stockage à l’aide de S.M.A.R.T. (Self-Monitoring Analysis and Reporting Technology). Pour utiliser smartmontools, vous devez d’abord l’installer sur votre système.

sudo apt install smartmontools

Une fois installé, vous pouvez exécuter la commande “smartctl” avec les options appropriées pour vérifier l’état de votre disque dur. Si des secteurs défectueux sont détectés, vous devez remplacer votre disque dur dès que possible.

Utiliser testdisk

Si les solutions précédentes ne permettent pas de résoudre l’erreur NTFS Partition Failed to Mount, essayez d’utiliser des outils tiers tels que TestDisk et Photorec.
Ces outils puissants permettent de récupérer les partitions perdues ou endommagées, de réparer les tables de partition et de récupérer les données perdues.

  • TestDisk est un outil de ligne de commande qui peut être utilisé pour restaurer des partitions supprimées, résoudre des problèmes de table de partition et rendre les disques non amorçables à nouveau amorçables.
  • Photorec est un outil de récupération de fichiers qui permet de récupérer des fichiers perdus sur des disques endommagés ou formatés. Ces deux outils sont des logiciels libres et gratuits qui fonctionnent sur plusieurs plateformes, y compris Linux.
sudo apt-get install testdisk

Puis lancer l’utilitaire de cette manière :

sudo testdisk

L’article Résoudre les erreurs et problèmes pour monter une partition NTFS (clé USB, disque dur) sur Linux est apparu en premier sur malekal.com.

git clone : utilisation et exemples

Par : malekalmorte
28 avril 2024 à 14:14

Git est un système de contrôle de version distribué, conçu pour suivre les modifications dans les fichiers et coordonner le travail sur ces fichiers entre plusieurs personnes

git clone est une commande Git utilisée pour créer une copie d’un dépôt distant sur votre machine locale. Elle télécharge essentiellement l’ensemble du dépôt, y compris tous ses fichiers, ses branches et l’historique des livraisons.
Vous pouvez en avoir besoin pour récupérer un dépôt public sur GitHub ou si vous êtes un développeur pour obtenir une copie d’un projet.

Dans ce tutoriel, je vous explique comment utiliser la commande git clone.

Comment cloner un dépôt git

Comment cloner un dépôt git

Voici la syntaxe générale de la commande git clone :

git clone <repository_URL>

Par exemple, si vous voulez cloner un dépôt hébergé sur GitHub, vous utiliserez :

git clone git://github.com/<nom dépôt>.git

Cette commande créera un nouveau répertoire sur votre machine locale avec le même nom que le dépôt et téléchargera tout son contenu dans ce répertoire.

Comment cloner un dépôt git

Si vous souhaitez spécifier un nom de répertoire différent, vous pouvez le faire en l’ajoutant comme argument supplémentaire après l’URL du dépôt :

git clone <dépôt_URL> <nom_repertoire>
Comment cloner un dépôt git

Comment cloner un dépôt, y compris ses sous-modules (récursif)

Un submodule (sous-module) est un référentiel Git intégré à un autre référentiel Git plus large. Lorsque vous clônez un référentiel qui contient des sous-modules, ces sous-modules sont initialement configurés pour pointer vers une version spécifique (commit) dans leur référentiel d’origine.

Si vous souhaitez cloner un dépôt git tout en clonant également ses sous-modules, vous devez ajouter l’option –recurse-submodules :

git clone --recurse-submodules git://github.com/<nom dépôt>.git

Si vous souhaitez cloner et mettre à jour les sous-modules à leur dernière révision, ajoutez la commande –remote-submodules.
Celle-ci va mettre à jour les sous-modules d’un référentiel pour pointer vers les dernières révisions disponibles dans leurs référentiels distants. Cela signifie qu’au lieu de pointer vers une révision spécifique (commit) dans le même référentiel parent, les sous-modules pointeront vers les révisions les plus récentes de leur référentiel distant.

git clone --recurse-submodules --remote-submodules <repo-URL>
git submodule init 
git submodule update

Comment cloner une branche spécifique

Pour cloner une branche spécifique avec Git, vous pouvez utiliser la commande git clone suivie de l’URL du référentiel, puis vous pouvez spécifier la branche que vous souhaitez cloner en utilisant l’option -b ou –branch suivi du nom de la branche.

Voici la syntaxe générale :

git clone -b <URL_du_référentiel>

Par exemple, si vous souhaitez cloner la branche develop d’un référentiel, vous pouvez utiliser la commande suivante :

git clone -b develop https://github.com/utilisateur/nom_du_repos.git

Cela va cloner le référentiel et basculer automatiquement sur la branche develop après le clonage. Si vous ne spécifiez pas la branche à cloner, Git clonera automatiquement la branche par défaut, souvent master ou main , selon la configuration du référentiel.

Si vous avez déjà cloné le référentiel et que vous souhaitez basculer vers une branche spécifique après le clonage, vous pouvez utiliser la commande git checkout après avoir cloné le référentiel :

git clone https://github.com/utilisateur/nom_du_repos.git
cd nom_du_repos
git checkout

Cela va cloner le référentiel et basculer sur la branche spécifiée après le clonage.

Comment cloner un dépôt à distant par SSH

Vous pouvez aussi cloner un dépôt distant disponible par SSH.
Voici la syntaxe générale :

git clone ssh://[email protected]/<utilisateur>/<nom dépôt>.git

Pour cloner un dépôt distant avec un chemin absolu :

git clone ssh://[email protected]/chemin/absolu/vers/repo.git/

Et par un chemin relatif :

git clone [email protected]:relative/chemin/vers/repo.git/

Lorsque vous git clone, git fetch, git pull ou git push vers un référentiel distant à l’aide d’URL SSH, vous êtes invité à entrer un mot de passe et vous devez fournir la phrase secrète de votre clé SSH. Pour plus d’informations, consultez « Utilisation des phrases secrètes de clé SSH ».

Liens

L’article git clone : utilisation et exemples est apparu en premier sur malekal.com.

Exécuter Windows, Tiny11, Tiny10 dans un conteneur (Docker) sur Linux avec Dockurr

Par : malekalmorte
27 avril 2024 à 08:07

Pour utiliser Windows dans Linux, vous avez la solution VirtualBox.
Mais grâce à Dockurr, nouveau projet open source, vous pouvez exécuter Windows à l’intérieur d’un conteneur Docker sans avoir à franchir de nombreuses étapes.
De plus, le conteneur fournit une connexion VNC et RDP notamment accessible par un simple navigateur internet.
Enfin les performances sont bonnes grâce à l’accélération KVM (Kernel Virtual Machine).

Dans ce tutoriel, je vous guide pour exécuter Windows, Tiny11, Tiny10 dans un conteneur Linux (Docker) avec Dockurr.

Exécuter Windows, Tiny11, Tiny10 dans un conteneur (Docker) sur Linux avec Dockurr

Qu’est-ce que Dockurr?

Dockurr est un projet libre et gratuit qui permet d’exécuter des installations de bureau Windows client et Windows Server dans un environnement de conteneur Docker. Il vous permet également de le faire sur un hôte Docker Linux qui ne pourrait normalement exécuter que des conteneurs Linux. En utilisant l’accélération KVM, il vous permet d’exécuter des conteneurs Windows sur un hôte de conteneur Linux sans avoir besoin d’installer et de démarrer Docker Desktop ou d’autres problèmes de compatibilité qui sont typiques avec le mélange de systèmes d’exploitation entre Linux et Windows.

Il fournit également une connexion VNC au conteneur pendant le processus d’installation. Il vous permet également de vous connecter via le protocole de bureau à distance (RDP) à l’installation Windows exécutée dans Docker.

Quelles sont les configurations de distribution Windows prises en charge ?

  • Windows 11 Pro
  • Windows 10 Pro
  • Windows 10 LTSC
  • Windows 8.1 Pro
  • Windows 7 SP1
  • Windows Vista SP2
  • Windows XP SP3
  • Windows Server 2022
  • Windows Server 2019
  • Windows Server 2016
  • Windows Server 2012 R2
  • Windows Server 2008 R2
  • Tiny 11 Core
  • Tiny 11
  • Tiny 10

Installer la machine virtuelle à noyau (KVM)

Dans un premier temps, Docker doit être installé sur votre appareil en Linux.
Si ce n’est pas le cas, vous pouvez consulter ce guide : Comment installer Docker sur Linux
Ensuite, vous devez installer KVM (Kernel Virtual Machine) et qemu :

  • Exécutez la commande suivante à partir de la ligne de commande pour installer KVM. Assurez-vous d’être root ou de faire partie du groupe d’utilisateurs sudo :
sudo apt install libvirt-clients libvirt-daemon-system libvirt-daemon virtinst bridge-utils qemu-system qemu-kvm
  • Validez par O et laissez les paquets s’installer
Installer la machine virtuelle à noyau (KVM) dans Linux

Télécharger Dockurr dans un conteneur et lancer Windows dans un conteneur Docker

Après avoir installé KVM sur notre hôte Docker Linux, nous pouvons maintenant lancer le conteneur Docker appelé Dockurr, qui utilise l’isolation de KVM.
Deux manières sont possibles, par docker run ou par docker compose.

La méthode docker run est la plus automatisé et rapide. Voici comment faire :

  • Dans mon cas, j’ai du passer la commande suivante pour autoriser les sockets Docker à être utilisé par les utilisateurs Linux
sudo chmod 666 /var/run/docker.sock
  • Vous pouvez utiliser la commande docker run à partir de l’interface de commande de docker pour exécuter le conteneur :
docker run -it --rm --name windows -p 8006:8006 --device=/dev/kvm --cap-add NET_ADMIN --stop-timeout 120 dockurr/windows
Exécuter Windows, Tiny11, Tiny10 dans un conteneur Linux (Docker) avec Dockurr

La méthode par docker compose vous permet de modifier le fichier de configuration si vous souhaitez installer une autre version de Windows ou modifier la configuration du réseau (voir fin de ce guide).
Voici comment faire :

  • Cloner le dépôt Git :
git clone https://github.com/dockur/windows.git
  • Modifiez le fichier compose.yml si besoin (voir plus bas)
  • Puis exécutez le conteneur :
cd windows
docker-compose up -d
Exécuter Windows, Tiny11, Tiny10 dans un conteneur Linux (Docker) avec Dockurr

L’image de Windows se télécharge puis l’installation de l’OS s’effectue.

  • Après avoir utilisé les commandes ci-dessus pour installer la solution Dockurr, vous pouvez vous connecter au conteneur sur votre hôte de conteneur en vous connectant à votre hôte de conteneur dans un navigateur sur le port 8006 pour l’accès à l’interface utilisateur.
  • Lorsque vous démarrez la configuration de conteneur par défaut, elle tire une image Docker Windows 11. Notez l’exemple de configuration Docker compose ci-dessous :
Exécuter Windows, Tiny11, Tiny10 dans un conteneur Linux (Docker) avec Dockurr
  • Ensuite une phase d’extraction du fichier win11x64.esd
  • Puis l’image de Windows 11 est construire
Exécuter Windows, Tiny11, Tiny10 dans un conteneur Linux (Docker) avec Dockurr
  • Ensuite qemu exécute l’installeur de Windows 11, la copie de fichiers s’effectuent
Exécuter Windows, Tiny11, Tiny10 dans un conteneur Linux (Docker) avec Dockurr
  • Une fois l’installation terminée, l’utilisateur se connectera automatiquement en utilisant le nom d’utilisateur docker
Exécuter Windows, Tiny11, Tiny10 dans un conteneur Linux (Docker) avec Dockurr

Voila, Windows s’exécute dans un conteneur Docker.

Ici nous utilisons le navigateur internet pour se connecter via VNC, mais vous pouvez aussi prendre la main sur Windows par RDP, avec par exemple le bureau à distance.
Le port utilisé est celui par défaut, à savoir le port 3389.

Exécuter différentes images du système d’exploitation Windows dans Docker

Comme mentionné en introduction, plusieurs versions de Windows sont supportés.
Par défaut, c’est Windows 11 qui est installé, mais vous pouvez modifier la partie suivante du fichier compose.yml pour changer la version de Windows :

environment:
VERSION: "win11"

Vous pouvez utiliser les désignateurs suivants dans la variable d’environnement pour indiquer la version de Windows que vous souhaitez lancer (win11, win10, ltsc10, win7, etc.) dans la liste d’informations ci-dessous :

ValeurDescriptionSourceTransfertTaille
win11Windows 11 ProMicrosoftRapide6,4 Go
win10Windows 10 ProMicrosoftRapide5,8 Go
ltsc10Windows 10 LTSCMicrosoftRapide4,6 Go
win81Windows 8.1 ProMicrosoftRapide4,2 Go
win7Windows 7 SP1Bob PonyMoyen3,0 Go
vistaWindows Vista SP2Bob PonyMoyen3,6 Go
winxpWindows XP SP3Bob PonyMoyen0,6 Go
2022Windows Server 2022MicrosoftRapide4,7 Go
2019Windows Server 2019MicrosoftRapide5,3 Go
2016Windows Server 2016MicrosoftRapide6,5 Go
2012Windows Server 2012 R2MicrosoftRapide4,3 Go
2008Windows Server 2008 R2MicrosoftRapide3,0 Go
core11Tiny 11 CoreArchive.orgLent2,1 Go
tiny11Tiny 11Archive.orgLent3,8 Go
tiny10Tiny 10Archive.orgLent3,6 Go
Les versions de Windows supportées par Dockurr
Exécuter Tiny11 dans un Docker Linux

Outre les versions de Windows que vous pouvez installer par défaut, vous pouvez également utiliser des images personnalisées pour vos supports Windows. Il suffit de définir l’emplacement web de l’ISO personnalisée de Windows comme suit :

environment:
  VERSION: "https://exemple.com/win.iso"

Vous pouvez également utiliser directement un fichier local et éviter le téléchargement en le liant de cette manière à votre fichier de composition :

volumes:
  - /home/user/example.iso:/storage/custom.iso

Personnaliser la configuration du conteneur

Vous avez la possibilité de modifier la configuration de l’hôte Windows.

Configurer le réseau

Par défaut, les conteneurs utilisent un réseau ponté qui utilise l’adresse IP de l’hôte Docker. Cependant, selon les détails de la documentation.
Si vous souhaitez connecter vos conteneurs Windows à un réseau spécifique en production, vous pouvez le faire avec une configuration supplémentaire.
Vous pouvez changer cela manuellement :

docker network create -d macvlan \
--subnet=192.168.0.0/24 \
--gateway=192.168.0.1 \
--ip-range=192.168.0.100/28 \
-o parent=eth0 vlan

Ensuite, votre fichier Docker compose peut utiliser ce nouveau réseau en le modifiant comme suit :

services:
  windows:
    container_name: windows
    ..<snip>..
    networks:
      vlan:
        ipv4_address: 192.168.0.100
networks:
  vlan:
    external: true

Modifier le CPU, mémoire et taille disque

Enfin pour modifier le nombre de CPU et la taille de la mémoire, modifiez la partie environnement du fichier de configuration :

environment:
RAM_SIZE: "8G"
CPU_CORES: "4"
DISK_SIZE: "256G"

L’article Exécuter Windows, Tiny11, Tiny10 dans un conteneur (Docker) sur Linux avec Dockurr est apparu en premier sur malekal.com.

Savoir si le bureau Linux est sous Wayland ou Xorg (X11)

Par : malekalmorte
21 avril 2024 à 13:00

Wayland est un protocole du serveur d’affichage pour Linux et Unix.
Dans la plupart des distributions, il est utilisé par défaut à la place de X11.
Mais si les pilotes propriétés NVIDIA sont installés, Linux peut revenir à Xorg.

Dans ce tutoriel, je vous donne plusieurs commandes pour vérifier si le bureau Linux est en Wayland ou Xorg.

Wayland : serveur d'affichage pour Linux

Comment vérifier si le bureau Linux Wayland ou Xorg (X11)

Depuis le terminal

  • Ouvrez le terminal Ubuntu par la recherche d’application ou par le raccourci clavier CTRL+ALT+T. Plus de détails : Comment ouvrir terminal Ubuntu
  • Puis saisissez la commande suivante
echo $XDG_SESSION_TYPE
  • Cela retourne Wayland ou X11
Comment vérifier si le bureau Linux Wayland ou Xorg (X11)

Une alternative est la commande loginctl pour cibler le type de session :

loginctl show-session $(loginctl | grep "$USER" | awk '{print $1}') -p Type
Comment vérifier si le bureau Linux Wayland ou Xorg (X11)

Dans les paramètres de GNOME

Voici comment vérifier si le gestionnaire de fenêtre est Xorg ou Wayland dans les informations systèmes et les paramètres de GNOME.

  • Ouvrez les paramètres d’Ubuntu
Ouvrir les paramètres d'Ubuntu
  • A gauche, allez dans Système
  • Puis à droite, cliquez sur Informations sur le système
Ouvrir les informations système sur Ubuntu
  • Dans système de fenêtrage, vérifiez si Wayland ou X11 est présent
Comment vérifier si le bureau Linux Wayland ou Xorg (X11) dans GNOME

L’article Savoir si le bureau Linux est sous Wayland ou Xorg (X11) est apparu en premier sur malekal.com.

Wayland : serveur d’affichage pour Linux

Par : malekalmorte
20 avril 2024 à 08:18

Dans Linux, chaque application, outil ou fenêtre que vous voyez sur l’écran de votre ordinateur de bureau ou portable provient d’une technologie de serveur d’affichage. Depuis 1987, le standard est le serveur X, la version la plus récente étant X11. Xorg (parfois connu sous le nom de X.org) est l’implémentation open-source la plus populaire d’un serveur X sous Linux.

Mais Wayland fait de la concurrence à Xorg. Wayland a été développé pour créer une approche plus rationalisée qui utilise des processus modernes. Le développement de Wayland a commencé en 2013, et la première version alpha a été publiée en janvier 2021. Depuis 2013, le débat autour de Wayland et Xorg n’a cessé d’enfler.

Dans ce guide complet, je vous explique tout ce qu’il faut savoir sur Wayland, le serveur d’affichage pour Linux, les différences avec X11 et quel est le meilleur.

Wayland : serveur d'affichage pour Linux

Qu’est-ce que Wayland

Wayland est un protocole de communication et un serveur d’affichage pour les systèmes Unix-like, principalement utilisé sur les systèmes Linux. Il a été développé comme une alternative au serveur d’affichage X11, qui était le standard de facto depuis de nombreuses années.

Le projet Wayland Display Server a été lancé par Kristian Høgsberg, développeur chez Red Hat, en 2008.
Contrairement à X11, Wayland est conçu pour être plus rapide et réduire la latence. Il simplifie également la gestion des fenêtres et des événements d’entrée

Wayland se compose d’un protocole et d’une implémentation de référence appelée Weston.
Le projet développe également des versions de GTK et de Qt qui rendent vers Wayland au lieu de X. La plupart des applications devraient prendre en charge Wayland par l’intermédiaire de l’une de ces bibliothèques sans modification de l’application.

Wayland est considéré comme le remplaçant du serveur X.Org vieillissant.

Comment fonctionne Wayland

Wayland est conçu de manière modulaire. Il sépare le serveur d’affichage (Wayland compositor) et les clients (applications), ce qui permet une meilleure isolation et une sécurité améliorée.

Le protocole Wayland suit un modèle client-serveur dans lequel les clients sont les applications graphiques qui demandent l’affichage de tampons de pixels sur l’écran, et le serveur (compositeur) est le fournisseur de services qui contrôle l’affichage de ces tampons.
Un compositeur est un gestionnaire de fenêtres qui fournit une mémoire tampon hors écran pour chaque fenêtre. La mémoire tampon de la fenêtre contient une image ou d’autres effets graphiques tels qu’une animation, et l’écrit dans la mémoire de l’écran.

Le rendu est effectué par le client via EGL, et le client envoie simplement une requête au compositeur pour indiquer la région qui a été mise à jour.
EGL (Embedded-System Graphics Library) est une interface de programmation d’applications (API) qui fournit un moyen standard pour les applications graphiques de créer et de gérer des contextes de rendu graphique.
Elle fait le lien entre ses API de rendu, comme OpenGL ES ou OpenVG, et le système de fenêtrage du système d’exploitation sous-jacent.

La communication entre le client et le composeur se fait par IPC via l’espace noyau.

Plus de détails dans ce lien : https://wayland.freedesktop.org/architecture.html

Architecture Wayland
https://en.wikipedia.org/wiki/File:Wayland_protocol_architecture.svg

Wayland VS Xorg (X11) et pourquoi Wayland est meilleur

Tout comme Xorg, Wayland utilise aussi les technologies récentes du noyau Linux comme le DRI (Direct Rendering Infrastructure,), KMS (Kernel-based mode-setting), et GEM (Graphics Execution Manager), dans le but de fournir un serveur d’affichage minimal, léger et performant.

Mais Wayland priorise la performance et la sécurité. Il réduit la complexité de la communication entre les composants et permet aux applications d’interagir plus efficacement avec le serveur d’affichage.
Dans la majorité des cas, le serveur X n’est plus qu’un intermédiaire qui introduit une étape supplémentaire entre les applications et le compositeur et une étape supplémentaire entre le compositeur et le matériel.
Sous Wayland, les fonctions du serveur d’affichage et du gestionnaire de fenêtres sont combinées dans le compositeur Wayland correspondant.
Le protocole Wayland permet au compositeur d’envoyer les événements d’entrée directement aux clients et au client d’envoyer l’événement d’endommagement directement au compositeur.
Les clients effectuent le rendu localement et communiquent directement avec le compositeur.

Ainsi, l’application sait ce qu’elle veut rendre. Le rendu côté client réduit les étapes généralement associées au processus client/serveur traditionnel. Les applications dessinent la fenêtre dans laquelle elles vont s’exécuter et envoient ensuite leurs informations d’affichage à Wayland. Avec Wayland, le compositeur est le serveur d’affichage.

Wayland offre une base de code simplifiée, ce qui présente l’avantage supplémentaire de réduire le gonflement dû à des années de développement pour faire fonctionner Xorg au fur et à mesure des évolutions technologiques. Le passage à un rendu côté client augmente les temps de chargement et, dans la plupart des cas, offre une interface plus simple.
Ainsi, Wayland supprime ces étapes supplémentaires et simplifie le rendu pour offrir des performances plus fluides et réactives que X11.

Du point de vue de la sécurité, Wayland montre une nette amélioration de l’isolation au niveau de l’interface graphique. De par sa conception, Xorg ne permet pas cette fonctionnalité. Xorg suppose que tous les programmes ne sont pas nuisibles. Lors de l’exécution de plusieurs applications graphiques, Xorg ne les isole pas les unes des autres. L’entrée de commande a le potentiel d’enregistrer les frappes de touches, par exemple, des processus pour de nombreuses applications.
Wayland restreint les interactions entre les applications, limitant la capacité des applications malveillantes à affecter d’autres processus ou à intercepter des données sensibles.

Enfin Wayland offre une meilleure prise en charge des périphériques d’entrée, tels que les claviers, souris et écrans tactiles, en les intégrant plus étroitement dans le système graphique.

En résumé, Xorg est un intermédiaire qui crée des étapes supplémentaires entre les applications, le compositeur et le matériel. Wayland rationalise ce processus en éliminant l’étape du serveur X pour fournir un protocole plus moderne et plus cohérent que X11.

Quelles sont les limites et les problèmes de Wayland

Il y a plusieurs raisons pour lesquelles Xorg reste la version par défaut de Linux. Xorg est familier, car il est utilisé depuis plus de 30 ans. Cette longévité s’accompagne d’un bagage, car le codage et les ajouts rendent X trop lourd. Cependant, comparé à Wayland, Xorg est mieux conçu pour ajouter de nouvelles capacités ou fonctionnalités.

Les jeux vidéo et les applications graphiquement intenses conçues pour X11 ont tendance à mieux fonctionner sur Xorg. Au-delà de ces deux exemples, de nombreuses applications natives encore utilisées ont été écrites pour Xorg. Même sur les systèmes les plus récents, X et Xorg restent l’application de fenêtrage par défaut, bien que Wayland soit installé sur de nombreux systèmes.
En ce qui concerne les jeux, des problèmes de déchirure d’écran, d’artefacts ou de problème de rafraîchissement sont connus.

Ainsi, l’adoption de Wayland prend du temps car il faut aussi réécrire les applications.
Pour minimiser cela, Xwayland a été créé. Il s’agit d’un composant du système graphique Wayland qui agit comme un pont de compatibilité en permettant aux applications conçues pour X11 (l’ancien système d’affichage) de s’exécuter sur un serveur Wayland.
Il facilite la transition vers Wayland en offrant une compatibilité avec l’immense catalogue d’applications existantes pour X11.

L’utilisation de certains pilotes propriétaires comme NVIDIA peuvent aussi poser des problèmes.
Il existe plusieurs domaines dans lesquels le pilote NVIDIA ne présente pas les mêmes caractéristiques que X11 et Wayland. Cela peut être dû à des limitations du pilote lui-même, du protocole Wayland ou du compositeur Wayland spécifique utilisé. Au fil du temps, cette liste devrait s’alléger au fur et à mesure que les fonctionnalités manquantes seront implémentées à la fois dans le pilote et dans les composants en amont, mais ce qui suit reflète la situation à la date de publication de cette version du pilote. Notez que cela suppose un compositeur avec un support raisonnablement complet pour les extensions du protocole Wayland liées au graphisme.
La liste des limitations est fournie par NVIDIA dans ce lien : https://download.nvidia.com/XFree86/Linux-x86_64/515.65.01/README/wayland-issues.html

Wayland dans les distributions Linux

La prise en charge de Wayland peut varier en fonction de l’environnement de bureau et des pilotes graphiques utilisés. Certains environnements de bureau, comme KDE Plasma, prennent en charge Wayland, mais leur adoption peut être moins répandue que celle de GNOME.
Il est possible souvent proposer en option lors de l’ouverture du bureau Linux mais pas forcément par défaut.

Ainsi, il en résulte que l’adoption de Wayland varie beaucoup selon la distribution Linux.
Voici un tour d’horizon :

  • Fedora : Fedora a été l’une des premières distributions à adopter Wayland par défaut, notamment avec Fedora 25 et les versions ultérieures. GNOME, l’environnement de bureau par défaut de Fedora, fonctionne sur Wayland.
  • Ubuntu : Bien qu’Ubuntu utilise toujours Xorg par défaut dans ses versions stables, il offre la possibilité d’utiliser Wayland avec l’environnement de bureau GNOME. Ubuntu 17.10 utilise Wayland par défaut. Dans Ubuntu 24.04, Wayland est par défaut pour les utilisateurs des pilotes NVIDIA propriétaires
  • Arch Linux : Arch Linux propose Wayland dans ses dépôts officiels et prend en charge plusieurs environnements de bureau qui fonctionnent sur Wayland, tels que GNOME, KDE Plasma, et Sway (un gestionnaire de fenêtres Wayland inspiré de i3)
  • openSUSE : openSUSE propose une prise en charge de Wayland avec son environnement de bureau GNOME. Il est possible d’utiliser Wayland avec d’autres environnements de bureau également, mais GNOME est le plus largement pris en charge
  • Debian : Debian propose la prise en charge de Wayland dans ses dépôts officiels. Bien qu’il ne soit pas activé par défaut dans la version stable, il est disponible en tant qu’option pour les utilisateurs qui souhaitent l’utiliser avec des environnements de bureau tels que GNOME et KDE Plasma
  • Endless OS : Endless OS, une distribution Linux axée sur l’éducation et les pays en développement, utilise Wayland par défaut avec son propre environnement de bureau basé sur GNOME appelé EOS Shell
  • Wayland est est configuré par défaut pour la plupart des cas d’utilisation dans RHEL 8, suivi de la dépréciation du serveur Xorg dans RHEL 9, avec l’intention de son retrait dans une future version. Dans RHEL 10, le serveur Xorg et d’autres serveurs X (à l’exception de Xwayland) sont supprimés

L’article Wayland : serveur d’affichage pour Linux est apparu en premier sur malekal.com.

Linux : passer de Xorg (X11) à Wayland

Par : malekalmorte
18 avril 2024 à 07:46

Xorg et Wayland sont deux protocoles graphiques utilisés dans les systèmes d’exploitation Unix-like, principalement sur les distributions Linux, pour gérer l’affichage graphique et les interactions avec l’utilisateur.

La plupart des distributions Linux utilisent par défaut Xorg.
Toutefois, lorsque vous installez les pilotes NVIDIA propriétaires ou pour différentes raisons, le gestionnaire de fenêtres peut être Xorg.

Voici comment passer de Xorg à Wayland notamment sur Ubuntu et Debian.

Comment passer sur Wayland dans Linux

Comment passer sur Wayland dans Linux

Par défaut, Ubuntu utilise Wayland. Toutefois dans le cas où les pilotes propriétaires de NVIDIA sont installés sur Ubuntu, ce dernier repasse sous Xorg (X11).
Cela fonctionne sur Ubuntu 22.04 ou Ubuntu 23.10.
Veuillez noter que Ubuntu 24.04 LTS devrait être par défaut sur Wayland même si les pilotes NVIDIA propriétaires sont installés.

Voici comment activer Wayland avec les pilotes NVIDIA sur Linux :

  • Avant de passer sur Wayland, si vous avez une carte graphique NVIDIA, je vous conseille d’installer les pilotes version 550, cela règle beaucoup de problème. Suivez ce guide : Installer les pilotes NVIDIA sur Ubuntu (propriétaire)
  • Installez la librairies d’implémentation en cours d’une bibliothèque EGL (Embedded-System Graphics Library) pour la plate-forme externe pour Wayland :
sudo apt install libnvidia-egl-wayland1
Comment passer sur Wayland dans Ubuntu
  • Puis éditez le fichier de configuration GRUB :
sudo nano /etc/default/grub
  • Repérez la ligne GRUB_CMDLINE_LINUX et éditez pour ajouter la configuration suivante :
GRUB_CMDLINE_LINUX="nvidia-drm.modeset=1"
Comment passer sur Wayland dans Ubuntu
  • Puis mettez à jour la configuration GRUB :
sudo update-grub
  • Pour que l’hibernation et mise en veille prolongée fonctionne correctement, il faut activer certaines options. Toutefois le fichier de configuration peut être différents d’une distribution Linux à l’autre
    • Sur Ubuntu, éditez le fichier /etc/modprobe.d/nvidia-graphics-drivers-kms.conf
    • Sur Debian, modifiez le fichier /etc/modprobe.d/nvidia-power-management.conf
options nvidia NVreg_PreserveVideoMemoryAllocations=1 NVreg_TemporaryFilePath=/tmp/tmp-nvidia
options nvidia-drm modeset=1
'article sur les problèmes rencontrés
options nvidia NVreg_UsePageAttributeTable=1
options nvidia NVreg_RegistryDwords="OverrideMaxPerf=0x1"
  • Redémarrez l’ordinateur pour prendre en compte les modifications
sudo reboot
  • Sur l’écran de verrouillage, cliquez sur l’utilisateur
  • Puis en bas à droite, cliquez sur l’icône roue crantée puis sélectionnez Wayland (ici il s’agit de l’écran de verrouillage d’Ubuntu)
Comment passer sur Wayland dans Ubuntu, Debian, PopOS ou Linux Mint
  • Pour vérifier que le bureau de Linux est bien en Wayland :
echo $XDG_SESSION_TYPE
Si Wayland n’apparaît pas dans la liste, suivez le paragraphe suivant pour l’activer.

La documentation de Debian fournit aussi une procédure complète pour passer en Wayland : https://wiki.debian.org/NvidiaGraphicsDrivers#Wayland

Comment activer/désactiver Wayland dans GNOME

Le display manager de GNOME (GDM) donne la possibilité de choisir le gestionnaire de fenêtres que vous pouvez utiliser.Vous pouvez très bien activer ou désactiver Wayland dans GNOME.
Voici comment faire :

  • Éditez le fichier de configuration de GDM :
sudo nano /etc/gdm3/custom.conf
  • Pour forcer l’activation de Wayland dans gnome, positionnez l’option suivante sur True
WaylandEnable=true
  • Pour forcer la désactivation de Wayland :
WaylandEnable=false
Comment activer ou désactiver Wayland dans GNOME
  • Puis relancez GDM :
sudo systemctl restart gdm3
  • Vous devriez pouvoir choisir Wayland au démarrage de la session GNOME

Pourquoi passer de X11 à Wayland

Plusieurs raisons peuvent vous pousser à utiliser Wayland à la place de Xorg.
Premièrement, Xorg n’est plus maintenu et vous expose à des problèmes de sécurité. Ce dernier étant un projet de 1980.
Wayland a été lancé afin de proposer un gestionnaire de fenêtre plus moderne, notamment Wayland élimine le modèle client-serveur et permet aux applications d’interagir directement avec le serveur d’affichage.
De plus, Wayland est projet actif, il propose des fonctionnalités qui n’existent pas sur X11.
Dans mon cas, les performances sont vraiment meilleures sur Wayland, l’affichage est beaucoup plus réactif.
C’est aussi le cas dans les jeux.

Quels sont les problèmes connus entre Wayland et les pilotes propriétaires NVIDIA

Le support de Wayland n’est pas encore totale, de plus certaines technologies ne sont pas encore supportés.
Ainsi, des bugs existent.

Les fenêtres en plein écran des jeux et applications rencontrent des problèmes d’affichage.
Certaines parties de la fenêtre sont noires, contiennent des artefacts, clignotements ou encore des bandes horizontales passent de haut en bas révélant un problème de rafraîchissement.
Il existe une discussion à ce sujet : https://gitlab.freedesktop.org/xorg/xserver/-/issues/1317
Vous pouvez tenter d’ajouter MUTTER_DEBUG_FORCE_EGL_STREAM=1 dans /etc/environment et relancez la session GNOME.
Toutefois, il faut savoir que cela risque de poser des problèmes de chargement des jeux mais surtout provoquer des baisses de performances.
Dans mon cas, la mise à jour des pilotes NVIDIA en 550 a réglé le problème.

Artefacts, clignotements ou encore des bandes horizontales sur les jeux en plein écrans dans Wayland

De plus, j’ai rencontré des erreurs suivantes qui semblent être à l’origine de freez :

[drm:nv_drm_atomic_commit [nvidia_drm]] ERROR [nvidia-drm] [GPU ID 0x00000 100] Flip event timeout on head 0

D’où la désactivation de fbdev (framebuffer Device – toujours en expérimental) depuis /etc/modprobe.d/nvidia-graphics-drivers-kms.conf :

options nvidia-drm.fbdev=0

En outre, la fréquence adaptative de l’écran (VRR/GSync) n’est pas encore tout à fait disponible.
Les pilotes NVIDIA propriétaires supportent la fonctionnalité depuis la version 545.
Toutefois, ce n’est pas encore le cas des gestionnaire de fenêtres. Par exemple, Gsync est en expérimentale sur la version 46 de GNOME (disponible à partir d’Ubuntu 24.04).
La documentation ArchLinux en parle : https://wiki.archlinux.org/title/Variable_refresh_rate#Limitations

L’article Linux : passer de Xorg (X11) à Wayland est apparu en premier sur malekal.com.

Utiliser la commande more sur Linux avec des exemples

Par : malekalmorte
14 avril 2024 à 09:45

Parmi les commandes basiques Linux, on trouve la commande more. Elle est principalement utilisée pour afficher le contenu d’un fichier page par page, ce qui permet de lire facilement des fichiers volumineux sans être submergé par un mur de texte.
Elle dispose aussi de fonction de recherche.

Dans ce tutoriel, je vous montre comment utiliser la commande more sur Linux avec des exemples.

Utiliser la commande more sur Linux avec des exemples

Quelle est la syntaxe de la commande more

Voici la syntaxe :

more [-options] [-num] [+/pattern] [+numligne] <nom fichier>

Et la liste des options

OptionDescription
-c ou –no-colorDésactive le surlignage en couleur de la sortie.
-n ou –line-numbersAfficher les numéros de ligne au début de chaque ligne.
-dL’invite est “[Appuyez sur l’espace pour continuer, sur ‘q’ pour quitter.]”, et affiche “[Appuyez sur ‘h’ pour les instructions.]” au lieu de sonner la cloche lorsque l’on tente de faire défiler le fichier au-delà de la fin.
-lIgnore le saut de page (^L).
-fCompte les lignes logiques, plutôt que les lignes d’écran (c’est-à-dire que les lignes longues ne sont pas pliées).
-pFait défiler un écran complet.
-cEfface l’écran avant d’afficher la page.
-sRéduit le nombre de lignes vierges en une seule.
-uMode texte plein en supprimant la mise en forme gras et souligné.
Les options de la commande more

Comment utiliser la commande more sur Linux

Par défaut, plus de commandes sous Linux affichent le fichier une page à la fois.

Comment utiliser la commande more sur Linux

Vous pouvez naviguer dans le fichier à l’aide de différentes commandes :

CommandeAction
ESPACE ou fAfficher les x lignes de texte suivantes. La valeur par défaut est la taille actuelle de l’écran.
EntréeAfficher les x lignes de texte suivantes. La valeur par défaut est 1. L’argument devient la nouvelle valeur par défaut.
d ou ^DDéfiler de x lignes. La valeur par défaut est la taille de défilement actuelle, initialement 11.
sSauter x lignes de texte. La valeur par défaut est 1.
fSauter x lignes de texte. La valeur par défaut est 1.
b ou ^B Revenir à x lignes de texte vers l’arrière. La valeur par défaut est 1. Ne fonctionne qu’avec les fichiers, pas avec les pipes.
Aller à l’endroit où la dernière recherche a commencé.
=Affiche le numéro de la ligne en cours.
q ou QQuitter
Les raccourcis clavier pour naviguer dans la fenêtre more

Recherche dans un fichier

La commande more vous permet également de rechercher une chaîne de caractères spécifique dans un fichier. Cette fonction est particulièrement utile lorsque vous avez affaire à des fichiers volumineux et que vous recherchez des informations spécifiques. Pour ce faire, vous pouvez utiliser le ‘/’ suivi de la chaîne de caractères que vous recherchez.

Voici un exemple :

Dans cet exemple, la commande “more” affiche le contenu de monfichier.txt à partir de la première ligne contenant la “chaîne de recherche”.

more +/"chaîne de recherche" monfichier.txt

Vous pouvez également utiliser des expressions régulières avec l’option /pattern pour rechercher des motifs plus complexes. Par exemple, pour rechercher toutes les lignes commençant par le mot “error”, vous pouvez utiliser la commande suivante :

more /^error/ /var/log/syslog 

Il ne s’agit là que de quelques exemples d’utilisations avancées de la commande ‘more’. Comme vous pouvez le constater, ‘more’ est un outil puissant pour visualiser et naviguer dans les fichiers sous Linux. Cependant, comme tout outil, il a ses avantages et ses inconvénients, et son utilisation dépend des exigences spécifiques de la tâche à accomplir.

Visualiser plusieurs fichiers

L’une des fonctions les plus puissantes de la commande more est la possibilité d’afficher plusieurs fichiers de manière séquentielle. Par exemple, si vous avez trois fichiers texte – fichier.txt, fichier2.txt et fichier3.txt – vous pouvez les afficher en séquence avec la commande suivante :

more fichier1.txt fichier2.txt fichier3.txt

Dans cet exemple, la commande “more” affiche d’abord le contenu du fichier1.txt. Lorsque vous aurez fini de visualiser le fichier1.txt, elle affichera le contenu du fichier2.txt, et ainsi de suite.

  • Pour passer au fichier suivant, appuyez sur :n. L’observateur se déplace alors au début du fichier suivant.
  • Pour reculer d’un fichier, appuyez sur :p. Cela permet de revenir au début du fichier précédent.

Vous pouvez bien entendu utiliser le caractère joker, par exemple pour visualiser tous les fichiers dictionnaires :

more /usr/share/dict/*

Afficher que X lignes par pages

Une autre option est utile est l’option -n suivi qui vous permet de définir le nombre de lignes à afficher par page.
Par exemple pour n’afficher que 5 lignes par page d’un fichier :

more -n 5 fichier.txt
Comment utiliser la commande more sur Linux

Ouvrir un fichier à la première occurrence d’une recherche

Pour ouvrir un fichier à un numéro de ligne, passez l’option + accompagnée d’un numéro de ligne.
Par exemple pour ouvrir

more +130000 /usr/share/dict/french
Comment utiliser la commande more sur Linux

L’article Utiliser la commande more sur Linux avec des exemples est apparu en premier sur malekal.com.

La commande disown Linux : utilisations et exemples

Par : malekalmorte
13 avril 2024 à 08:28

Dans un tutoriel précédent, je présentais différentes commandes Linux (jobs, fg, …) afin de pouvoir exécuter des processus en arrière-plan.
Mais à la fermeture du terminal, un signal SIGHUP (Signal Hang UP) est envoyé pour terminer tous les processus du shell.
C’est là qu’intervient la commande disown qui permet de marquer un travail et donc un processus afin de ne pas lui envoyer ce SIGHUP pour qu’il puisse continuer à s’exécuter une fois le shell fermé.
De plus, elle permet aussi de retirer chaque des travaux spécifiques de la table des tâches actives.

Dans ce tutoriel, je vous montre comment utiliser la commande disown de Linux.

Comment utiliser la commande disown

Quelle est la syntaxe de la commande disown

Voici la syntaxe :

disown <options> <job-id>

Où :

  • <options> : Il existe plusieurs options, mais la plus courante est “-h”, qui indique au shell de ne pas envoyer de HUP (HangUP) lorsque le shell parent se termine.
  • <job-id> : L’identifiant du travail (job) que vous souhaitez dissocier du shell. Vous pouvez trouver l’identifiant du travail en utilisant la commande “jobs” dans le shell.

Comment utiliser la commande disown

Comment continuer à exécuter un travail après avoir quitté une invite shell en arrière-plan

Quelques rappels rapides concernant l’exécution de commandes sur Linux.
Pour lancer une commande qui s’exécute en arrière plan, ajoutez le caractère & à la fin de la commande.
Par exemple pour lancer le téléchargement d’un fichier avec wget en arrière-plan et l’ouverture d’un fichier avec vim :

wget -O /dev/null -q http://bouygues.testdebit.info/10G.iso&
[1] 226923
vim /tmp/univers.txt &
[2] 226940

Pour lister les travaux en cours, utilisez la commande jobs :

jobs -l
[1]- 226923 En cours d'exécution   wget -O /dev/null -q http://bouygues.testdebit.info/10G.iso &
[2]+ 226940 Arrêté (via la sortie sur tty)        vim /tmp/univers.txt
  • La commande wget est indiquée par “-“, ce qui signifie qu’elle deviendra la tâche active si la commande vim est interrompue
  • La commande vim est désignée par “+”, ce qui signifie qu’il s’agit d’une tâche active

Seulement, si vous fermez le terminal ou la session SSH, l’exécution de la commande s’arrête aussi car le système envoie un signal pour terminer toutes les commandes rattachées au shell.
C’est là que la commande disown entre en jeu car elle permet de dissocier un processus du shell. Ainsi, si vous fermez le shell, son exécution continue.

Lorsque vous quittez le terminal de votre système, tous les travaux en cours sont automatiquement interrompus. Pour éviter cela, utilisez la commande disown avec l’option -h :

disown -h <%jobID>

Dans notre exemple, nous voulons que la commande wget continue à fonctionner en arrière-plan. Pour éviter qu’elle ne se termine à la sortie, utilisez la commande suivante :

disown -h %1
Comment continuer à exécuter un travail après avoir quitté une invite shell en arrière-plan sur Linux

Tous les travaux pour lesquels vous avez utilisé la commande disown -h continueront de fonctionner.

Autre exemple, imaginons que vous souhaitez exécuter une mise à jour du système avec apt-get en root en arrière-plan et qui ne s’arrête pas si la session se termine.
Voici les commandes à utiliser :

sudo -i # Pour devenir root
apt-get upgrade &> /root/system.update.log & # Mise à jour du système avec redirection de la sortie dans un fichier
disown -h # Marquer apt-get pour que SIGHUP ne soit pas envoyé à la sortie
exit # On quitte le shell root

Supprimer tous les travaux en cours avec la commande disown

Sans aucune option, chaque jobID est supprimé de la table des jobs actifs, c’est-à-dire que l’interpréteur de commandes bash utilise sa notion du job en cours qui est affiché par le symbole + dans la commande jobs -l :

disown

Pour supprimer tous les travaux en cours d’exécution, utilisez l’option -r :

disown -r
Supprimer tous les travaux en cours avec la commande disown

Pour supprimer tous les travaux, utilisez l’option -a :

disown -a

Suppression de travaux spécifiques

Pour supprimer un travail spécifique du tableau des travaux, utilisez la commande disown avec l’identifiant de travail approprié. L’ID du travail est indiqué entre parenthèses dans le tableau des travaux :

Dans notre exemple, si nous voulons supprimer la commande vim, nous devons utiliser la commande disown sur le job 2 :

disown %2

L’article La commande disown Linux : utilisations et exemples est apparu en premier sur malekal.com.

WSL : accéder, transférer facilement des fichiers

Par : malekalmorte
11 avril 2024 à 14:13

Le sous-système Windows pour Linux (WSL) de Microsoft change la donne en offrant une expérience Linux complète au sein de Windows.
Lorsqu’on utilise une distribution WSL, on peut avoir besoin de transférer des fichiers entre Windows et Linux.
Ne vous inquiétez pas, accéder aux fichiers Windows depuis WSL et inversement est relativement simple.

Dans ce tutoriel, je vous donne toutes les étapes pas à pas pour y parvenir.

Transférer des fichiers de Windows vers le WSL et inversement

Comment transférer facilement des fichiers de Windows vers le WSL à l’aide de l’Explorateur de fichiers

Voici comment accéder aux dossiers de la distributions WSL dans Windows afin de pouvoir transférer des fichiers.

  • Ouvrez l’explorateur de fichiers et, dans la barre d’adresse, tapez \\wsl$ puis appuyez sur Entrée.
  • L’Explorateur de fichiers affiche les dossiers racine du WSL avec la liste des distributions Linux
\\wsl$ donne accès aux fichiers de votre distribution WSL dans Windows
  • Ouvrez la distribution Linux avec laquelle vous travaillez
  • Naviguez dans l’arborescence des dossiers jusqu’à ce que vous atteigniez votre dossier personnel /home/<nom-utilisateur>
\\wsl$ donne accès aux fichiers de votre distribution WSL dans Windows
  • Cliquez avec le bouton droit de la souris sur le dossier contenant votre nom d’utilisateur et cliquez sur Épingler à l’accès rapide. Vous disposez maintenant d’un moyen pratique de naviguer vers votre dossier d’accueil WSL sur votre panneau de gauche
Comment transférer facilement des fichiers de Windows vers le WSL à l'aide de l'explorateur de fichiers
  • A partir de là, vous pouvez copier des fichiers vers ce dossier ou encore créer de nouveaux fichiers
Comment transférer facilement des fichiers de Windows vers le WSL à l'aide de l'explorateur de fichiers

Comment accéder facilement aux fichiers Windows à partir du WSL

Par /mnt

Si vous souhaitez accéder facilement aux répertoires des utilisateurs Windows dans WSL, vous pouvez tirer parti des liens symboliques de Linux.
Depuis WSL, vous pouvez accéder à l’arborescence de Windows via /mnt/c.

/mnt/c donne accès à l'arborescence Windows depuis WSL

Pour simplifier l’accès à vos fichiers personnels, vous pouvez créer un lien symbolique dans votre répertoire home.
Voici comment faire :

  • Assurez-vous d’être dans votre répertoire personnel.
cd
  • Créez un répertoire. Appelons-le “winhome”.
mkdir winhome
Comment accéder facilement aux fichiers Windows à partir du WSL
  • Créez un lien symbolique vers votre dossier utilisateur Windows qui mène à ce nouveau répertoire.
ln -s /mnt/c/Users/<nom-utilisateur>/ ~/winhome
Comment accéder facilement aux fichiers Windows à partir du WSL
  • N’oubliez pas de remplacer <nom-utilisateur> par votre nom d’utilisateur Windows. L’affichage du répertoire winhome devrait maintenant montrer un lien symbolique réussi.
  • Après cela, vous pouvez accéder au dossier ~/winhome/<nom-utilisateur> qui vous donne accès à vos fichiers personnels
Comment accéder facilement aux fichiers Windows à partir du WSL

Si nous lançons un gestionnaire de fichiers dans WSL, nous pouvons voir l’arborescence de notre répertoire Windows depuis l’environnement Linux.

Liens

L’article WSL : accéder, transférer facilement des fichiers est apparu en premier sur malekal.com.

Microsoft va participer à l’Open Source Summit 2024 : pourquoi ?

11 avril 2024 à 17:25

Dans quelques jours, Microsoft va participer à l'Open Source Summit 2024, mais pourquoi ? Bien que cela puisse surprendre, sachez qu'au final, c'est plutôt évident et cohérent.

L'Open Source Summit North America est un événement organisé par la Fondation Linux et l'édition 2024 se déroulera du 16 au 18 avril prochain, à Seattle, aux États-Unis. Microsoft va participer à cet événement mondial, tout en étant un sponsor "Platinum", au même titre que Docker et Red Hat. D'ailleurs, au passage, AWS et Google sont des sponsors "Diamond" de cet événement.

Bien que Microsoft soit toujours associé à une étiquette d'"éditeur de solutions propriétaires", notamment parce que son système d'exploitation Windows est un OS propriétaire, la position de l'entreprise américaine a évoluée depuis environ 10 ans. Depuis 2014 et l'arrivée en Satya Nadella en tant que Directeur général, pour être plus précis. Si Microsoft a commencé à adopter l'open source dans ses activités principales et à participer à différents projets, c'est grâce à lui.

Microsoft est impliqué dans de nombreux projets Open Source

À l'occasion de sa participation à l'Open Source Summit, Microsoft discutera de ses contributions à la communauté open source. Aujourd'hui, Microsoft se félicite de participer au développement de Linux, à des langages de programmation tels que PHP, Python et Node.js, mais aussi à PostgreSQL ou encore à ses propres solutions open source comme .NET Core, Visual Studio Code et TypeScript.

"En outre, l'open source est au cœur de notre stratégie produit et constitue un élément fondamental de notre culture. Aujourd'hui, plus de 60 000 employés de Microsoft utilisent GitHub et nous gérons plus de 14 000 dépôts publics couvrant tout, des meilleures pratiques et de l'ensemble de nos systèmes de documentation aux projets innovants tels que PowerTools et PowerShell.", peut-on lire sur le site de Microsoft.

La firme de Redmond partagera également ses meilleures pratiques pour l'utilisation des technologies open source et les tendances émergentes dans ce domaine. D'ailleurs, en interne, Microsoft a eu équipe en charge de veiller sur la bonne utilisation des logiciels libres : "Le Microsoft Open Source Programs Office (OSPO) veille à ce que nous utilisions correctement les logiciels libres, à ce que nous fournissions des solutions sécurisées à nos clients et à ce que nous participions de manière authentique aux communautés de logiciels libres."

Pour Microsoft, l'intérêt est aussi d'assurer une compatibilité et une prise en charge avec ses solutions telles que Microsoft Intune ou encore le Cloud Azure au sein duquel les organisations peuvent exécuter des machines virtuelles sous Linux. "Microsoft prend en charge les principales distributions Linux et collabore étroitement avec Red Hat, SUSE, Canonical et l'ensemble de la communauté Linux.", précise Microsoft.

The post Microsoft va participer à l’Open Source Summit 2024 : pourquoi ? first appeared on IT-Connect.

L’attaque Spectre v2 affecte les systèmes Linux avec un processeur Intel !

11 avril 2024 à 08:05

Des chercheurs en sécurité ont découvert une vulnérabilité qu'ils considèrent comme le "premier exploit natif Spectre v2" qui affecte les systèmes Linux fonctionnant avec de nombreux processeurs Intel récents ! En exploitant cette vulnérabilité, un attaquant pourrait lire des données sensibles dans la mémoire. Voici ce qu'il faut savoir !

La vulnérabilité Spectre et l'exécution spéculative

Avant tout, commençons par quelques mots sur la vulnérabilité Spectre en elle-même, ainsi que sur l'exécution spéculative.

Découverte au sein des processeurs Intel et AMD il y a plusieurs années, Spectre et sa copine Meltdown sont parmi les vulnérabilités les plus populaires. Ces termes font aussi référence à des techniques d'attaques visant à exploiter les failles de sécurité en question. Spectre affecte de nombreux processeurs dotés de l'exécution spéculative et corriger cette faille de sécurité matérielle n'est pas simple, car cela affecte, de façon importante, les performances du CPU.

L'exécution spéculative vise à améliorer les performances de la machine grâce au processeur qui va chercher à deviner la prochaine instruction à exécuter. La puissance des processeurs modernes permet de prédire plusieurs chemins qu'un programme peut emprunter et les exécuter simultanément. Cela ne fonctionne pas toujours, mais quand c'est le cas, cela booste les performances. Malgré tout, cela représente un risque, car le cache du CPU peut contenir des traces avec des données sensibles (mots de passe, informations personnelles, code logiciel, etc.), et celles-ci sont potentiellement accessibles par un attaquant lorsqu'une vulnérabilité est découverte.

Il y a deux méthodes d'attaques nommées Branch Target Injection (BTI) et Branch History Injection (BHI).

L'exploitation de Spectre V2 sur Linux

Récemment, une équipe de chercheurs du groupe VUSec de VU Amsterdam a fait la découverte de Spectre V2, une nouvelle variante de l'attaque Spectre originale, associée à la référence CVE-2024-2201. Vous pouvez retrouver leur rapport sur cette page.

Le CERT/CC a mis en ligne un bulletin de sécurité à ce sujet, dans lequel nous pouvons lire ceci : "Un attaquant non authentifié peut exploiter cette vulnérabilité pour faire fuir la mémoire privilégiée du CPU en sautant spéculativement vers un gadget choisi.", c'est-à-dire un chemin de code.

Dans le cas présent, le nouvel exploit, appelé Native Branch History Injection (en référence à l'attaque BHI), peut être utilisé pour faire fuir la mémoire arbitraire du noyau Linux à une vitesse de 3,5 kB/sec en contournant les mesures d'atténuation existantes de Spectre v2/BHI.

Pour se protéger, le CERT/CC recommande d'appliquer les dernières mises à jour publiées par les éditeurs et précise ceci : "Les recherches actuelles montrent que les techniques d'atténuation existantes, à savoir la désactivation de l'eBPF privilégié et l'activation de l'IBT, sont insuffisantes pour empêcher l'exploitation de BHI contre le noyau/l'hyperviseur."

De son côté, Intel a mis à jour ses recommandations d'atténuation pour Spectre v2 et propose désormais de désactiver la fonctionnalité "Extended Berkeley Packet Filter" non privilégiée (eBPF), d'activer les fonctionnalités "Enhanced Indirect Branch Restricted Speculation" (eIBRS) et "Supervisor Mode Execution Protection" (SMEP).

Voici une vidéo de démonstration d'exploitation de cette vulnérabilité :

Qui est affecté par la vulnérabilité Spectre V2 ?

Le noyau Linux étant affecté, cette vulnérabilité va forcément impacter de nombreuses distributions. L'équipe de développement du noyau Linux mène actuellement des travaux pour trouver une solution. Mais, en fait, l'impact dépend aussi du matériel, car la vulnérabilité Spectre V2 affecte les processeurs Intel, et non les processeurs AMD.

D'un point de vue du système d'exploitation, si nous visitons le site de Debian, nous pouvons voir que les différentes versions sont vulnérables (Sid, Bookworm, Bullseye, Buster, etc.). SUSE Linux est également impactée, comme le mentionne cette page. Du côté de Red Hat Linux Enterprise, on affirme que l'eBPF non privilégié est désactivé par défaut, de sorte que le problème n'est pas exploitable dans les configurations standard.

Une liste publiée sur la page du CERT/CC permet d'accéder facilement aux liens des différents éditeurs et d'effectuer le suivi dans les prochains jours.

Spectre V2 Linux

Finalement, cette nouvelle découverte souligne la difficulté de trouver un équilibre entre l'optimisation des performances et la sécurité, puisque ceci pourrait contraindre les utilisateurs à se passer de certaines fonctionnalités relatives au CPU.

Source

The post L’attaque Spectre v2 affecte les systèmes Linux avec un processeur Intel ! first appeared on IT-Connect.

Commande Nohup sur Linux : utilisations et exemples

Par : malekalmorte
8 avril 2024 à 07:42

Lorsque l’on quitte le shell d’un système Linux, tous les processus en cours sont généralement interrompus ou bloqués.
C’est là que la commande nohup peut vous être utile.
Tous les processus exécutés à l’aide de la commande nohup ignoreront le signal SIGHUP (Signal Hang UP), même après avoir quitté l’interpréteur de commandes.
Cela permet donc d’exécuter des commandes en arrière-plan sans qu’il soit arrêter si vous fermez le terminal ou la session SSH.

Dans ce tutoriel, je vous explique comment utiliser la commande Nohup de Linux.

Comment utiliser la commande Nohup sur Linux

Comment utiliser la commande Nohup sur Linux

Démarrage d’un processus en arrière-plan à l’aide de Nohup

Dans ce premier exemple, vous souhaitez lancer en arrière-plan le téléchargement d’un fichier iso avec la commande wget.

nohup wget http://exemple.com/monfichier.iso &

Cette commande utilise nohup pour lancer un processus wget afin de télécharger un fichier volumineux.
En ajoutant & à la fin, la commande s’exécute en arrière-plan, ce qui permet d’utiliser le terminal pour d’autres tâches. Le processus se poursuit même si l’utilisateur se déconnecte, ce qui garantit que le téléchargement s’effectue sans surveillance.
La commande vous indique le numéro du travail entre crochet sui par le PID du processus :

[1] 33186

Vous pouvez lister les travaux en arrière-plan à l’aide de la commande jobs :

jobs -l
Comment utiliser la commande Nohup sur Linux

Si le script ou la commande ne produit aucune sortie standard, cette sortie est écrite dans nohup.out et non dans le terminal. Pour vérifier la sortie, nous pouvons utiliser tail pour suivre les mises à jour effectuées dans le fichier.

tail -f nohup.out
Vérifiez toujours le fichier ‘nohup.out’ pour toute sortie ou erreur de votre commande.

Arrêter le processus en arrière-plan

Si vous souhaitez arrêter ou tuer le processus en cours, utilisez la commande kill suivie de l’identifiant du processus, comme suit

kill 33186
Comment utiliser la commande Nohup sur Linux

Comment rediriger la sortie de la commande nohup

Imagions le cas où vous souhaitez exécuter un script en arrière-plan, tout en récupérant la sortie dans un fichier.
Cela est possible grâce aux redirections de sortie Linux.

nohup ./script.sh > output.log 2>&1 &

Dans cette exemple, la commande nohup exécute un script personnalisé (script.sh).
La redirection de la sortie est utilisée ici (> output.log 2>&1) pour capturer à la fois la sortie standard et l’erreur standard dans un fichier nommé output.log, garantissant ainsi que toute sortie du script est sauvegardée pour un examen ultérieur. Le & à la fin exécute le processus en arrière-plan.

L’article Commande Nohup sur Linux : utilisations et exemples est apparu en premier sur malekal.com.

Linux : exécuter des commandes en arrière-plan

Par : malekalmorte
6 avril 2024 à 09:14

Lorsque vous vous déconnectez d’une session Linux, le système envoie un signal HUP (hangup) à tous les processus actifs associés au terminal. Ce signal indique aux processus de se terminer.
Mais lorsque l’on administre un système Linux, il peut parfois être nécessaire d’exécuter des commandes en arrière-plan.
Par exemple, car on a besoin de libérer le terminal pour exécuter une seconde commande.
Dans d’autres cas, lorsque l’on prend la main à distance par SSH, il peut être nécessaire que l’exécuter d’un script continue après la fermeture de la session.

Dans ce tutoriel, je vous donne plusieurs solutions pour lancer des commandes en arrière plan sur Linux.

Comment exécuter des commandes et processus en arrière-plan sur Linux

Comment exécuter des commandes et processus en arrière-plan sur Linux

Avec le caractère &

Ajoutez l’esperluette à la fin d’une commande pour placer la commande en arrière-plan.
Voici un exemple où on télécharger un fichier en arrière-plan avec wget :

wget https://exemple.com/grosfichier.zip &
[1] 21348

La sortie “[1] 21348” indique que le processus de téléchargement s’exécute en arrière-plan avec un ID de travail de “1” et un PID de “21348”.

Ensuite, pour lister les processus exécutés en arrière-plan, utilisez la commande jobs :

jobs -l

Enfin, la commande fg permet de rappeler le processus :

fg <job-id>

Toutefois, cela ne suffit pas, si vous souhaitez que l’exécution du processus perdure après l’arrêt du terminal ou de la session.
En d’autres termes, si vous vous déconnectez de votre terminal, tous les travaux en cours seront interrompus.
Pour éviter cela, vous pouvez passer l’option -h à la commande disown. Cette option marque chaque jobID pour que le SIGHUP ne soit pas envoyé au job si l’interpréteur de commandes reçoit un SIGHUP. La syntaxe est la suivante :

disown -h <job-id>

Imaginons que vous souhaitez exécuter une mise à jour du système avec apt-get en root en arrière-plan et qui ne s’arrête pas si la session se termine.
Voici les commandes à utiliser :

sudo -i # Pour devenir root
apt-get upgrade &> /root/system.update.log & # Mise à jour du système avec redirection de la sortie dans un fichier
disown -h # Marquer apt-get pour que SIGHUP ne soit pas envoyé à la sortie
exit # On quitte le shell root

Avec la commande Nohup

La commande nohup de Linux est un outil puissant qui vous permet d’exécuter vos processus en arrière-plan. Elle est extrêmement utile lorsque vous souhaitez exécuter un processus qui prend beaucoup de temps et que vous ne voulez pas occuper votre terminal ou votre session pendant toute cette durée.

nohup wget https://exemple.com/largefile.zip &
Comment utiliser la commande Nohup sur Linux

Avec Screen

La commande screen est un gestionnaire de fenêtres plein écran qui multiplexe un terminal physique entre plusieurs processus. Elle vous permet d’exécuter plusieurs sessions de terminal dans une même fenêtre et de passer de l’une à l’autre sans effort.

Voici comment démarrer une nouvelle session nommée ‘nom_session” avec la commande screen :

screen -S nom_session

Pour reprendre la session, utilisez l’option -r en indiquant le nom de la session :

screen -r nom_session

Avec Tmux

Tmux, abréviation de “terminal multiplexer”, est une autre commande qui vous permet d’exécuter plusieurs sessions de terminal dans une seule fenêtre. Elle est similaire à screen, mais offre plus de fonctionnalités et une interface plus moderne.

tmux new -s ma_session

Dans cet exemple, nous démarrons une nouvelle session tmux nommée ‘ma_session’. La sortie “[detached (from session ma_session)]” indique que la session est en cours d’exécution en arrière-plan.

Pour s’attacher à la session, utilisez la commande attach :

tmux attach -t ma_session

L’article Linux : exécuter des commandes en arrière-plan est apparu en premier sur malekal.com.

❌
❌