• 1 Votes
    1 Messages
    25 Vues

    Vous êtes-vous déjà demandé ce que vos applications faisaient dans votre dos ? Quelles données elles envoyaient sur Internet à votre insu ? Je suis sûr que oui !

    C’est pourquoi, si vous êtes soucieux de votre confidentialité et de la sécurité de vos informations, il est temps de faire connaissance avec OpenSnitch, le pare-feu interactif qui va vous permettre de mieux sécuriser et gérer les connexions sur votre ordinateur Linux.

    Inspiré du célèbre Little Snitch sur macOS, OpenSnitch agit comme un garde-fou en vous alertant chaque fois qu’un programme tente d’établir une connexion sortante. Comme ça, plus besoin de laisser les applications communiquer sans votre consentement, vous avez le contrôle !

    OpenSnitch utilise évidemment iptables couplé à NFQUEUE et ftrace présent par défaut dans le noyau pour détecter et alerter l’utilisateur d’un poste client Linux que quelque chose ne tourne pas rond. Top pour détecter les trucs louches comme l’exploitation d’une faille ou une fuite de données.

    L’interface d’OpenSnitch est simple à prendre en main. Lorsqu’une application essaie d’accéder à Internet, une pop-up apparaît, vous donnant toutes les informations nécessaires pour prendre votre décision : le nom de l’application, l’adresse IP et le port de destination, et même le chemin de l’exécutable. Vous pouvez alors choisir d’autoriser ou de bloquer la connexion, de manière ponctuelle ou permanente.

    OpenSnitch ne se contente pas de filtrer les connexions puisqu’il vous permet également de garder un œil sur l’activité réseau de votre système. Via son interface graphique, vous pourrez consulter l’historique des connexions, voir quelles applications communiquent le plus, et même exporter les données pour une analyse plus poussée.

    Pour l’installer sous Ubuntu, récupérez les .deb ici et lancez la commande :

    sudo apt install ./opensnitch*.deb ./python3-opensnitch-ui*.deb

    Et pour le lancer :

    opensnitch-ui

    OpenSnitch est disponible dans les dépôts de la plupart des distributions Linux, et son installation se fait en quelques commandes. Vous pouvez même l’essayer dans une machine virtuelle pour vous faire une idée avant de l’adopter sur votre système principal.

    –> Plus d’infos ici !

    – Source :

    https://github.com/evilsocket/opensnitch

    https://korben.info/opensnitch-clone-firewall-little-snitch-gnulinux.html

  • 1 Votes
    1 Messages
    38 Vues

    Un chercheur en sécurité a identifié un nouveau logiciel malveillant destructeur de données, nommé AcidPour, et qui cible les équipements réseau ainsi que des appareils avec un système Linux. Voici ce que l’on sait sur cette menace.

    AcidPour, qui est considéré comme une variante du malware AcidRain, est, ce que l’on appelle un “data wiper”, c’est-à-dire un malware dont l’unique but est de détruire les données présentes sur l’appareil infecté. Autrement dit, le malware AcidPour est destiné à effectuer des actes de sabotages. D’ailleurs, AcidRain a été utilisé dans le cadre d’une cyberattaque contre le fournisseur de communications par satellite Viasat, ce qui avait eu un impact important sur la disponibilité des services en Ukraine et en Europe.

    Le malware AcidPour quant à lui, a été identifié par Tom Hegel, chercheur en sécurité chez SentinelLabs, et il a été téléchargé depuis l’Ukraine le 16 mars 2024. Il présente plusieurs similitudes avec AcidRain, notamment au sein des chemins pris pour cible sur les machines infectées. Néanmoins, les deux malwares ont uniquement 30% de code source en commun. AcidPour pourrait être une variante beaucoup plus évoluée et puissante qu’AcidRain, grâce à la “prise en charge” de la destruction de données sur une plus grande variété d’appareils.

    AcidPour est un malware destructeur de données capable de s’attaquer à des équipements réseau, notamment des routeurs, mais aussi des appareils avec une distribution Linux embarquée (Linux x86). Par exemple, il pourrait s’agir de cibler des NAS dont le système est basé sur Linux, car le malware s’intéresse aux chemins de type "/dev/dm-XX.

    Sur X (ex-Twitter), Rob Joyce, directeur de la cybersécurité de la NSA, affiche une certaine inquiétude vis-à-vis de ce logiciel malveillant :

    Il s’agit d’une menace à surveiller. Mon inquiétude est d’autant plus grande que cette variante est plus puissante que la variante AcidRain et qu’elle couvre davantage de types de matériel et de systèmes d’exploitation.

    Enfin, sachez que SentinelLabs a partagé un échantillon de ce malware sur VirusTotal, et vous pouvez le retrouver sur cette page publique.

    – Sources :

    https://www.bleepingcomputer.com/news/security/new-acidpour-data-wiper-targets-linux-x86-network-devices/

    https://www.it-connect.fr/acidpour-un-malware-destructeur-de-donnees-qui-cible-linux-et-les-equipements-reseau/

  • 3 Votes
    3 Messages
    89 Vues

    Cela fait déjà plusieurs années que Wayland a débarqué, notamment sur Ubuntu. Bien que ça soir une excellente avancé pour Linux j’avais été embêté car VNC ne supportait pas encore Wayland, depuis cela a été résolu et pour quasi tous les usages les plus courant il est parfaitement opérationnel.

  • 3 Votes
    1 Messages
    40 Vues

    Une nouvelle faille de sécurité critique a été découverte dans une bibliothèque très populaire puisque présente dans de nombreuses distributions Linux : GNUC C (glibc). En l’exploitant, un attaquant peut obtenir un accès root sur la machine. Voici ce qu’il faut savoir.

    Les chercheurs en sécurité de chez Qualys ont mis en ligne un nouveau rapport dans lequel ils évoquent la découverte de 4 vulnérabilités dans la bibliothèque GNU C.

    Celle qui est particulièrement dangereuse, c’est la faille de sécurité associée à la référence CVE-2023-6246 est présente dans la fonction “__vsyslog_internal()” de la bibliothèque glibc. Cette fonction est très utilisée par les distributions Linux par l’intermédiaire de syslog et vsyslog afin d’écrire des messages dans les journaux.

    Cette vulnérabilité de type “heap-based buffer overflow” permet une élévation de privilèges sur une machine locale sur laquelle un attaquant à déjà accès avec un compte utilisateur standard. Ainsi, il peut élever ses privilèges pour devenir root (“super administrateur”) sur cette machine. De nombreuses distributions populaires sont vulnérables, comme le précise le rapport de Qualys :

    Les principales distributions Linux telles que Debian (versions 12 et 13), Ubuntu (23.04 et 23.10) et Fedora (37 à 39) sont confirmées comme étant vulnérables.

    Pour Debian, rendez-vous sur cette page pour obtenir la liste des versions où cette vulnérabilité a été corrigée.

    Il est à noter que cette vulnérabilité a été introduite dans la bibliothèque GNU C en août 2022, au sein de glibc 2.37. Par ailleurs, elle a été accidentellement intégrée dans la version 2.36 de glibc lorsque les développeurs ont intégré un correctif pour une autre vulnérabilité : CVE-2022-39046. Par ailleurs, la fonction “qsort()” de glibc contient une vulnérabilité qui affecte toutes les versions de la 1.04 (septembre 1992) à la version 2.38, qui est la plus récente.

    L’occasion pour Qualys de rappeler l’importance de la sécurité des bibliothèques populaires :

    Ces failles soulignent le besoin critique de mesures de sécurité strictes dans le développement de logiciels, en particulier pour les bibliothèques de base largement utilisées dans de nombreux systèmes et applications.

    Ces dernières années, Qualys a fait la découverte de plusieurs failles de sécurité importantes au sein de Linux, notamment Looney Tunables et PwnKit.

    – Sources

    https://www.it-connect.fr/linux-acces-root-faille-critique-glibc-cve-2023-6246/

    https://www.bleepingcomputer.com/news/security/new-linux-glibc-flaw-lets-attackers-get-root-on-major-distros/

  • 3 Votes
    3 Messages
    106 Vues

    @Violence je m’en occuperai ce soir.

  • 0 Votes
    3 Messages
    65 Vues

    Pas mal, pas mal 🙂

  • 1 Votes
    2 Messages
    61 Vues
    Les pirates de Kinsing exploitent la faille Looney Tunables pour compromettre des instances Cloud

    La faille de sécurité Looney Tunables présente dans une bibliothèque du noyau Linux semble intéresser certains cybercriminels. En effet, des pirates associés au groupe Kinsing ont été repérés en train de tenter d’exploiter cette vulnérabilité pour compromettre des environnements Cloud. Voici ce que l’on sait.

    Pour rappel, la vulnérabilité Looney Tunables (référence CVE-2023-4911) a été découverte par les chercheurs en sécurité de chez Qualys et elle se situe dans la bibliothèque C du projet GNU : glibc. Cette bibliothèque est intégrée dans le noyau Linux. Quant à cette vulnérabilité, elle a été introduite dans la bibliothèque glibc en avril 2021 (dans glibc 2.34). En l’exploitant, un attaquant peut élever ses privilèges et devenir root sur la machine.

    Dans un rapport partagé par l’entreprise Aqua, nous pouvons lire ce qui suit :

    En utilisant une attaque rudimentaire mais typique d’exploitation d’une vulnérabilité dans PHPUnit, une étape de la campagne en cours de Kinsing, nous avons découvert les efforts manuels de l’acteur malveillant pour manipuler la vulnérabilité Looney Tunables (CVE-2023-4911).

    Le groupe Kinsing à l’habitude d’utiliser une faille critique dans PHPUnit (CVE-2017-9841) permettant une exécution de code à distance. Elle leur permet d’avoir un accès initial à la machine cible. Ensuite, leur objectif est d’exploiter la vulnérabilité Looney Tunables pour élever leur privilège.

    Dans le cas présent, les attaquants ont effectué des actions manuelles, notamment à l’aide d’un exploit codé en Python. Pas n’importe lequel puisque Kinsing récupère un exploit publié par un utilisateur surnommé @bl4sty. Sur son site, @bl4sty explique qu’il s’agit d’un “exploit d’escalade des privilèges locaux de Linux” ciblant la vulnérabilité Looney Tunables.

    Habituellement, le groupe Kinsing cherche plutôt à compromettre des machines pour lancer un mineur de cryptomonnaie. Ici, les motivations sont différentes. En effet, les cybercriminels ont cherché à extraire les informations d’identifiants (credentials) du fournisseur de services Cloud afin d’effectuer d’autres actions par la suite. Dans le cas présenté par Aqua, il s’agissait d’une tentative de compromission à l’encontre d’une instance AWS (Cloud Amazon).

    L’opération Kinsing pourrait se diversifier et s’intensifier dans un avenir proche, posant ainsi une menace accrue pour les environnements cloud-native.

    précise le rapport d’Aqua.

    – Source

    https://www.it-connect.fr/les-pirates-de-kinsing-exploitent-la-faille-looney-tunables-pour-compromettre-des-instances-cloud/

    Détails de l’attaque

    Contrairement à leur habitude, Kinsing a testé manuellement la dernière attaque, probablement pour s’assurer qu’elle fonctionne comme prévue avant de développer des scripts d’exploitation pour automatiser la tâche.


    – Exploitation de la faille CVE-2017-9841 (AquaSec)

    L’exploitation de la faille PHPUnit (CVE-2017-9841) conduit à ouvrir un shell inversé sur le port 1337 sur le système compromis, que les opérateurs de Kinsing exploitent pour exécuter des commandes de reconnaissance comme uname -a et passwrd


    – Ouverture d’un Shell inversé (AquaSec)

    De plus, les attaquants déposent un script nommé gnu-acme.py sur le système, qui exploite la faille CVE-2023-4911 pour l’élévation de privilèges.

    L’exploit de Looney Tunables est récupéré directement auprès du dépositaire du chercheur qui a sorti un PoC, sensible de cacher leurs traces.

    Les attaquants téléchargent également un script PHP, qui déploie une backdoor JavaScript 'wesobase.js) qui prend en charge les étapes d’attaque suivantes.


    – Payload JS

    Plus précisément, la backdoor offre aux attaquants la possibilité d’exécuter des commandes, d’effectuer des actions de gestion de fichiers, de collecter des informations sur le réseau et le serveur, et d’exécuter des fonctions de chiffrement / déchiffrement.


    – Collecte d’informations AWS

  • 0 Votes
    1 Messages
    31 Vues

    L’environnement de bureau GNOME est affecté par une faille de sécurité importante présente dans une bibliothèque qu’il utilise. En exploitant cette vulnérabilité, un attaquant peut exécuter du code arbitraire sur la machine Linux. Faisons le point.

    GNOME est un environnement de bureau populaire pour les distributions Linux, et c’est une alternative à XFCE, KDE, etc… Il est utilisé (ou proposé) au sein de distributions Linux populaires comme Ubuntu, Debian ou encore Red Hat Enterprise Linux.

    La faille de sécurité qui impacte GNOME est présente dans la bibliothèque “libcue” intégrée à l’outil d’indexation de métadonnées de fichiers Tracker Miners. Ce dernier est intégré dans les dernières versions de GNOME. En fait, libcue sert à analyser les fichiers de type “cue sheets” qui contiennent les métadonnées d’un CD ou d’un DVD (nom de la piste, durée de la piste, artiste, etc.).

    La faille de sécurité CVE-2023-43641 est de type “1-click RCE” c’est-à-dire qu’elle permet une exécution de code en un seul clic puisqu’il suffit que l’utilisateur clique sur un lien malveillant pour que du code soit exécuté sur la machine Linux.

    Kevin Backhouse, qui a fait la découverte de cette vulnérabilité, a mis en ligne de nombreux détails techniques sur son GitHub.

    Il précise : “Parfois, une vulnérabilité dans une bibliothèque apparemment inoffensive peut avoir un impact important.” - Dans une démonstration, on voit qu’il clique sur un lien Web correspondant à un fichier “.cue” et le code est exécuté dès la fin du téléchargement du fichier, car le fichier est immédiatement indexé par Tracker Miners. D’autres formats sont pris en charge par cet indexeur : HTML, JPEG, PDF, etc…

    Il y a un réel risque vis-à-vis de cette vulnérabilité et Kevin Backhouse est clair : “Si vous utilisez GNOME, mettez à jour dès aujourd’hui !”. Actuellement son exploit PoC complet n’est pas accessible publiquement, mais il sera mis en ligne par la suite.

    La semaine dernière, une autre vulnérabilité baptisée Looney Tunables a été découverte dans Linux. Elle permet de devenir “root” sur une machine locale.

    – Source

    https://www.it-connect.fr/linux-avec-gnome-cette-faille-permet-une-execution-de-code-avec-un-simple-telechargement-de-fichier/

  • 0 Votes
    1 Messages
    57 Vues

    Vous êtes-vous déjà retrouvé dans une situation où vous deviez réinstaller ou configurer un nouvel environnement de bureau Linux ? Et comme si ça ne suffisait pas, vous auriez aimé que tout soit exactement comme avant ? Si oui, vous allez adorer SaveDesktop !

    SaveDesktop est une application open-source qui vous permet de sauvegarder et de restaurer facilement les configurations d’environnements de bureau Linux tels que GNOME, Xfce, Cinnamon et d’autres. Elle enregistre les icônes, thèmes, paramètres, fonds d’écran, extensions et applications Flatpak installées. Pour l’installer, vous aurez besoin de GTK4 et LibAdwaita comme prérequis.

    Vous pouvez l’installer en utilisant une commande Git ou Flatpak.

    – Voici comment l’installer en utilisant Git :

    git clone https://github.com/vikdevelop/SaveDesktop /tmp/SaveDesktop && sh /tmp/SaveDesktop/install_native.sh --install

    – Et voici comment l’installer en utilisant Flatpak :

    flatpak install flathub io.github.vikdevelop.SaveDesktop

    L’interface utilisateur de SaveDesktop est minimaliste et facile à utiliser. Cependant, il y a quelques limitations à garder à l’esprit. Par exemple, il ne prend pas en charge les applications Snap pour le moment, et il y a quelques problèmes avec certaines icônes qui ne sont pas sauvegardées correctement. Malgré ces petits défauts, SaveDesktop reste un outil très utile pour les utilisateurs de Linux.

    En résumé, SaveDesktop est une excellente application pour ceux qui cherchent à sauvegarder et restaurer facilement leurs configurations de bureau Linux. Si vous êtes un utilisateur de Linux et que vous n’avez pas encore essayé SaveDesktop, je vous encourage vivement à le faire. Cela pourrait vous faire gagner beaucoup de temps et d’efforts lors de la configuration de vos environnements de bureau Linux à l’avenir.

    – Sources :

    https://github.com/vikdevelop/SaveDesktop

    https://korben.info/save-desktop-linux-configuration-sauvegarde-restauration.html

  • 2 Votes
    16 Messages
    363 Vues

    Après Win7 , j’ai été un bout d’temps sous LinuxMint mais avec l’arrivée de Win10 (au tout début) , pour mes clients , y’a fallu que je ré-apprenne Windows car ils avaient tous cet OS !!

  • 2 Votes
    1 Messages
    45 Vues

    La distribution Linux antiX revient dans une mouture 23. Elle profite du passage à Debian 12 (Bookworm) pour une vaste modernisation de sa base. Les petites configurations restent cependant sa cible principale, et elle se montre toujours d’une étonnante légèreté.

    Début août, nous évoquions la sortie de MX Linux 23, qui était née de la coopération/fusion de deux projets, antiX et MEPIS. La seconde a disparu, mais la première est toujours là, profitant d’un développement actif et de nouvelles moutures régulièrement. Basée sur Debian, elle a constitué la base de travail de MX Linux toutes ces années, mais garde une existence propre depuis sa création en 2007.

    MX Linux 23 : une distribution sobre, discrète et efficace

    Si MX Linux était déjà remarquable pour sa légèreté (1 Go de mémoire demandé, 8,5 Go d’empreinte disque), antiX est pour sa part clairement destiné à du vieux matériel. De là lui vient d’ailleurs son nom. Rien n’empêche bien sûr de s’en servir sur du matériel plus récent, la bascule vers Debian 12 accentue d’ailleurs cette utilisation.

    Une installation très rapide, de nombreuses variantes

    On commence comme d’habitude avec une image ISO que l’on récupère depuis le site officiel. antiX est proposé en quatre variantes : full, base, core et net, de la plus complète à la plus légère. Les deux premières seulement proposent des environnements graphiques, la dernière ne disposant même pas du serveur graphique X.

    Dans le cadre d’un essai, nous vous conseillons la version full, dont l’image ISO pèse 1,7 Go. Quatre environnements graphiques y sont présents : IceWM (par défaut), fluxbox, jwm et herbstluftwm. Précisons également que la distribution ne se sert pas de systemd et peut être téléchargée en deux versions, l’une avec sysVinit, l’autre avec runit. À moins de savoir ce que vous faites, il est recommandé de prendre une version sysVinit. La distribution étant disponible en versions 32 et 64 bits, il faut donc faire son choix entre 16 variations. Dans notre cas, nous avons sélectionné « antiX-23-Full 64bit » dans la partie sysVinit.

    À noter que si des versions 32 bits sont toujours proposées, l’équipe de développement prévient que nombre d’applications ne sont plus aujourd’hui disponibles pour cette architecture. La mouture 64 bits est clairement mise en avant pour les ordinateurs « construits au cours des dix dernières années », représentant une grande majorité du parc disponible.

    De son côté, l’installation est l’une des plus rapides que nous ayons vues, par le temps comme par l’expérience utilisateur. La copie des fichiers commence en effet au bout de deux questions. L’installateur se contente du minimum d’informations vitales pour finir ses opérations, avec choix de la disposition du clavier, de la langue, de la partition et la création du compte utilisateur.

    La distribution se présente sous forme d’un Live CD et permet de s’en servir un peu avant de lancer l’installation proprement dite. Étonnamment, antiX n’a pas détecté qu’il s’agissait d’une configuration française et a affiché toute l’interface – installation comprise – en anglais. De manière générale, la traduction ne fait pas partie des points forts du système.

    Petit tour du propriétaire

    Si vous avez l’habitude d’Ubuntu ou même de distributions ayant fait de l’expérience utilisateur une marque de fabrique, antiX risque de vous faire lever un sourcil. L’ensemble ne brille pas par son esthétique et la distribution présente un vrai côté « old school », qui n’est d’ailleurs pas que graphique. La manière dont se manipule le système pourra sembler particulière aux personnes ne connaissant que les distributions les plus connues.

    antiXantiX

    L’organisation générale est cependant connue : une barre des tâches, un menu général de type « Démarrer », un systray avec quelques indicateurs classiques (comme le réseau et l’heure) et quelques icônes sur le bureau. On s’aperçoit cependant vite de certaines différences. Par exemple, le clic droit sur le bureau ouvre un menu proposant une foule de possibilités, par exemple l’ouverture du terminal ou du gestionnaire de fichiers, la liste complète des applications, l’accès aux fichiers récemment utilisés, les paramètres ou encore le menu de déconnexion. Il y a à boire et à manger, mais on se prend à apprécier d’avoir tout à portée d’un clic.

    Précisons également que le menu Personal augmente encore l’intérêt de ce menu. On y trouve un éditeur qui permet de configurer ce sous-menu, dans lequel on va pouvoir épingler tout ce que l’on souhaite. Une personnalisation qui peut vite faire la différence.

    L’une des particularités d’antiX est aussi d’afficher une surveillance constante des signes vitaux de la machine (via Conky). À droite de l’écran, on trouvera donc une série d’informations techniques telles que la définition de l’écran, le DPI, la charge du processeur, sa fréquence, la quantité de mémoire consommée ainsi que l’empreinte sur le stockage.

    Une matière brute à modeler

    Ce côté « old school » pourrait faire passer antiX pour une distribution minimaliste. Elle l’est, d’une certaine manière, mais de la même façon que le clic droit sur le bureau révèle de nombreux éléments, il ne faudrait pas penser qu’antiX se limite à ce que l’on voit.

    La distribution est fournie avec bon nombre d’applications. On retrouve ainsi Firefox 102 ESR ou Seamonkey 2.53.17 pour la navigation web (une présence assez rare pour la souligner). Claws Mail 4.11 s’occupe des courriels, LibreOffice 7.5.5 est là pour la bureautique, XMMS pour l’audio, Celluloid et MPV pour la lecture vidéo, la visionneuse Qpdfview, etc.

    antiXantiX

    Puisque le système est maintenant basé sur Debian 12, tous les composants ont reçu une mise à jour significative. Le noyau Linux est en version 6.1.42 et il est accompagné de changements récents que l’on a pu voir dans d’autres distributions, comme la présence du duo PipeWire/WirePlumber pour la gestion de l’audio, en lieu et place de l’ancien PulseAudio.

    Attention cependant, la présence des composants dépend de l’édition sélectionnée. En « full » bien sûr, tout est là. En édition « base », Firefox est remplacé par Seamonkey, et Pipewire et WirePlumber disparaissent, tandis qu’ALSA apparaît. Chaque variante a une identité propre qui ne consiste pas seulement à enlever des applications et supprimer des composants.

    antiX propose également de nombreux outils de personnalisation. La distribution intègre par exemple une très longue liste de thèmes. On peut y accéder d’ailleurs via le fameux clic droit sur le bureau et en se rendant dans Paramètres > Thèmes. En bas de la liste, une ligne « Thème par défaut » permet de revenir à l’apparence de base.

    L’environnement par défaut d’antiX est un mélange entre zzzFM et IceWM. De ce dernier, antiX 23 reprend le Control Centre. Ce dernier présente une apparence particulièrement « brute de décoffrage » et dépouillée. Il est cependant efficace, avec des rubriques clairement identifiées et un accès à de nombreux réglages, d’éléments simples comme le fond d’écran à des paramètres plus poussés, comme ceux du réseau ou la gestion des pilotes. À noter qu’une fonction spéciale est présente pour les configurations intégrant un GPU NVIDIA, souvent source de difficultés pour en exploiter l’accélération matérielle.

    Ce centre de contrôle contient aussi de très nombreux outils, dont certains peuvent rendre bien des services. On trouve par exemple une fonction dédiée à la réparation du boot, un installateur de paquets, un assistant réseau ou encore un panneau pour gérer simplement les comptes utilisateurs.

    antiX

    Un mot sur les performances

    antiX est une distribution redoutablement rapide et légère. C’est bien la promesse de la distribution, mais il ne s’agit pas de paroles en l’air. À froid, avec la session par défaut et sans applications ouvertes, le système ne consomme que 363 Mo de mémoire vive. C’est extrêmement peu.

    À titre d’information, la configuration minimale est d’à peine 256 Mo de RAM. En espace disque, tout dépend de la variante choisie : au moins 5 Go pour full, 3,5 Go pour base, tandis que Core peut se contenter de 1 Go.

    Après une installation déjà rapide, le système démarre et s’éteint très rapidement. Même chose pour les applications, d’autant que l’on peut constater d’un coup d’œil ce que fait le système et les ressources consommées en regardant les informations renvoyées par Conky à droite du bureau.

    Pour information, nous avons installé le système dans une machine virtuelle limitée à 4 Go de RAM et un seul cœur, sur la base d’un Ryzen 5 5600X. Un type de processeur pas nécessairement visé par antiX, il faut le reconnaître. Mais même ainsi, antiX est de loin l’une des distributions les plus réactives que nous ayons prises en main.

    Pas pour tout le monde, mais redoutablement efficace

    antiX est une distribution particulière. Le système, « fièrement antifasciste », peut présenter un visage minimaliste, vieillot, voire peu amical ou même franchement repoussant, selon qui l’utilise.

    Mais le système a d’indéniables qualités. Les promesses sur la consommation de ressources et les performances sont clairement tenues : antiX est une distribution très légère et tous les choix de développement vont dans ce sens. Il n’y a pas de Wayland, pas plus que de gestionnaires de paquets plus récents, mais particulièrement voraces en espace disque, comme Snap ou Flatpak. Aucun environnement de bureau beaucoup plus grand public, comme Gnome ou KDE, n’est présent non plus. Même Xfce est absent, alors qu’il est pourtant proposé comme alternative légère dans nombre de distributions.

    En fait, loin d’être anémique, on pourrait presque reprocher à antiX de proposer « trop » de choix. Le système est une matière à manipuler ses goûts, le degré de personnalisation possible étant très poussé, ne serait-ce que sur l’apparence ou à travers le menu Personal du clic. Pour chaque type d’application, on a souvent plusieurs alternatives. C’est d’ailleurs un étrange constat si l’on considère qu’antiX est l’une des distributions les plus légères qui existe. Et contrairement à d’autres distributions orientées vers la légèreté, la plupart de ces composants, applications et outils sont utilisables tels quels.

    Une profusion qui peut presque lui donner un air « anarchique » et il faut effectivement un peu de temps pour débroussailler tout ça. Mais sur du vieux matériel – son cœur de cible – ou sur une configuration plus récente, antiX vaut une session d’essai.

    Source : nextinpact.com

  • 2 Votes
    6 Messages
    110 Vues

    @duJambon ouille fait mal au dos ça!

  • 1 Votes
    1 Messages
    93 Vues

    text alternatif

    La définition de « cloud » a vraiment évolué ces dernières années. On est passé de :

    « Je vais mettre tous mes fichiers dans le cloud de Google et d’Amazon »

    à :

    « Je me suis monté un serveur de cloud personnel »

    Cela n’a plus aucun sens, mais on va faire comme si de rien n’était. Partons du principe que dans la tête des gens, aujourd’hui, cloud ça veut dire stockage personnel ou quelque chose comme ça.

    Bref, si je vous dis tout ça c’est surtout pour vous présenter CasaOS, un logiciel open source qui vous propose de créer votre cloud à la maison. Oui, lol. N’empêche l’outil est cool puisqu’il vous permet grâce à Docker de déployer et gérer facilement tous vos usages personnels.

    Logo de CasaOS, le système d'exploitation pour le cloud personnel

    Ainsi, vous pouvez remplacer Dropbox, eBay, Google Drive ou encore Netflix par Syncthing, Bazaar, Nextcloud ou encore Plex très facilement, sans avoir à taper une seule ligne de commande. Vous l’aurez compris, l’idée c’est justement de vous passer du cloud pour héberger à nouveau votre contenu chez vous à l’aide d’applications qui ont fait leurs preuves (j’en ai présenté la plupart sur ce site d’ailleurs).

    Avec CasaOS, vous pourrez gérer toutes vos données et vos usages depuis votre ordinateur ou votre smartphone et à terme, l’outil encore un peu jeune, vous permettra également de gérer vos scénarios domotique, de stocker les vidéos de vos caméras de surveillance ou de récupérer les infos d’un tas de matériel IoT.

    CasaOS fonctionne sous Linux, mais a surtout été testé sous Ubuntu, mais également Raspberry Pi OS Bullseye, ce qui est une bonne nouvelle si vous avez un Raspberry Pi.

    Pour l’installer, il suffit d’entrer la commande suivante dans votre terminal :

    curl -fsSL https://get.icewhale.io/casaos.sh | bash

    Si cela vous intéresse, une démo est disponible ici (mot de passe: casaos)

    Source : korben.info

  • 1 Votes
    1 Messages
    32 Vues

    En raison du passage de GNOME Shell aux modules JavaScript standard (ESM)

    À l’heure actuelle, ce n’est probablement plus une nouvelle pour beaucoup : GNOME Shell est passé du système d’importation personnalisé de GJS aux modules JavaScript standard (ESM).

    IMPORTS ? ESM ?

    JavaScript est apparu dans les navigateurs web pour ajouter un peu d’interactivité à des pages par ailleurs statiques. Il n’était pas nécessaire de diviser de petits extraits de code en plusieurs fichiers, et le langage ne prévoyait donc pas de mécanisme pour cela.

    Le problème s’est posé lorsque les gens ont commencé à écrire des programmes plus importants en JavaScript, et des environnements tels que node.js et GJS ont ajouté leurs propres systèmes d’importation pour organiser le code en plusieurs fichiers. En conséquence, les développeurs et les outils ont eu du mal à passer d’un environnement à l’autre.

    Les choses ont changé en 2015 lorsque ECMAScript 6 a normalisé les modules, ce qui a donné lieu à une syntaxe bien définie et largement supportée par tous les principaux moteurs JavaScript. GJS supporte ESModules depuis 2021, mais le portage de GNOME Shell était une tâche bien plus importante qui devait être réalisée en une seule fois.

    ALORS ? POURQUOI DEVRAIS-JE M’EN SOUCIER ?

    Eh bien, il y a un tout petit inconvénient : Les modules et les importations héritées sont incompatibles en pratique.

    Les modules sont chargés différemment des scripts, et certaines instructions - à savoir import et export - ne sont valables que dans les modules. Cela signifie qu’essayer d’importer un module avec le système existant entraînera une erreur de syntaxe si le module utilise l’une de ces instructions (ce qui est aussi probable qu’un pape soit catholique).

    Les modules cachent également à l’extérieur tout ce qui n’est pas explicitement exporté. Ainsi, bien qu’il soit techniquement possible d’importer un script en tant que module, cela est aussi utile que d’importer un fichier vide.

    QU’EST-CE QUE CELA SIGNIFIE POUR LES EXTENSIONS ?

    Les extensions qui ciblent les anciennes versions de GNOME ne fonctionneront pas dans GNOME 45. De même, les extensions adaptées à GNOME 45 ne fonctionneront pas dans les anciennes versions.

    Vous pouvez toujours prendre en charge plus d’une version de GNOME, mais vous devrez télécharger différentes versions sur extensions.gnome.org pour la prise en charge avant et après 45.

    Il existe un guide de portage contenant des informations détaillées. Les deux changements les plus importants (qui seront suffisants pour de nombreuses extensions !) sont les suivants :

    1. Utiliser la syntaxe standard pour importer des modules depuis gnome-shell :

    123import * as Main from 'resource:///org/gnome/shell/ui/main.js';   Main.notify('Loaded!');

    2. Exporter une classe par défaut avec les méthodes enable() et disable() de votre extension.js.
    Vous pouvez étendre la nouvelle classe Extension qui remplace l’API de commodité de l’ancien module ExtensionUtils.

    1234567891011import {Extension, gettext as _} from 'resource:///org/gnome/shell/extensions/extension.js';   export default class MyTestExtension extends Extension { enable() { console.log(_('%s is now enabled').format(this.uuid)); }   disable() { console.log(_('%s is now disabled.').format(this.uuid)); } }

    Enfin, vous pouvez toujours trouver des personnes sympathiques sur Matrix et Discourse qui seront heureuses de vous aider à résoudre vos problèmes de portage.

    RÉSUMÉ

    Passer du système d’importation personnalisé de GJS au standard de l’industrie ECMAScript 6 entraînera la rupture de toutes les extensions. Cependant, ce changement signifie de suivre les standards appropriés et non pas les standards maison, ce qui permet une plus grande compatibilité avec l’écosystème JavaScript. Les importations héritées sont toujours prises en charge sur extensions.gnome.org mais vous devrez télécharger un support pré et post GNOME 45 afin de prendre en charge à la fois les distributions LTS et régulières.

    Pour les développeurs d’extensions GNOME :
    Il existe une communauté active d’extensions qui peut vous aider à porter vos extensions vers le nouveau système d’importation de Matrix et Discourse qui peut vous aider à porter rapidement vos extensions vers la nouvelle version.

    Vous pouvez tester vos extensions en téléchargeant la dernière version de GNOME OS et en essayant votre extension.

    Source : GNOME, developpez.com

    Et vous ?

    Quel est votre avis sur le sujet ?

  • 2 Votes
    1 Messages
    44 Vues

    => Article complet : nextinpact.com <=

    Après les principaux systèmes de fichiers trouvés chez Microsoft, Apple et dans le monde Linux, nous nous penchons sur ZFS. Développé initialement par Sun, on le trouve dans plusieurs UNIX, quelques distributions, certaines gammes de NAS et même dans macOS pendant un temps. Ses caractéristiques sont nombreuses.

    Alors que tous les noms de systèmes de fichiers sont composés généralement d’un sigle ayant un sens, ZFS n’en a pas particulièrement. Le « Z » renvoie, selon les personnes qui en parlent, à plusieurs significations, notamment zettabyte (zettaoctet) ou comme dernière lettre de l’alphabet, soulignant l’idée qu’il serait en quelque sorte l’aboutissement de ce que l’on peut faire de mieux dans le domaine.

    Parmi tous les systèmes de fichiers déjà vus, ZFS est l’un des plus récents, avec APFS. Son développement a débuté en 2001. Il a été présenté et annoncé par Sun pour septembre 2004, mais il est arrivé six mois plus tard, intégré à Solaris, l’UNIX maison, puis dans OpenSolaris à la fin de la même année.

    Dès le départ, ses caractéristiques ont fait de ZFS un système de fichiers à part. Il pourrait techniquement être la réponse à bien des problématiques de stockage, mais son fonctionnement particulier l’a réservé à certains scénarios. Des décisions justifiées ?

    Lire notre dossier sur les systèmes de fichiers :

    | Qu’est-ce qu’un système de fichiers ? | Systèmes de fichiers : FAT12 à 32 et exFAT, conçus pour le grand public | Systèmes de fichiers : NTFS et ReFS, pensés d’abord pour l’entreprise | Systèmes de fichiers : de HFS et ses évolutions à APFS chez Apple | Systèmes de fichiers : ext4 et Btrfs, les « frères ennemis » du monde Linux ZFS, un système de fichiers hors normes

    Les caractéristiques de ZFS sont peu communes. Dans les articles précédents, vous vous souvenez peut-être que l’arrivée du 64 bits avait profondément modifié les capacités des systèmes de fichiers concernés, comme dans NTFS et ext4. Dans le cas de ZFS, on parle de 128 bits.

    Techniquement, la taille maximale des volumes et des fichiers est de 16 Eo, soit 16 millions de To. Un volume peut embarquer 2⁴⁸ fichiers, soit plus de 280 millions de milliards, ce qui correspond également au nombre maximal dans un répertoire. Il n’y a virtuellement aucune limite au nombre de fichiers qu’un volume peut ainsi stocker.

    Des chiffres si élevés qu’ils ont fait dire au concepteur de ZFS, Jeff Bonwick, que « remplir en totalité un espace de stockage 128 bits consommerait, littéralement, plus d’énergie que de faire bouillir les océans ». Une phrase et une explication restées célèbres.

    Comme on peut s’en douter, ZFS gère les noms longs (255 caractères). Pensé avant tout pour le monde UNIX, il reprend les autorisations POSIX (comme ext4 et Btrfs), auxquelles il ajoute les ACL (NFSv4). La hiérarchie de ZFS est en arbre B, comme la plupart des systèmes de fichiers modernes.

    Bien que la taille des blocs soit par défaut de 128 ko, elle est en fait variable. Elle peut être adaptée selon les besoins au sein d’un même volume, que ce soit par l’administrateur ou par des processus automatisés. En cas de compression des données, elle est ainsi automatiquement activée.

    Des caractéristiques bien spécifiques

    L’approche retenue dès le départ tranche avec ce que l’on a pu voir jusqu’ici. ZFS virtualise partiellement la gestion du stockage, notamment celle des disques, ce que l’on peut rapprocher du fonctionnement des volumes logiques, que l’on retrouve par exemple dans APFS. Dans ZFS, il s’agit du Volume Manager, qui ajoute une couche d’abstraction intermédiaire entre les disques et le système de fichiers, donc avec le système d’exploitation. On parle ainsi parfois de ZFS comme d’une plateforme, car il reprend à son compte des fonctions trouvées habituellement dans le système d’exploitation lui-même.

    Ce dernier verra ainsi des volumes mis à disposition depuis le Storage Pool. C’est à l’administrateur de déterminer quels vont être les besoins de stockage pour configurer des vdev (virtual device, ou appareil virtuel), c’est-à-dire des agrégats de disques ou de partitions. Chaque vdev peut être configuré avec ou sans redondance des données (choix du niveau de RAID) et selon des critères de performances spécifiques.

    La gestion des vdev est souple, puisqu’ils peuvent être reconfigurés. On peut ainsi modifier le nombre de disques ou de partitions dans chaque vdev, augmenter ou diminuer sa capacité en ajoutant ou supprimant des disques, on peut déclarer un ou plusieurs disques en spare (redondance) dans chaque pool, etc.

    Dans la gestion de l’ensemble, on trouve deux commandes essentielles. La première, zpool s’occupe des pools (agrégats). La seconde, zfs, gère les volumes et les datasets. Par exemple, si l’on souhaite créer un agrégat « nxi » de huit disques (nommés de a à h), dont deux utilisés en redondance, la commande est la suivante :

    zpool create nxi raidz2 sd[abcdefgh]

    ici, raidz2 est le type de RAID choisi pour établir la redondance. Avant d’aller plus loin, il faut donc aborder la manière dont ZFS s’occupe de l’intégrité des données.

    OpenZFS

    Crédits : GT-ZFS

    Intégrité des données : c’est parti

    C’est l’une des fonctions principales de ZFS : protéger l’intégrité des données. Des caractéristiques qui l’ont rendu populaire notamment auprès de certains constructeurs de NAS.

    Premièrement, ZFS fait une utilisation différente des sommes de contrôle (checksum) en SHA-256. Comme dans Btrfs, elles sont utilisées aussi bien pour les données que les métadonnées. Mais au lieu d’être stockée dans le bloc de données concerné, une somme sera stockée dans le pointeur de ce bloc (bloc parent). Ce fonctionnement est répliqué dans l’intégralité de la hiérarchie du système de fichiers.

    Ensuite, ZFS fonctionne – sans surprise cette fois – sur la base du copy-on-write. Comme nous l’avons expliqué plusieurs fois, cela signifie que les modifications sur des fichiers sont faites sur des copies de ces derniers, plutôt que sur les données originales. Ce qui signifie une augmentation de l’espace requis, mais pérennise les informations, puisqu’une opération échouée pourra être retentée ou des données pourront être restaurées.

    Ce mécanisme est à la base des clones et snapshots, exactement comme dans Btrfs. Dans ZFS, on peut virtuellement créer autant d’instantanés que l’on souhaite, puisque leur nombre maximal est égal à celui du nombre maximal de fichiers dans un volume, soit 2⁴⁸. Ce fonctionnement peut être automatisé pour que ZFS crée de lui-même des snapshots ou des clones (les premiers sont en lecture seule, les seconds permettent l’écriture) à intervalles réguliers, avec suppression ou non des anciens.

    ZFS a ses solutions RAID bien à lui

    La gestion des modes RAID dans ZFS est particulière. Plutôt que d’employer des solutions matérielles, il est conseillé de laisser faire ZFS, qui a son propre fonctionnement logiciel.

    ZFS peut utiliser les modes RAID classiques, mais on leur préfèrera RAID-Z, spécifique au système de fichiers. Semblable au RAID-5 (même schéma de parité), il tolère donc la panne d’un disque. Il dispose cependant d’un gros avantage sur son modèle : il permet d’éviter les trous d’écriture.

    | siteStockage : c’est quoi un RAID et comment ça marche | Stockage : on grimpe d’un cran avec les RAID 6, 10, 50, 60…

    Dans une configuration RAID-Z, ZFS se sert de la copie sur écriture pour ajouter les nouvelles données aux côtés des anciennes, sans réécrire sur ces dernières. En outre, tout fichier, quelle que soit sa taille, a sa propre bande (full-strip, entrelacement total). En configuration RAID-Z, la séquence habituelle lecture-modification-écriture n’est pas utile. En cas de reconstruction, ZFS parcourt les métadonnées, une opération rendue possible car système de fichiers et matrice RAID se confondent, ZFS ayant une vue intégrée des vues logique et physique. Chaque bloc de données est alors validé par sa somme de contrôle.

    Les checksums sont également utilisées pour effectuer de la « guérison automatique », quand des corruptions silencieuses de données se sont installées. Pour y remédier, ZFS compare chaque bloc lu à sa somme de contrôle. Si la réponse n’est pas bonne, le système de fichiers va lire les informations de parité correspondantes et répare les données. Une fois corrigées, elles sont envoyées au processus qui en a fait la demande.

    Pour reprendre la commande donnée plus haut en exemple, raidz2 renvoie simplement à la configuration RAID-Z2, équivalente au RAID 6. Il existe une variante Z3, tolérant la panne de trois disques au sein d’une configuration RAID. RAID-Z supporte également le striping simple (RAID 0) et le mirroring (RAID 1).

    À noter qu’une autre capacité est en cours de déploiement, après des années de travail : Raid-Z Expansion. Particulièrement attendue, elle permet d’ajouter un disque à une configuration RAID-Z déjà en place, opération impossible actuellement. Cette technologie fonctionne avec les configurations Z1, Z2 et Z3. La fonction est très récente. Elle est par exemple présente dans QuTS hero 5.1 (QNAP), sorti il y a un mois.

    Pour les personnes comprenant bien l’anglais (ou sachant lire très rapidement les sous-titres sur YouTube), la chaine Lawrence Systems avait publié plusieurs vidéos sur ZFS, dont une portant sur la configuration des pools de stockage ZFS et de ses modes RAID-Z :

    Des fonctions multiples et des caches à gogo

    […]

    Source et suite : nextinpact.com

  • 3 Votes
    3 Messages
    90 Vues

    Moi aussi c’est une de mes distributions de prédilection. Sympa aussi bien en serveur qu’en desktop même si je lui préfère Manjaro pour une utilisation desktop quotidienne

  • 2 Votes
    3 Messages
    116 Vues

    Merci pour le topic a essayé

  • 2 Votes
    2 Messages
    62 Vues

    C’est cornélien, un monde ou une application fonctionne partout, mais qui n’offre pratiquement aucune sécurité ou un monde sécuritaire où rien n’est compatible d’un truc à l’autre…

    Dans tous les cas l’utilisateur est perdant.

  • 1 Votes
    2 Messages
    36 Vues

    Adrien de LinuxTricks a sorti une vidéo sur cette distro

  • 3 Votes
    1 Messages
    24 Vues

    => Article complet : nextinpact.com <=

    Bon alors : quand ?

    Après plusieurs articles sur la FAT32, NTFS, HFS+ ou encore APFS, il est temps de se tourner vers l’univers Linux, et plus particulièrement les deux systèmes de fichiers que l’on y trouve le plus souvent : ext4 et Btrfs. Ils se côtoient souvent, mais leur fonctionnement est très différent.

    Lire notre dossier sur les systèmes de fichiers :

    | Qu’est-ce qu’un système de fichiers ? | Systèmes de fichiers : FAT12 à 32 et exFAT, conçus pour le grand public | Systèmes de fichiers : NTFS et ReFS, pensés d’abord pour l’entreprise | Systèmes de fichiers : de HFS et ses évolutions à APFS chez Apple | Systèmes de fichiers : ext4 et Btrfs, les « frères ennemis » du monde Linux

    Dans l’univers Linux, l’immense majorité des distributions se sert du même système de fichiers depuis longtemps : ext4. Le chiffre fait référence à la version. Il s’agit de la quatrième itération, même si l’on ne parlait pas vraiment à l’origine de « version » à proprement parler.

    De nombreux utilisateurs francophones ignorent peut-être que la toute première version d’ext a été développée par un Français : Rémy Card. Docteur en informatique et actuellement responsable du pôle « Exploitation et Infrastructures » de la DSI de la Sorbonne, il a développé ce système de fichiers pour dépasser les limitations imposées par Minix fs, lui-même une version simplifiée du système de fichiers Unix. Parmi ces limites, on trouvait notamment une limite de 64 Mo pour la taille des partitions, ou encore des noms de fichiers ne pouvant pas dépasser 14 caractères.

    Le système ext – extended file system – est intégré pour la première fois dans la version 0.96c du noyau Linux en 1992. Parmi ses apports, des partitions et des fichiers pouvant grimper jusqu’à 2 Go, ainsi que des noms de fichiers jusqu’à 255 caractères. Il garde la sémantique Unix et les bases posées précédemment, notamment les inodes.

    Ces derniers sont centraux dans l’univers UNIX/Linux et étaient déjà présents dans Minix. Un inode est une structure contenant la description d’un fichier : son type, les droits d’accès, les propriétaires, les horodatages, la taille ainsi que des pointeurs vers des blocs de données. Toutes les adresses de blocs d’un fichier sont contenues dans son inode. Aussi, lorsqu’une opération d’entrée/sortie sur un fichier est demandée par l’utilisateur, le noyau convertit la demande en numéro inode, lui-même permettant ensuite d’accéder à tous les blocs du fichier.

    Chaque dossier contient la liste des inodes des fichiers qu’il contient, selon le modèle suivant :

    inode

    Pour autant, il ne va pas rester en place bien longtemps, ext2 étant proposé dès l’année suivante.

    Cette évolution du premier ext vient en corriger les principaux défauts et étendre ses capacités. Alors que la taille des partitions avait fait un bond avec ext, ext2 propulse cette limite à 4 To (théoriquement jusqu’à 32 To). Si la taille maximale des fichiers n’évolue pas dans un premier temps (2 Go), elle le fera au cours des années suivantes, pouvant grimper jusqu’à 2 To.

    Lorsque ext3 apparait en 2001, il introduit un apport majeur : la journalisation. Avec ext2 en effet, en cas de corruption de la structure des données (suite par exemple à une extinction mal faite de l’ordinateur), l’outil fsck (file system check) pouvait prendre beaucoup de temps à faire son travail.

    Cette journalisation, contrairement à celle d’APFS par exemple, est totale. Elle concerne aussi bien les données que les métadonnées. L’idée générale reste cependant la même : les données et métadonnées sont entreposées dans une zone spécifique du disque, et ne sont intégrées dans la structure principale qu’à l’instant où le système de fichiers reçoit la confirmation que les informations ont été correctement écrites. Le journal est ensuite mis à jour. Au démarrage suivant, ce dernier sera analysé à la recherche d’opérations non terminées, qui seront alors répercutées si aucune erreur n’a été rencontrée.

    En revanche, et comme on s’en doute venant d’un mécanisme pensé pour la fiabilité, la journalisation a un impact négatif sur les performances en écriture. Initialement, on pouvait d’ailleurs la paramétrer selon trois paliers, du plus performant au plus sécurisé. Il était également possible de la désactiver, auquel cas la partition fonctionnait comme ext2.

    ext4 l’omniprésent

    L’arrivée d’ext4 en version stable le 24 décembre 2008 est un tournant majeur pour les systèmes de fichiers sous Linux. Ironie de l’histoire, il n’était prévu que comme une solution temporaire en attendant l’arrivée d’un système de fichiers plus moderne, à l’instar de Btrfs. Pourtant, 15 ans plus tard, il est toujours là, qui plus est sur pratiquement toutes les distributions Linux. Il n’est plus porté par Rémy Card.

    Les caractéristiques principales d’ext4 sont celles d’un système de fichiers tout ce qu’il y a de plus moderne. Les partitions peuvent grimper jusqu’à 1 Eo (un million de To), et les fichiers jusqu’à 16 To. Ces derniers peuvent être 4 milliards par volume. La limite de sous-dossiers passe également de 32 000 dans ext3 à 64 000. Les inodes voient leur taille passer à 256 octets (contre 128 pour ext3) et les horodatages abandonnent les secondes pour les nanosecondes.

    Les extents, petite révolution en leur temps

    Surtout, ext4 apporte plusieurs évolutions importantes, dont la principale est le mécanisme d’extent. Pour le comprendre, il faut se pencher un instant sur la manière dont un système de fichiers alloue l’espace aux données. ext2 et ext3 proposaient des schémas de mappage de blocs direct, indirect, double indirect et triple indirect. Sans plonger dans les détails, retenez que ces solutions sont très adaptées pour de nombreux petits fichiers, mais pas pour les gros. Avec ces derniers, ces schémas créent un grand nombre de mappages, réduisant les performances générales, surtout lors d’opérations comme la recherche ou l’effacement de données.

    De son côté, un extent est défini par une séquence contiguë de blocs physiques. La création d’un fichier entraine celle d’un extent. Si le fichier est amené à grossir, les données ultérieures sont simplement inscrites à la suite de celles existantes au sein du même extent. Quand le fichier devient volumineux, plusieurs extents sont utilisés. L’inode d’un fichier peut stocker jusqu’à quatre extents, après quoi le reste est stocké dans un arbre H (similaire à l’arbre B vu dans ce précédent article). Les blocs étant contigus, les extents réduisent fortement la fragmentation et augmentent les performances vis-à-vis d’ext3. Des intentions confirmées dès décembre 2008 par Phoronix dans une série de benchmarks. Précisons que les extents étaient une option au début d’ext4, mais qu’ils sont devenus activés par défaut avec le noyau Linux 2.6.23.

    Souplesse dans l’allocation des blocs

    Cette hausse de performances est également alimentée par plusieurs capacités d’allocation, comme le multi-blocs. Si ext3 allouait les blocs un par un, ext4 peut le faire pour de multiples blocs en une seule opération, diminuant la charge du processeur et la quantité de mémoire vive utilisée. ext4 peut également faire de l’allocation différée, aussi appelée allocation à la volée. Si une opération écrit des données sans les allouer d’une seule traite, elles seront stockées dans un cache. Quand les tâches d’écriture sont terminées, le cache est vidé (allocate-on-flush) et les données sont allouées dans un extent. Ces deux types d’allocation réduisent elles aussi la fragmentation.

    ext4 peut aussi faire de la préallocation persistante. Elle reprend les mêmes avantages sur la fragmentation que les autres, mais permet en plus aux applications de s’assurer que suffisamment d’espace est disponible avant d’écrire des données. Le mécanisme convient très bien par exemple aux bases de données ou aux processus chargés de diffuser du contenu en continu.

    Notez que les extents ne sont pas une capacité unique d’ext4. Ce mécanisme d’allocation est par exemple présent dans NTFS chez Microsoft, dans HFS+ et APFS chez Apple, dans le HPFS d’OS/2, le BFS de BeOS ou encore dans des systèmes de fichiers plus récents comme Btrfs. Par ailleurs, si les systèmes de fichiers ext ont réduit la fragmentation version après version, ils ne l’ont pas totalement supprimée. Dans ext4, il existe un outil, e4defrag, dédié à cette tâche, capable d’agir aussi bien sur un fichier spécifique qu’un dossier ou un volume. Comme pour NTFS, le passage aux SSD met fin au problème.

    Fiable et éprouvé, en attendant « mieux »

    Outre ces aspects, ext4 gère d’autres caractéristiques, comme une double compatibilité ascendante/descendante avec les versions antérieures du système de fichiers (bien que plus limitée avec l’activation par défaut des extents), les attributs étendus (xattr), les quotas et leur journalisation (plus besoin des longues vérifications de leur cohérence), le chiffrement des données (depuis le noyau Linux 4.1) ou encore, bien sûr, la gestion des droits.

    Une précision enfin sur l’accès depuis les autres plateformes. Dans l’absolu, il est possible de lire, voire d’écrire des données sur une partition ext4 depuis Windows ou macOS, mais pas sans utiliser un outil tiers, qu’ils soient libres (ext2read, LinuxReader, etx4fuse…) ou payants, comme les produits vendus par Paragon.

    Aujourd’hui, ext4 est donc omniprésent. Peu de distributions Linux se servent d’autre chose, l’un des cas les plus emblématiques étant Fedora, dont la version 33 a adopté Btrfs pour les nouveaux volumes formatés par une installation neuve du système. Mais puisque l’on parle justement de Btrfs, pourquoi ce système de fichiers, en version stable depuis longtemps, n’est-il pas encore celui fourni par défaut sur les autres systèmes ? Nous allons nous pencher sur la question.

    Btrfs, un gros projet

    Parlons maintenant du système de fichiers qui doit prendre le relai, tout du moins dans une partie des distributions Linux. Btrfs est loin d’être un projet neuf, puisque la première version stable dans le noyau Linux 3.10 est sortie le 29 juillet 2013 (oui, Btrfs fête ses dix ans demain). Avant cette étape, il a passé plus de quatre ans en statut instable, après son arrivée dans le noyau Linux 2.6.29. Une gestation assez longue, dont on pourrait dire qu’elle n’est pas tout à fait terminée, tant Btrfs met du temps à parvenir jusque dans les installations par défaut.

    Btrfs est initialement un projet commun de plusieurs entreprises, dont Fujitsu, Intel, Oracle, Red Hat (qui depuis s’est retiré) ou encore SUSE. Développé en open source (licence GPL), il tient son nom de l’arbre B (dont nous avons déjà parlé dans notre article sur NTFS) : B-tree file system, que l’on prononce « ButterFS ». Ses caractéristiques de base sont clairement modernes : 16 Eo de taille maximale pour les volumes et les fichiers, 2^64 fichiers possibles par volume, noms jusqu’à 255 caractères, attributs POSIX et étendus, reprise des extents…

    La protection et l’intégrité des données avant tout

    […]

    Source et suite : nextinpact.com