Aller directement au contenu

Logiciel & Software

334 Sujets 3.2k Messages
  • 2 Votes
    1 Messages
    363 Vues

    Voici une liste énorme de services réseau et d’applications web libres pouvant être hébergés sur votre(vos) serveur(s). Les logiciels non libres sont répertoriés sur la page « Non libres ».

    Le gros plus est que la plupart des apps et services de cette liste peuvent être dockerisés

    Enjoy 🙂

    https://github.com/awesome-selfhosted/awesome-selfhosted?tab=readme-ov-file

  • 2 Votes
    1 Messages
    220 Vues

    Voici une énorme liste de ressources d’administration système gratuites et open source.

    Le gros plus est que la plupart des apps et services de cette liste peuvent être dockerisés.

    Enjoy 🙂

    https://github.com/awesome-selfhosted/awesome-selfhosted?tab=readme-ov-file

  • 4 Votes
    2 Messages
    252 Vues

    juste dommage que ce soit pas en français ^^

  • 2 Votes
    2 Messages
    163 Vues

    Merci, très intéressant et pratique à mettre en œuvre en effet. Je me garde ça sous le coude.

  • 2 Votes
    4 Messages
    822 Vues

    @Violence a dit dans [Multi Apps] FOG: Logiciel de masterisation et de déploiement automatisé Open Source :

    Ouai sachant que iventoy, tu lui foure tes images iso que tu te galère à faire et rien d’autre.

    iVentoy je l’ai installé chez moi mais sans lui donner le rôle de serveur DHCP je n’ai jamais réussi à faire booter un PC dessus. Cela dit j’ai pas énormément creusé vu le peu de besoin que j’en avais mais l’essai n’a pas été concluant.

    @Violence a dit dans [Multi Apps] FOG: Logiciel de masterisation et de déploiement automatisé Open Source :

    La tu peux carrément préparer ton poste pour en faire un master, tu fais ton sysprep comme d’hab avec ou sans ufichier unnatend puis tu boot en pxe et tu crée l’image direct grace a FOG.
    Cette image est directe sur le serveur ensuite.

    Ton master est prêt. Tu n’as plus qu’a déployé d’autres bécanes via FOG

    En gros il fait tes images et il les déploient. C’est ti pa beau 🤣

    En effet, il faut que je teste ça à l’occase. undefined

  • 5 Votes
    6 Messages
    648 Vues

    @michmich , bonjour, j’ai utilisé l’installation du site et pas de Pb c’est la version 138.0.4-1. le paramétrage du navigateur est assez simple, par contre je regrette de ne pas pouvoir mettre des raccourcis sur les onglets ou je n’ai pas trouvé.

  • 4 Votes
    1 Messages
    999 Vues

    [image: manu23_self_hosting_software_wallpaper_975ae672-04bd-4c4f-b68c-cf8899c97a48.webp]

    Avez-vous déjà rêvé d’avoir votre propre petit coin de paradis numérique, loin des regards indiscrets des GAFAM et autres géants de la tech ? Eh bien votre rêve existe et s’appelle l’auto-hébergement !

    Et ça tombe bien puisque je viens de tomber sur un site génial qui va vous faire gagner du temps dans le choix de vos outils : selfh.st. C’est un répertoire bien fourni de logiciels auto-hébergés, open source ou propriétaires et ce qui est top c’est qu’il y en a pour tous les goûts et tous les besoins.

    Vous voulez monter votre propre serveur de messagerie ? Pas de problème, vous trouverez forcément votre bonheur parmi les nombreuses options proposées comme RainLoop ou Mailcow. Envie de créer votre cloud personnel pour stocker et synchroniser vos fichiers ? Là encore, vous aurez l’embarras du choix.

    Et le côté pratique dans tout ça, c’est que le site propose des filtres bien pensés pour vous aider à trouver rapidement ce que vous cherchez. Vous pouvez trier les logiciels par catégorie, par langue, par nombre d’étoiles sur GitHub, ou même en fonction de leur dernière activité de développement. Comme ça, vous êtes sûr de mettre la main sur des projets actifs et de qualité.

    [image: SCR-20240415-gy9-1024x542.webp]

    L’un des petits plus sympas de selfh.st, c’est qu’il vous propose aussi des alternatives auto-hébergeables aux services populaires du moment. Adieu Google Analytics, bonjour Matomo ! Bye bye Trello, et bienvenue à Wekan ! Vous voyez l’idée.

    Et pour les plus geeks d’entre vous, sachez que toute la base de données derrière le répertoire est gérée de manière automatisée. Ainsi, les fiches techniques des différents logiciels sont mises à jour quotidiennement, ce qui vous garantit d’avoir toujours les dernières versions et les projets les plus récents sous la main.

    En plus, l’auto-hébergement, c’est bon pour la planète. Si si, je vous assure ! En gérant vous-même vos services, vous optimisez les ressources et vous évitez le gaspillage énergétique des data centers géants. C’est un petit geste pour vous, un grand pas pour l’humanité.

    Bon allez, je ne vais pas vous bassiner plus longtemps et je vous laisse filer sur selfh.st pour découvrir ce petit site par vous-même.

    – Sources :

    http://selfh.st/

    https://korben.info/selfhst-apps-repertoire-logiciels-auto-heberges.html

    –> Et même si j’ai peu de temps en ce moment pour l’alimenter, n’oubliez pas le modeste wiki de PW qui peut vous aider sur certaines choses 😉

  • 6 Votes
    599 Messages
    94k Vues

    ça vous dirait de jouer avec la loi d’Ohm ?

    Electrician Simulator
    [image: ss_6960a8030f536ce5ef0e45b46853450c15869a34.1920x1080.jpg?t=1773420811]

    Dans un autre registre

    World of Warship - Pack anniversaire épique Tachibana
    [image: hq720.jpg?sqp=-oaymwEhCK4FEIIDSFryq4qpAxMIARUAAAAAGAElAADIQj0AgKJD&rs=AOn4CLAX-QnuAHf-q5jlwzkexFYx-JGUpA]

  • [Aide] Un tuto pour Floorp

    Résolu
    6
    0 Votes
    6 Messages
    48 Vues

    @mekas il est hyperpersonnalisable pour pouvoir être suffisamment protégé et plus si on est parano, mais aller dans ce sens commence à rendre la navigation pénible, voire impossible sur certains sites.

    Tout au plus, il faut changer le dns du navigateur si on est bloqué sur “certains” sites.

    Et puis un petit tour dans les réglages purement esthétiques (et dispositions) n’est jamais une mauvaise idée.

  • [Docker Apps] AudioHub - Gestion des audiobooks

    Non résolu
    1
    3 Votes
    1 Messages
    43 Vues

    Après BookHub, voici AudioHub. Le fonctionnement est très similaire et la stack presque identique.

    J’aime beaucoup les livres audio, et ma famille aussi. Mais les gérer proprement, c’est chronophage. Je voulais un système qui fasse tout automatiquement :

    • Détecter un audiobook téléchargé et l’enregistrer en base de données
    • Récupérer les métadonnées depuis plusieurs sources et garder les meilleures (titre, auteur, série, index de série, synopsis…)
    • Éviter que le narrateur se retrouve comme auteur — problème fréquent avec les livres audio
    • Convertir en .m4b les livres en .mp3, en préservant et renommant les chapitres
    • Écrire toutes les métadonnées dans le fichier, couverture incluse — comme ça si je change de gestionnaire de bibliothèque, les infos sont déjà dans le fichier
    • Prendre en compte le public cible (Adultes, Ados, Enfants) basé sur les catégories qBittorrent
    • Déplacer le fichier dans la bibliothèque finale selon une hiérarchie fixe

    J’avais initialement prévu d’utiliser Ollama en local pour trier la pertinence des sources et enrichir les métadonnées. Malheureusement, les modèles que je peux faire tourner sur ma RTX 5060 ne sont pas assez fiables pour cette tâche — les résultats étaient trop aléatoires. J’ai donc opté pour des scripts classiques avec des sources bien définies.

    C’est à nouveau Claude qui a été utilisé pour développer le projet. Après plus de 220 tests — un test = un livre audio traité de bout en bout — le système tourne bien et gère correctement la grande majorité des cas.

    [image: logo-rouge-audio-blanc-transp.png]


    ⚙️ La stack -> tout est auto-hebergée

    Outil Rôle
    🔄 n8n (self-hosted) Orchestration des workflows
    🗄 Baserow Suivi du statut de chaque audiobook
    🔊 m4b-tool (sandreas/m4b-tool) Conversion MP3 → M4B + métadonnées
    📚 AudioBookShelf Bibliothèque finale
    🔍 Google Books / OpenLibrary / Wikidata / Scraper “maison” Sources de métadonnées

    [image: Capture-d-e-cran-2026-03-20-a-23-44-25.png]


    📋 Les 3 workflows

    1. Scanner — détecte les nouveaux dossiers dans qBittorrent et les copie dans une inbox
    2. Metadata — enrichit les métadonnées depuis plusieurs sources web
    3. Processor — convertit, vérifie, tag et place le fichier final dans la bibliothèque

    Les workflows 2 et 3 se basent sur le statut Baserow pour savoir quoi traiter. Il est donc possible de modifier manuellement un statut pour forcer un retraitement à n’importe quelle étape.


    1 — Workflow Scanner

    [image: WF1-g.png]

    3 dossiers qBittorrent sont scannés en source brute : Adultes, Ados, Enfants. Pour chaque nouveau dossier audio détecté, une ligne est créée dans Baserow. Le statut initial est Détecté.

    Pour limiter l’I/O sur le cache SSD, au maximum 2 copies sont effectuées simultanément.

    n8n

    [image: WF1.png]

    Baserow

    [image: Capture-d-e-cran-2026-03-20-a-22-58-00.png]


    2 — Workflow Metadata

    [image: WF2-g.png]

    Le workflow traite tous les items au statut Détecté ou En attente métadonnées. Il parse le nom du dossier source pour nettoyer les tags de qualité ([mp3-128], [128Kbps], NoTag…) et interroge 4 sources en parallèle pour récupérer les métadonnées.

    Le statut À vérifier est intentionnel : avant que la conversion soit lancée, je jette un œil dans Baserow et je corrige si besoin (mauvaise série détectée, titre ambigu…). Une fois validé, je passe manuellement à Métadonnées OK.

    n8n

    [image: WF2.png]


    3 — Workflow Processor

    [image: WF3-g.png]

    Le workflow traite les items au statut Métadonnées OK.

    Après conversion, les chapitres sont vérifiés via mp4chaps : on compare le nombre de MP3 source avec le nombre de chapitres dans le M4B. Si ça ne correspond pas, le fichier est supprimé et la conversion est relancée.

    Le bitrate source est préservé : 64 kbps → 64 kbps, 128 kbps → 128 kbps. Pas de recompression inutile.

    Pour les tags, un détail qui change tout dans AudioBookShelf :

    Tag Valeur Usage
    artist Agatha Christie Affichage
    albumartist Christie, Agatha Regroupement
    sortartist Christie, Agatha Tri alphabétique

    Sans ça, ABS crée des doublons d’auteurs et trie n’importe comment.

    n8n

    [image: WF3.png]


    🔄 Statuts Baserow

    [image: Statuts.png]

    Chaque statut peut être modifié manuellement pour forcer un retraitement. Par exemple, repasser un item de Erreur à Métadonnées OK relance directement la conversion au prochain cycle.

    Si un item reste bloqué en En conversion plus d’1h (timeout n8n), il est automatiquement remis en Métadonnées OK pour relancer — plus besoin d’intervenir manuellement.


    📁 Hiérarchie finale

    /Livres audio/Adultes/Livres audio/
      ├── Christie, Agatha/
      │     ├── Les quatre/
      │     │     └── Les quatre.m4b
      │     └── Hercule Poirot/
      │           ├── 01 - Les quatre/
      │           └── 06 - Le Train Bleu/
      └── Martin, George R.R/
            └── Le trône de fer/
                  ├── 01 - Le Trône de Fer/
                  └── 02 - Le donjon rouge/
    

    📊 Résultat après quelques jours

    • ~170 audiobooks traités automatiquement
    • ~15 nécessitaient une correction manuelle des métadonnées
    • ~10 marqués “Introuvable” (noms de dossiers trop cryptiques)
  • 3 Votes
    7 Messages
    299 Vues

    Encore des évolutions. Je ne sais plus à quelle version de BookHub j’en suis ^^
    Le projet est presque reparti de 0, car débugguer des scripts Python qui se lancent à la chaine et une interface web, certes jolies, mais pas si fonctionnelle… J’ai changé de fusil d’épaule. Les outils ont aussi changés :

    • de ChatGPT à Claude pour le dev
    • de Excel à Baserow auto-hébergé pour la wishlist
    • de scripts Python à n8n pour automatiser

    L’idée était aussi d’automatiser encore plus. Plutôt que d’intégrer manuellement les données dans la wishlist (synopsis, ISBN, etc…), j’envoie via Talk (ordi ou smartphone) Titre - Nom auteur, Prénom auteur et tout le reste se fait automatiquement. Après plus de 200 tests, ça tourne assez bien.

    Je laisse tomber pour le moment l’UI, qui est certes jolies, mais moins pratique que Baserow. Je gagne encore un peu de temps avec ce fonctionnement, qui va être améliorer.

    📚 BookHub — Automatisation complète de ma bibliothèque d’ebooks

    Projet perso que je partage : une pipeline qui transforme un simple message en fiche livre complète, entièrement automatisée sur mon NAS.


    Stack technique

    Composant Rôle
    n8n Orchestration de toute la pipeline
    Python / FastAPI Scraper maison pour les métadonnées enrichies
    Ollama + Qwen 2.5 LLM local — génération de synopsis en dernier recours
    Baserow Base de données, source de vérité
    Nextcloud Talk Interface d’entrée (mobile + desktop)
    UnRAID Infrastructure NAS, tous les containers tournent là

    L’idée

    Envoyer un message depuis mon téléphone, et que tout le reste soit automatique.

    Moi (Nextcloud Talk) :  "Perfect enemies - Eilema Decker"
    BookHub :               ✅ Fiche créée — Hillmore University #1 — ISBN 9782017258421
    

    Comment ça marche

    1. Déclenchement

    J’envoie un message dans Nextcloud Talk avec le format Titre - Auteur. Un webhook n8n capte le message et lance le pipeline.

    2. Recherche parallèle

    Le pipeline interroge simultanément plusieurs sources : Google Books, OpenLibrary, Wikidata, et un scraper maison. Chacune excelle dans un domaine différent, ce qui permet de croiser les résultats.

    3. Fusion intelligente

    Chaque champ est renseigné depuis la meilleure source disponible :

    Champ Priorité des sources
    Synopsis Scraper > OpenLibrary > Google Books FR > Google Books EN > Ollama
    ISBN Wikidata > Scraper > OpenLibrary > Google Books
    Série Wikidata > Scraper > Google Books > OpenLibrary
    Numéro de tome Wikidata > Scraper > Google Books > OpenLibrary

    Si aucune source ne trouve le synopsis, Ollama prend le relais et en génère un localement.

    4. Enregistrement

    La fiche complète est enregistrée dans Baserow, prête pour le workflow de téléchargement.


    Résultats sur ~200 livres testés

    Champ Taux de réussite
    Synopsis ~90%
    ISBN ~95%
    Série + numéro de tome ~85%

    Workflow n8n

    [image: 1773311505761-capture-d-e-cran-2026-03-12-a-11.30.41-resized.png]

  • 3 Votes
    5 Messages
    261 Vues

    @Raccoon a dit dans Huntarr - Vos mots de passe et toutes les clés API de votre pile arr sont exposés à quiconque sur votre réseau, ou pire, sur Internet :

    j’ai été banni

    Avoue que ça a quand même une autre gueule que d’être banni d’ygg. undefined

  • 4 Votes
    15 Messages
    440 Vues

    Il y a Paperless NGX qui est vraiment intéressant. Je l’ai installé et une fois la bonne configuration trouvées (organisation, tags, quelques règles,…), c’est une merveille. J’ai acheté en parallèle un scanner de documents (Epson ES-580W), imprimé un QR Code entre chaque doc et cela permet de séparer les PDF avec certitude. Paperless NGX pourrait le faire à priori, mais je préfère le faire manuellement.

    Le scanner de document peut envoyer directement dans un répertoire en SMB.

  • IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

    1
    1 Votes
    1 Messages
    64 Vues

    [image: Controle.webp]

    30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.

    En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.

    En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).

    667 millions d’adresses IPv6… par mm² !

    La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.

    4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.

    [image: image-14.png]

    Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».

    La France en tête du taux d’utilisation d’IPv6 !

    L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.

    Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.

    [image: image-17-1024x714.png]

    En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.

    Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »

    En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.

    Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».

    En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.

    [image: image-16.png]

    Cinq grandes étapes, la première d’ici 2 à 3 ans ?

    L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :

    • IPv6 est activé par défaut sur la quasi-totalité des offres grand public
    • IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises
    • Une part non négligeable des sites web sont hébergés en IPv6 uniquement
    • Une part non négligeable des FAI ne proposent plus d’IPv4
    • La majorité des sites abandonnent IPv4

    La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.

    Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.

    Source : next.ink

    En complément :

    La guerre des IPv4 en Afrique menace la gestion mondiale d’Internet

    IPv6 : la France passe en tête au niveau mondial, mais la route est encore longue

  • 4 Votes
    4 Messages
    209 Vues

    @Aerya a dit dans [Docker Apps] DockHand : un sérieux concurrent à Portainer pour vos environnements Docker :

    J’ai fait un test/article dessus aussi, c’est devenu mon outil favoris 🙂

    C’est vrai qu’il à l’air top.
    Je vais le “dockerisé” sur mon Syno celui-là 😉

  • Telnet : une faille triviale vieille de 10 ans permet de se connecter en root

    1
    2 Votes
    1 Messages
    82 Vues

    [image: Secu-faille4.webp]

    Alerte générale ! En théorie, il n’y a pas de raison de paniquer, mais en pratique… C’est, en creux, un peu le sens du dernier bulletin du CERT-FR. Une faille triviale a été identifiée dans Telnet ; elle permet de se connecter en root. En théorie, un serveur Telnet ne devrait jamais être accessible… mais c’est la théorie.

    Le CERT-FR a publié un bulletin d’alerte pour informer que « les détails de la vulnérabilité CVE-2026-24061, affectant telnetd, ont été publiés ». Ils sont en effet disponibles sur un fil de discussion Openwall, dans la liste de diffusion oss-security.

    Une faille et hop, vous voilà connecté en root sur le serveur

    Telnetd – ou Telnet daemon – est la partie serveur du protocole Telnet (terminal network), « permettant de communiquer avec un serveur distant en échangeant des lignes de texte et en recevant des réponses également sous forme de texte » pour reprendre Wikipédia.

    « Cette vulnérabilité permet à un attaquant de contourner l’authentification et de se connecter à une machine vulnérable en tant que l’utilisateur root ». Autant dire que c’est le scénario catastrophe, puisque root est l’utilisateur avec tous les droits, d’autant plus que le CERT-FR ajoute que cette faille a été « introduite en mars 2015 et affecte GNU InetUtils versions 1.9.3 à 2.7 », soit la dernière version disponible actuellement.

    « A_ucun correctif officiel n’est disponible pour l’instant_ », ajoute le CERT-FR. Vous en voulez encore ? « Un code d’exploitation est publiquement disponible ». Cette vilaine faille est référencée sous le nom CVE-2026-24061 et son score CVSS 3.1 est de 9,8 sur 10.

    #Fear Des serveurs telnet sont accessibles sur Internet

    Selon les constatations du CERT-FR, des services telnet sont accessibles sur Internet, « ce qui est contraire aux bonnes pratiques »… Au-delà de la faille, il y a depuis toujours une bonne raison de ne pas exposer Telnet sur le Net : « Les mots de passe Telnet ne sont pas chiffrés lorsqu’ils sont envoyés entre le client traditionnel et le serveur », comme le rappelle IBM.

    Le CERT-FR recommande donc de supprimer les services telnet et, si c’est impossible, de ne pas exposer le service directement sur Internet, ou a minima d’en restreindre l’accès à certaines adresses IP (liste blanche). Évidemment, il faudra appliquer les correctifs dès que possible une fois ces derniers disponibles.

    Telnet est remplacé par SSH depuis longtemps

    Telnet est un vieux protocole, remplacé depuis longtemps par d’autres plus récents, dont SSH, ce qui devrait (en théorie) limiter les risques. En cybersécurité, on n’est jamais à l’abri d’une mauvaise nouvelle et/ou configuration.

    Comme le rappelait déjà l’ANSSI en 2015, « SSH, ou Secure SHell, est un protocole applicatif qui vise à corriger les déficiences connues dans les protocoles FTP, RSH, RCP et Telnet ». L’Agence ajoutait que « l’avantage évident apporté par SSH est sa sécurité ».

    « Là où Telnet n’apporte ni authentification du serveur ni création d’un canal chiffré et authentifié, SSH va permettre de le faire dès lors que quelques règles d’hygiène simples sont appliquées », détaillait l’ANSSI. Les recommandations d’il y a 10 ans étaient claires : utiliser SSH à la place des protocoles historiques pour des accès shell distants, mais aussi désinstaller Telnet comme service d’accès à distance.

    Pour rappel, SSH est par défaut sur le port 22, Telnet sur le 23. Si, côté client, vous avez un doute, regardez la configuration de votre PUTTY : Connection type doit être sur SSH (port 22) et pas sur Other: Telnet (port 23).

    [image: image-318.png]

    Source : next.ink

  • Meilleurs softs 2024-2025

    56
    0 Votes
    56 Messages
    4k Vues

    Linux.

  • [Aide] Y'a plus aucun soft pour telecharger sur deezer qui fonctionne ?

    99
    0 Votes
    99 Messages
    11k Vues

    Sinon, il existe aussi deemix, en docker par exemple. Mais pas de flac

  • 2 Votes
    1 Messages
    84 Vues

    [image: torrentpeek-vpn-test-leak-ip-checker-1.png]

    En bref :
    (Résumé généré automatiquement par IA)

    – Votre VPN vous trahit et vous ne le savez pas encore
    – Ce que les trackers torrent voient vraiment de vous
    – Un test gratuit qui va vous faire flipper (ou vous rassurer)

    J’espère que vous passez une bonne semaine et que votre connexion internet ne vous fait pas trop la misère en ce moment…

    Car aujourd’hui, on va parler d’un truc qui devrait intéresser tous ceux qui utilisent un VPN (ou qui pensent en utiliser un, un jour) pour leurs activités un peu… gourmandes en bande passante. Vous le savez, je le sais, BitTorrent c’est génial, mais c’est aussi un moyen facile de se retrouver avec son adresse IP exposée aux trackers et aux pairs du swarm. Et même avec un tunnel sécurisé, on peut toujours être victime d’une fuite en cas de mauvaise configuration ou de rupture du VPN.

    Et là, y’a toujours Hadopi (enfin, ce qu’il en reste) qui pour justifier leur budget annuel vous enverra un petit message de menace automatique. Pas de communication non violente ici ^^.

    C’est précisément là qu’intervient **Torrent Peek **, un petit outil qui est gratuit et sans inscription et qui va vous permettre de vérifier si votre protection est efficace ou si elle laisse filtrer votre IP. Pour cela, le site génère un lien magnet unique que vous ouvrez dans la plupart des clients torrent (uTorrent, Transmission, Deluge, etc.).

    Une fois le lien ajouté, votre client va tenter de se connecter aux trackers du site, et hop ! Torrent Peek affichera alors l’adresse IP qu’il voit passer. Si c’est celle de votre VPN, c’est un bon signe. Si c’est votre vraie IP… eh bien vous êtes dans la mierda ^^.

    [image: torrentpeek-vpn-test-leak-ip-checker-2.png]

    Car même avec un VPN actif, une défaillance du “kill switch” ou un trafic qui sort du tunnel peut exposer votre identité réelle. Notez d’ailleurs que l’exposition peut aussi se faire via DHT ou PEX, ce que ce test ne couvre pas forcément, mais c’est déjà une excellente première vérification côté trackers.

    Le truc cool avec cet outil, c’est qu’il propose aussi une API JSON pour ceux qui aiment bien automatiser leurs tests ou surveiller leur connexion via un petit script maison. Il suffit de faire un petit curl sur l’URL fournie pour obtenir le statut de votre connexion à l’instant T.

    D’ailleurs, si vous voulez aller plus loin dans la bidouille torrentielle, je vous recommande de jeter un œil à cet article pour ouvrir des liens magnet directement avec VLC (moyennant un petit plugin), car c’est super pratique.

    Voilà, ça vous permettra de vérifier que vous ne faites pas n’importe quoi quand vous téléchargez des ISO Linux toute la nuit 😅


    – Source :
    https://korben.info/torrentpeek-vpn-test-leak-ip-checker.html

  • 7 Votes
    9 Messages
    328 Vues

    @violence merci je vais le tester celui là 😉 😉

    un petit coup sur une vm juste pour voir et bing sur le gros lol