• Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • Récent
  • Populaire
  • Résolu
  • Non résolu
Réduire

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi
    • Toujours
    • Jour
    • Semaine
    • Mois
    • Tous les sujets
    • Nouveau sujet
    • Sujets surveillés
    • Sujets sans réponses
    • Toutes les catégories
    • Tous les mots-clés
    Charger les nouveaux messages
Se connecter pour poster
  • goztosgozundefined

    Présentation

    Planifier Épinglé Verrouillé Déplacé Présentations
    2
    0 Votes
    2 Messages
    26 Vues
    Papawaanundefined

    Hello @goztosgoz, bienenue sur le forum

  • duJambonundefined

    Nintendo PXBOX 5 : un moddeur construit une console 3 en 1 à partir de Playstation, Xbox et Switch

    Planifier Épinglé Verrouillé Déplacé Jeux Vidéo
    2
    6 Votes
    2 Messages
    52 Vues
    Psyckofoxundefined

    Hé ben respect

  • Violenceundefined

    Torrent Peek : Un outil pour vérifier si votre VPN ne vous lâche pas en plein torrent

    Planifier Épinglé Verrouillé Déplacé Logiciel & Software
    1
    2 Votes
    1 Messages
    37 Vues
    Violenceundefined

    En bref :
    (Résumé généré automatiquement par IA)

    – Votre VPN vous trahit et vous ne le savez pas encore
    – Ce que les trackers torrent voient vraiment de vous
    – Un test gratuit qui va vous faire flipper (ou vous rassurer)

    J’espère que vous passez une bonne semaine et que votre connexion internet ne vous fait pas trop la misère en ce moment…

    Car aujourd’hui, on va parler d’un truc qui devrait intéresser tous ceux qui utilisent un VPN (ou qui pensent en utiliser un, un jour) pour leurs activités un peu… gourmandes en bande passante. Vous le savez, je le sais, BitTorrent c’est génial, mais c’est aussi un moyen facile de se retrouver avec son adresse IP exposée aux trackers et aux pairs du swarm. Et même avec un tunnel sécurisé, on peut toujours être victime d’une fuite en cas de mauvaise configuration ou de rupture du VPN.

    Et là, y’a toujours Hadopi (enfin, ce qu’il en reste) qui pour justifier leur budget annuel vous enverra un petit message de menace automatique. Pas de communication non violente ici ^^.

    C’est précisément là qu’intervient **Torrent Peek **, un petit outil qui est gratuit et sans inscription et qui va vous permettre de vérifier si votre protection est efficace ou si elle laisse filtrer votre IP. Pour cela, le site génère un lien magnet unique que vous ouvrez dans la plupart des clients torrent (uTorrent, Transmission, Deluge, etc.).

    Une fois le lien ajouté, votre client va tenter de se connecter aux trackers du site, et hop ! Torrent Peek affichera alors l’adresse IP qu’il voit passer. Si c’est celle de votre VPN, c’est un bon signe. Si c’est votre vraie IP… eh bien vous êtes dans la mierda ^^.

    Car même avec un VPN actif, une défaillance du “kill switch” ou un trafic qui sort du tunnel peut exposer votre identité réelle. Notez d’ailleurs que l’exposition peut aussi se faire via DHT ou PEX, ce que ce test ne couvre pas forcément, mais c’est déjà une excellente première vérification côté trackers.

    Le truc cool avec cet outil, c’est qu’il propose aussi une API JSON pour ceux qui aiment bien automatiser leurs tests ou surveiller leur connexion via un petit script maison. Il suffit de faire un petit curl sur l’URL fournie pour obtenir le statut de votre connexion à l’instant T.

    D’ailleurs, si vous voulez aller plus loin dans la bidouille torrentielle, je vous recommande de jeter un œil à cet article pour ouvrir des liens magnet directement avec VLC (moyennant un petit plugin), car c’est super pratique.

    Voilà, ça vous permettra de vérifier que vous ne faites pas n’importe quoi quand vous téléchargez des ISO Linux toute la nuit 😅…

    – Source :
    https://korben.info/torrentpeek-vpn-test-leak-ip-checker.html

  • Violenceundefined

    [Topic unique] PearOS : Le clone de macOS sous Arch Linux

    Planifier Épinglé Verrouillé Déplacé Windows, Linux, MacOS & autres OS
    1
    4 Votes
    1 Messages
    43 Vues
    Violenceundefined

    En bref :
    (Résumé généré automatiquement par IA)
    – Pourquoi Apple tremble quand PearOS sort une nouvelle version
    – Le truc qu’Arch Linux vient de faire à macOS (spoiler: c’est gratuit)
    – Elle était morte, la voilà qui revient plus forte que jamais

    Je suis complètement passé à côté parce que j’avais la tête dans le guidon mais est ce que vous vous souvenez de PearOS?

    C’était cette distribution Linux qui essayait de copier macOS jusqu’au moindre pixel et qui disparaissait tous les deux ans dès qu’Apple commençait à froncer les sourcils.

    Hé bien la poire est de retour et cette fois, elle a mangé du lion !

    Le nouveau cru de ce clone de macOS a troqué sa vieille base Debian pour une base Arch Linux toute neuve baptisée NiceC0re. Et là, on est sur de la distribution en rolling release, donc toujours à jour, avec un noyau 6.17 sous le capot. C’est donc une vraie petite machine Linux qui ne demande qu’à ronronner sur vos vieux laptops.

    L’interface est quand même le coeur du truc et je la trouve plutôt bien réussi… C’est à base de KDE Plasma 6.5.3 mais ils l’ont tellement bidouillé qu’on jurerait être devant un Mac d’il y a quelques années. Ils appellent ça le “Liquid Gel Design”. Bon, le nom fait un peu gel douche pour geek, mais le résultat visuel est juste mortel ! Tout est fluide, les animations glissent toutes seules et les effets de flou sont partout.

    Du coup, on retrouve tout ce qui fait le sel de Cupertino, à savoir le Dock en bas, la barre de menus en haut, et même un “PearFinder” pour chercher ses fichiers. Y’a aussi une extension de panneau qui imite le Launchpad et un KRunner boosté qui joue le rôle de Spotlight.

    Donc si vous cherchez comment transformer votre PC en Mac sans dépenser un SMIC, vous tenez peut-être la solution…

    C’est marrant de voir que malgré les années, l’envie d’avoir un “macOS libre” est toujours aussi forte. On l’a vu avec ce macOS emprisonné dans Linux , mais ici l’approche est plus intégrée puisqu’on ne virtualise pas mais on remplace carrément le système. Et avec la stabilité d’Arch, ça pourrait presque devenir une machine de prod pour ceux qui aiment l’ergonomie d’Apple mais détestent leur politique fermée.

    Bref, si vous avez une vieille bécane qui traîne au fond d’un tiroir et que vous voulez lui redonner un coup de jeune avec une interface qui claque, jetez un œil à ce système basé sur Arch.

    C’est pas encore parfait mais c’est prometteur de ouf.

    – Sources :

    https://pearos.xyz

    https://korben.info/pearos-le-clone-de-macos-sous-arch-linux-qui-envoie-du-pate.html

  • duJambonundefined

    Sony signe un accord avec Netflix

    Planifier Épinglé Verrouillé Déplacé Cinéma & Séries
    1
    1 Votes
    1 Messages
    31 Vues
    duJambonundefined

    https://www.digitec.ch/fr/page/zelda-spider-man-et-les-beatles-arrivent-en-exclusivite-sur-netflix-41222

  • Violenceundefined

    VoidLink, un nouveau maliciel Linux cible les environnements cloud et conteneurs

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech voidlink malware linux cybersécurité
    1
    2 Votes
    1 Messages
    33 Vues
    Violenceundefined

    En bref:
    (Résumé généré automatiquement par IA)

    – VoidLink est un nouveau framework de malware Linux découvert par Check Point Research, conçu spécifiquement pour infiltrer de façon furtive les environnements cloud et conteneurs (AWS, Azure, Google Cloud, Kubernetes…).

    – Il dispose d’une architecture modulaire avec plus de 30 plugins, permettant aux attaquants d’adapter ses capacités (furtivité, mouvement latéral, collecte d’identifiants) selon l’environnement ciblé.

    – Sa communication chiffrée et son intégration profonde dans le système le rendent très difficile à détecter, ce qui pose une nouvelle menace aux infrastructures cloud basées sur Linux.

    Check Point Research révèle l’existence de VoidLink, un cadre malveillant Linux de nouvelle génération, conçu pour infiltrer des environnements cloud et des infrastructures conteneurisées. Développé en Zig et doté de capacités noyau, de greffons et de communications chiffrées, il vise l’accès furtif et durable aux charges de travail critiques hébergées sur AWS, Azure, Google Cloud, Alibaba Cloud et Tencent Cloud.

    Les plates-formes Linux et les architectures Kubernetes concentrent désormais les données applicatives, les secrets d’authentification et les accès aux chaînes d’approvisionnement logicielles. Cette concentration technique transforme chaque nœud de calcul et chaque poste d’ingénierie en point d’entrée convoité pour des acteurs capables d’opérer dans la durée sans perturber les environnements de production.

    VoidLink repose sur une architecture complète de commande et de contrôle composée d’un chargeur en deux étapes, d’un implant principal et d’un serveur central piloté par une console Web. L’implant, écrit en Zig, intègre un cœur de communication et d’orchestration auquel viennent se greffer des modules chargés en mémoire à la demande. L’opérateur peut générer de nouvelles charges utiles depuis l’interface graphique, ajuster les paramètres de communication et déployer des greffons ciblés sur chaque machine compromise. L’ensemble constitue une plate-forme opérationnelle unifiée, comparable aux cadres de post-exploitation du monde Windows, mais entièrement adaptée à Linux et aux environnements cloud.

    Il détecte les grands fournisseurs de cloud et Kubernetes

    La console regroupe les fonctions de gestion des implants, de terminal distant, de génération de charges et d’administration des modules. Elle organise les opérations en domaines comme la reconnaissance, la persistance, la collecte d’identifiants, le déplacement latéral et l’effacement de traces, ce qui permet une conduite industrialisée des opérations malveillantes sur des parcs de serveurs et de conteneurs.

    Dès son déploiement, VoidLink interroge l’environnement hôte pour identifier le fournisseur de cloud sous-jacent, avec une prise en charge native de AWS, Google Cloud, Azure, Alibaba Cloud et Tencent Cloud. Il exploite ensuite les interfaces de métadonnées propres à chaque plate-forme pour collecter des informations sur l’instance compromise, ses rôles et ses autorisations. Le même mécanisme permet de déterminer si le code s’exécute dans un conteneur Docker ou dans un pod Kubernetes, afin d’adapter les stratégies d’escalade et de propagation.

    Des modules spécialisés automatisent la recherche de failles de configuration, l’extraction de secrets et les tentatives de sortie de conteneur vers l’hôte sous-jacent. Cette logique transforme une simple compromission applicative en accès potentiel à l’ensemble d’un cluster ou d’un compte cloud.

    Une furtivité pilotée par la détection des outils de sécurité

    VoidLink intègre un moteur d’évaluation du risque qui inventorie les solutions de détection Linux, les mécanismes de durcissement du noyau et les outils de supervision présents sur la machine. À partir de ces éléments, l’implant calcule un profil d’exposition et ajuste le comportement de ses modules, par exemple en ralentissant un balayage de ports ou en fragmentant une exfiltration lorsque la surveillance est élevée. Cette adaptation automatique constitue un élément central de sa stratégie de discrétion.

    Le dispositif est complété par des techniques de chiffrement du code à l’exécution, par des vérifications d’intégrité et par une autodestruction en cas de tentative d’analyse ou de modification. Ces mécanismes visent à réduire la visibilité du code en mémoire et à compliquer toute investigation.

    Des modules noyau et eBPF pour masquer l’activité du maliciel

    Pour se dissimuler, VoidLink s’appuie sur une famille de composants de type rootkit adaptés aux différentes versions du noyau Linux. Selon la configuration de l’hôte, il peut utiliser des détournements du chargeur dynamique via LD_PRELOAD, des modules noyau LKM ou des programmes eBPF pour intercepter et filtrer les appels sensibles. Ces techniques permettent de cacher les processus, les fichiers et les sockets réseau liés à l’implant, tout en masquant les composants de dissimulation eux-mêmes.

    L’implant ajuste également ses intervalles de communication en fonction de l’activité du système, en tenant compte de la charge, du trafic réseau et des périodes de faible usage, afin de se fondre dans le bruit normal de la plate-forme.

    La collecte de secrets vise les ingénieurs cloud

    Les greffons fournis par défaut couvrent la collecte de clés SSH, d’identifiants Git, de jetons d’interface de programmation applicative, de mots de passe stockés en mémoire et de secrets présents dans les variables d’environnement ou les trousseaux système. Des modules dédiés aux navigateurs extraient également des cookies et des informations d’authentification. Cette orientation montre un intérêt marqué pour les postes de développeurs et d’administrateurs qui pilotent les déploiements cloud.

    En parallèle, des fonctions de tunnel, de transfert de fichiers, de ver SSH et de persistance via cron, systemd ou le chargeur dynamique facilitent la propagation contrôlée et l’ancrage à long terme dans les environnements compromis.

    L’émergence d’un cadre aussi complet que VoidLink confirme que les infrastructures Linux, les grappes Kubernetes et les comptes cloud sont désormais des cibles de choix pour des opérations d’espionnage et de compromission de chaînes d’approvisionnement. La combinaison entre reconnaissance automatisée, furtivité adaptative et modules noyau réduit fortement les fenêtres de détection et augmente les coûts de réponse à incident pour les organisations.

    – Source :

    https://itsocial.fr/cybersecurite/cybersecurite-actualites/voidlink-un-nouveau-maliciel-linux-cible-les-environnements-cloud-et-conteneurs/

  • Violenceundefined

    [Dossier] Jonathan James : Le plus jeune hacker emprisonné aux USA

    Planifier Épinglé Verrouillé Déplacé Discussions générales jonathan jame usa hacking
    1
    5 Votes
    1 Messages
    49 Vues
    Violenceundefined

    En bref :
    (Résumé généré automatiquement par IA)

    – Jonathan James, alias c0mrade, est devenu à 15 ans le premier mineur condamné pour cybercriminalité aux États-Unis après avoir piraté des serveurs de la NASA et du Département de la Défense, interceptant des milliers d’e-mails et téléchargeant du code source critique.

    – Il a été assigné à résidence puis emprisonné pour avoir violé sa probation, marquant un tournant dans la manière dont la justice traite les mineurs dans le cyberespace.

    – Après avoir tenté de mener une vie normale, il s’est suicidé à 24 ans, convaincu d’être faussement accusé dans une enquête informatique ultérieure, laissant un héritage tragique et controversé dans l’histoire du hacking

    Un gamin de 15 ans qui pète les serveurs de la NASA pendant que moi, à son âge, j’en était encore à configurer mon modem 56k pour qu’il arrête de faire du bruit en pleine nuit… Jonathan James, alias c0mrade, est devenu le premier mineur emprisonné pour cybercriminalité aux États-Unis… avant, malheureusement, de se suicider à 24 ans parce qu’il pensait qu’on allait l’accuser d’un crime qu’il n’avait pas commis.

    Voici l’histoire la plus dingue et la plus tragique du hacking que vous n’avez jamais entendue.

    Jonathan Joseph James naît le 12 décembre 1983 à Pinecrest, un quartier cossu de Miami-Dade County. Son père, Robert James, bosse comme programmeur pour le comté… déjà, on sent que l’informatique, c’est de famille. Sa mère, Joanne Jurysta, tient la maison pendant que les deux frangins, Jonathan et Josh, grandissent dans un environnement de classe moyenne supérieure.

    Dès 6 ans, Jonathan passe ses journées sur l’ordinateur paternel. Au début, c’est pour jouer, évidemment. Mais très vite, le gamin comprend qu’il peut faire bien plus que lancer des jeux. Il commence à triturer, à fouiller, à comprendre comment ça marche sous le capot. Ses parents, inquiets de voir leur fils scotché à l’écran, décident alors de lui confisquer l’ordinateur quand il atteint ses 13 ans.

    Grosse erreur.

    Car Jonathan fait une fugue. Il refuse catégoriquement de rentrer à la maison tant qu’on ne lui rend pas son accès à l’informatique. J’imagine la scène avec ces parents complètement dépassés face à un ado qui préfère dormir dehors plutôt que de vivre sans son ordinateur. Bon, ils finissent par craquer, évidemment.

    C’est à cette époque que Jonathan se forge son identité de hacker. Il choisit l’alias c0mrade avec un zéro à la place du ‘o’, parce que dans les années 90, remplacer des lettres par des chiffres, c’était le summum du cool.

    Et surtout, il passe ses nuits sur les BBS et les premiers forums de hacking, à échanger avec une communauté underground qui n’a absolument rien à voir avec les script kiddies d’aujourd’hui. C’est une époque où pirater demandait de vraies compétences techniques, pas juste télécharger un exploit sur GitHub.

    L’été 1999. Jonathan a 15 ans, les cheveux longs, et une curiosité maladive pour tout ce qui ressemble à un serveur mal configuré. Entre le 23 août et le 27 octobre 1999, il va commettre une série d’intrusions qui vont faire de lui une légende du hacking… et accessoirement, le faire finir en prison.

    Pour son méfait, le gamin scanne les réseaux à la recherche de serveurs Red Hat Linux mal patchés et comme en 1999, la sécurité informatique, c’est encore le Far West, les administrateurs système pensent que mettre leur serveur derrière un firewall basique, c’est suffisant.

    Sauf que ça ne l’était pas.

    Jonathan exploite des vulnérabilités connues pour installer des backdoors c’est à dire des portes dérobées qui lui permettent de revenir à volonté sur les systèmes compromis. Mais le plus fort, c’est qu’il installe aussi des sniffers réseau, des programmes qui interceptent tout le trafic qui passe par le serveur. Mots de passe, emails, données sensibles… tout y passe.

    Sa première cible d’envergure ? BellSouth, le géant des télécoms. Puis le système informatique des écoles de Miami-Dade County. Mais c’est quand il s’attaque aux agences gouvernementales que les choses deviennent vraiment intéressantes.

    En septembre 1999, c0mrade détecte une backdoor sur un serveur situé à Dulles, en Virginie. Au lieu de passer son chemin, il décide d’aller voir de plus près. Il se connecte, installe son sniffer maison, et se rend compte qu’il vient de compromettre un serveur de la DTRA, c’est à dire la Defense Threat Reduction Agency, une division ultra-sensible du Département de la Défense qui s’occupe d’analyser les menaces NBC (nucléaires, biologiques, chimiques) contre les États-Unis.

    Pendant plusieurs semaines, Jonathan intercept plus de 3300 emails entre employés de la DTRA. Il récupère aussi des centaines d’identifiants et mots de passe, ce qui lui permet d’accéder à une dizaine d’ordinateurs militaires supplémentaires. Tout ça sans que personne ne s’en aperçoive.

    Mais le clou du spectacle, c’est son intrusion chez NASA.

    En juin 1999, Jonathan tombe sur un serveur mal configuré à Huntsville, Alabama. Il l’infecte avec son malware habituel et découvre qu’il vient de compromettre le Marshall Space Flight Center de la NASA. Et c’est pas n’importe lequel puisque c’est celui qui développe les moteurs de fusée et les logiciels pour la Station Spatiale Internationale.

    En installant sa backdoor, c0mrade réalise qu’il peut accéder à 12 autres ordinateurs du réseau. Et là, jackpot ! Il met la main sur le code source d’un programme qui contrôle des éléments critiques de l’ISS. On parle du système de contrôle de la température et de l’humidité dans les modules habitables de la station spatiale.

    Rien que ça…

    Jonathan télécharge l’intégralité du logiciel. Valeur estimée par la NASA : 1,7 million de dollars. Mais attention, ce n’est pas un vol dans le sens classique du terme puisque le gamin ne revend rien, ne détruit rien, ne modifie rien. Il copie, point. Sa philosophie de grey hat hacker de l’époque c’est d’explorer sans nuire.

    Sauf que quand la NASA découvre l’intrusion, et ça devient vite la panique à bord. L’agence spatiale est obligée de couper ses serveurs pendant 21 jours pour vérifier l’intégrité de ses systèmes et colmater les failles. Coût de l’opération : 41 000 dollars de plus. Pour l’époque, c’est énorme.

    Encore une fois, on réalise à quel point la sécurité de nos infrastructures critiques tenait du miracle en 1999.

    Nous sommes le 26 janvier 2000. Jonathan vient d’avoir 16 ans depuis quelques semaines. Il est tranquillement dans sa chambre quand des agents fédéraux débarquent chez lui avec un mandat de perquisition. FBI, NASA, Département de la Défense… tout le gratin de la sécurité nationale américaine vient cueillir le gamin de Miami. Comme l’a rapporté ABC News à l’époque , l’arrestation fait sensation dans les médias.

    Jonathan ne fait même pas semblant de nier. Plus tard, il expliquera aux enquêteurs qu’il aurait pu facilement couvrir ses traces s’il avait voulu. Mais il ne pensait pas faire quelque chose de mal. Dans sa tête d’ado, il “jouait” juste avec des ordinateurs. Il n’avait volé aucune donnée pour s’enrichir, n’avait planté aucun système, n’avait rien détruit.

    Le problème c’est que la justice américaine ne voit pas les choses du même œil.

    Le 21 septembre 2000, Jonathan James devient alors officiellement le premier mineur condamné à une peine de prison pour cybercriminalité aux États-Unis. À 16 ans, il entre dans l’histoire du droit pénal informatique. Et sa sentence est de 7 mois d’assignation à résidence, probation jusqu’à ses 18 ans, et interdiction d’utiliser un ordinateur à des fins “récréatives”.

    Mais Jonathan est un ado. Il est positif à un contrôle antidrogues (cannabis) et viole ainsi sa probation. Direction la prison fédérale de l’Alabama pour 6 mois supplémentaires. Le gamin qui piratait la NASA depuis son lit se retrouve derrière les barreaux.

    L’ironie, c’est que son cas va complètement révolutionner la législation sur la cybercriminalité juvénile. Avant Jonathan, les juges ne savaient littéralement pas comment traiter un mineur capable de compromettre des systèmes gouvernementaux. Son procès a forcé le Congrès à repenser les lois fédérales sur les crimes informatiques commis par des mineurs.

    Jonathan sort de prison en 2001. Il a 17 ans, un casier judiciaire, et une réputation sulfureuse dans le milieu du hacking et il essaie de se tenir à carreau, de mener une vie normale. Mais son passé va le rattraper de la pire des manières.

    En 2007, la chaîne de magasins TJX (TJ Maxx, Marshalls, HomeGoods) subit l’une des plus grosses fuites de données de l’histoire : 45,6 millions de numéros de cartes de crédit volés. L’enquête mène à Albert Gonzalez, un hacker de Miami qui dirigeait un réseau international de cybercriminels, selon le département de la Justice américain .


    Source

    Mais le problème c’est qu’Albert Gonzalez et Jonathan James se connaissent. Ils évoluent dans les mêmes cercles, fréquentent les mêmes forums, habitent la même région. Alors quand le FBI épluche les connexions de Gonzalez, le nom de c0mrade ressort forcément.

    En janvier 2008, le Secret Service débarque chez Jonathan, chez son frère, chez sa copine. Ils retournent tout, confisquent ses ordinateurs, l’interrogent pendant des heures. Jonathan nie catégoriquement toute implication dans le hack TJX. Il répète qu’il n’a plus fait de hacking depuis sa sortie de prison, qu’il essaie de refaire sa vie.

    Les agents trouvent une arme à feu légalement détenue et des notes suggérant que Jonathan a déjà pensé au suicide. Mais aucune preuve de sa participation au hack TJX.

    Pourtant, l’étau se resserre. La presse s’empare de l’affaire, ressort son passé de “hacker de la NASA”. Jonathan devient paranoïaque, convaincu que le gouvernement veut faire de lui un bouc émissaire. Il sait qu’avec son casier, aucun jury ne croira en son innocence.

    Alors le 18 mai 2008, Pinecrest, Floride, Jonathan James, 24 ans, se tire une balle dans la tête sous la douche de sa salle de bain.

    Il laisse une note déchirante : “Je n’ai honnêtement, honnêtement rien à voir avec TJX. Je n’ai aucune foi dans le système de ‘justice’. Peut-être que mes actions d’aujourd’hui, et cette lettre, enverront un message plus fort au public. De toute façon, j’ai perdu le contrôle de cette situation, et c’est ma seule façon de le reprendre.”

    La suite lui donnera raison : Albert Gonzalez sera condamné à 20 ans de prison, mais aucune preuve ne sera jamais trouvée contre Jonathan James concernant l’affaire TJX.

    Ce gamin était un génie pur. Pas le genre de génie qu’on voit dans les films, mais un vrai génie technique, capable de comprendre et d’exploiter des systèmes complexes à un âge où la plupart d’entre nous découvraient à peine Internet.

    Le problème, c’est que personne n’a su canaliser ce talent. Ses parents ont essayé de le brider en lui confisquant son ordinateur. Le système judiciaire l’a traité comme un criminel ordinaire. Et la communauté du hacking de l’époque n’avait pas vraiment de garde-fous éthiques.

    Et aujourd’hui, combien de c0mrade potentiels traînent-ils sur nos serveurs Discord, nos repos GitHub, nos communautés de makers ?

    Maintenant on a des programmes de bug bounty, des certifications en cybersécurité, des bootcamps éthiques. Des voies légales pour exprimer ce genre de talent. Alors que Jonathan n’a jamais eu ces options.

    Son héritage, comme celui de Kevin Mitnick , c’est donc d’avoir forcé le monde à prendre la cybersécurité au sérieux. Après ses exploits, la NASA a complètement revu ses protocoles de sécurité, le Pentagone a investi des milliards dans la protection de ses systèmes et le Congrès a voté de nouvelles lois sur la cybercriminalité juvénile.

    Je pense que Jonathan James aurait mérité mieux que cette fin tragique. Il aurait pu devenir un expert en cybersécurité, un consultant, un formateur. Il aurait pu utiliser ses compétences pour protéger les systèmes qu’il avait appris à compromettre… C’est triste.

    A nous de faire en sorte que les prochains génies du code ne suivent pas le même chemin.

    – Sources : wikipedia

    https://korben.info/jonathan-james-plus-jeune-hacker-emprisonne-usa.html

  • duJambonundefined

    Lancée dans une course de vitesse contre ses concurrents étrangers, Diamfab inaugure sa première ligne pilote de diamants semi-conducteurs en Isère

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
    1
    2 Votes
    1 Messages
    30 Vues
    duJambonundefined

    La start-up grenobloise Diamfab investit 4 millions d’euros dans une ligne pilote à Grenoble (Isère). Un site unique en Europe, qui ouvre la voie à des composants électroniques plus performants.

    c59ca51d-e227-4ced-9e2e-a3ae52f57f5c-image.png
    La start-up Diamfab, basée près de Grenoble (Isère), incorpore des impuretés dans les diamants pour leur conférer des propriétés électriques et quantiques. Elle pense produire plusieurs dizaines de milliers de plaques de diamants semi-conducteurs à horizon 2028

    Des applications dans le médical comme dans les voitures

    Ce docteur en nanoélectronique a créé l’entreprise avec Khaled Driche puis Ivan Llaurado en 2019, par essaimage de l’institut Néel, un laboratoire grenoblois du CNRS.

    Leur idée : exploiter les propriétés du diamant comme substrat semi-conducteur à la place du silicium, afin de produire des wafers à haute valeur ajoutée. Et ainsi d’aboutir à des composants électroniques pouvant fonctionner à très haute température sans besoin de refroidissement, résister aux radiations ou attendre une très haute efficacité de conversion.

    Les débouchés potentiels recouvrent des secteurs variés : le médical, le nucléaire, le spatial ou les marchés représentant de grands volumes, tels les data centers ou les voitures électriques. «Sans oublier les applications dont on ne connaît pas encore l’existence, comme dans le quantique», précise M. Chicot.

    Un processus peu coûteux

    Le savoir-faire de Diamfab repose sur l’opération de synthèse et de «dopage» du diamant. «Comme dans le cyclisme, c’est ce qui améliore la performance», sourit Gauthier Chicot. Autrement dit, la jeune pousse iséroise donne des propriétés électriques et quantiques au diamant en lui incorporant volontairement des impuretés.

    Ce processus, qui nécessite de l’hydrogène, du méthane et de l’électricité, s’avère relativement peu coûteux, contrairement à ce que le mot diamant suggère. Un autre avantage de cette technologie en termes de souveraineté industrielle. «C’est un matériau que l’on peut produire en France ou en Europe de manière compétitive, sans problème de matière première ou de coût de la main-d’œuvre», assure M. Chicot.

    Une ligne de production pour 2030?

    Selon ses prévisions, ce site industriel modulaire sera en capacités de produire plusieurs dizaines de milliers de plaques de diamants semi-conducteurs à horizon 2028, avant d’envisager la construction d’une ligne de production dédiée après 2030.

    Avec ses 26 salariés, dont une vingtaine dédiée à la R&D, et ses nombreux partenaires industriels (Schneider Electric, STMicroelectronics, Soitec, Murata), Diamfab se doit d’aller vite pour garder son avance technologique, face à des initiatives similaires qui se développent actuellement au Japon ou aux États-Unis.

    La start-up américaine Diamond Foundry vient, par exemple, d’annoncer la création d’une usine à plus de deux milliards de dollars en Espagne. Sa particularité ? Elle compte parmi ses investisseurs… l’acteur Leonardo DiCaprio, qui a notamment joué dans «Blood Diamonds» !

    Source: https://www.usinenouvelle.com/electronique-informatique/semi-conducteurs/lancee-dans-une-course-de-vitesse-contre-ses-concurrents-etrangers-diamfab-inaugure-sa-premiere-ligne-pilote-de-diamants-semi-conducteurs-en-isere.TMEAYAPZLJEANECFWU2LS6VVEA.html

  • Violenceundefined

    [Docker] Débuter avec Traefik : un reverse proxy moderne pour vos services Web Docker

    Planifier Épinglé Verrouillé Déplacé Tutoriels informatiques traefik docker reverse proxy
    1
    1 Votes
    1 Messages
    36 Vues
    Violenceundefined
    I. Présentation

    Traefik est un reverse proxy (et un load balancer) open source conçu pour les applications web (HTTP/HTTPS) et la gestion des connexions TCP. Créé par le Français Émile Vauge, Traefik s’est imposé comme une solution incontournable pour publier des applications exécutées au sein de conteneurs Docker, bien que ce ne soit pas le seul cas d’utilisation. Comment fonctionne-t-il ? Comment installer Traefik ? Réponse dans ce guide complet.

    Dans un environnement basé sur Docker, il est fréquent d’héberger plusieurs applications web sur un même serveur. Chaque conteneur peut exposer un port différent, mais il devient vite difficile d’organiser les accès, de gérer les certificats TLS, et d’ajouter ou retirer des services sans casser les autres. La solution naturelle pour publier ces applications et mieux s’y retrouver, c’est d’utiliser un reverse proxy. Et parmi les reverse proxy capables de tirer parti de Docker de manière dynamique, Traefik s’est imposé comme une référence en tant que reverse proxy pour microservices.

    La force de Traefik, c’est notamment sa capacité à détecter automatiquement vos conteneurs et à simplifier l’intégration d’applications avec de simples labels. À cela s’ajoute la possibilité d’obtenir automatiquement des certificats TLS via Let’s Encrypt (ACME).

    Dans ce tutoriel, nous allons installer Traefik sur un serveur Linux (Debian 13) avec Docker Compose, puis déployer une première application pour valider que tout fonctionne correctement. Cette application sera publiée avec Traefik en HTTP puis en HTTPS (avec l’obtention automatique d’un certificat TLS). L’objectif est de comprendre les briques fondamentales de Traefik.

    II. Les composants de Traefik

    Avant même d’écrire un fichier Docker Compose et de foncer dans le déploiement du reverse proxy Traefik, il est nécessaire de comprendre comment il est structuré. Le schéma ci-dessous met en évidence le positionnement central de Traefik dans l’accès aux applications web et aux API. Du côté backend, même si ce tutoriel est axé sur l’intégration avec Docker, il est envisageable de router le trafic vers d’autres destinations (Kubernetes, machine virtuelle, etc.).

    Traefik a quatre briques fondamentales :

    Élément Rôle Entrypoint Représente un point d’entrée, c’est-à-dire un port sur lequel Traefik écoute (par exemple, du classique : HTTP sur 80, HTTPS sur 443) Router Décide vers quel service envoyer une requête, en fonction de règles. Par exemple, une correspondante avec un nom d’hôte : app1.it-connect.fr. Service Représente réellement l’application cible, le conteneur Docker qui doit recevoir les requêtes Middleware Permet d’appliquer une transformation sur une requête (par exemple : ajout d’authentification HTTP, redirection, headers, etc.)

    Bien qu’il y ait une partie de la configuration de Traefik qui soit statique, il y a aussi une partie de la configuration qui est vivante, voire même dynamique. En pratique, comme nous le verrons par la suite, pour exposer une app via Traefik, nous devons simplement ajouter les labels qu’il faut sur le conteneur, et Traefik récupère la configuration via Docker.

    III. Prérequis pour Traefik

    Pour la suite, il faut un serveur (Linux) sur lequel Docker et Docker Compose sont installés. Le tutoriel s’applique aussi bien sur un VPS cloud que sur un serveur physique local. Vous devez aussi disposer d’un nom de domaine : it-connectlab.fr sera utilisé pour cette démonstration. Un enregistrement DNS a été fait pour une application dont l’adresse IP correspond au serveur Traefik, ce dernier étant en charge de router le trafic (principe du reverse proxy).

    Pour installer Docker sur Linux, vous pouvez suivre ce tutoriel :

    Installation de Docker sur Linux IV. Prise en main de Traefik A. Créer la racine du projet

    Nous allons commencer par créer un dossier pour stocker les données de l’application Traefik.

    mkdir /opt/docker-compose/traefikcd /opt/docker-compose/traefik

    À la racine de ce dossier, nous allons créer le fichier docker-compose.yml.

    En guise de point de départ, nous allons utiliser le** fichier Docker Compose** disponible dans la documentation de Traefik. La version 3.6 de Traefik sera utilisée, il s’agit de la dernière version stable actuelle. Deux ports sont exposés au niveau de ce conteneur : 80, pour bénéficier d’un entryPoint en HTTP (pour publier une application en HTTP) et 8080 pour l’accès au tableau de bord de Traefik.

    # docker-compose.ymlservices: traefik: image: traefik:v3.6 command: - "--api.insecure=true" - "--providers.docker=true" - "--entrypoints.web.address=:80" ports: - "80:80" - "8080:8080" volumes: - /var/run/docker.sock:/var/run/docker.sock

    Trois commandes sont aussi associées à l’exécution de ce conteneur en tant qu’arguments :

    Argument Signification --api.insecure=true Active le dashboard web de Traefik, sans authentification (sur le port 8080 par défaut). --providers.docker=true Active le Provider Docker de Traefik pour découvrir automatiquement les services / labels. --entrypoints.web.address=:80 Déclare un entryPoint nommé web, qui écoute sur port 80 dans le conteneur. Idéal pour les accès HTTP.

    Enfin, une dernière ligne importante est intégrée à ce fichier : /var/run/docker.sock:/var/run/docker.sock. Elle permet à Traefik d’accéder au socket Docker pour “voir” en temps réel les autres conteneurs. C’est important pour l’intégration de Traefik avec Docker, notamment pour lire les labels.

    B. Créer un réseau Docker pour Traefik

    Vous remarquerez que ce Docker Compose ne contient pas de directives pour la connexion au réseau du conteneur. C’est la première évolution que nous allons lui apporter. Nous allons créer un réseau Docker nommé frontend, ce qui me semble être un nom adapté dans le contexte d’un reverse proxy.

    docker network create frontend

    Une fois le réseau créé, vérifiez qu’il est bien présent :

    docker network ls

    Dans le fichier Docker Compose, nous allons associer ce réseau au conteneur Traefik. Il sera déclaré comme un réseau externe (external: true) pour ne pas que Docker cherche à le créer.

    # docker-compose.ymlservices: traefik: image: traefik:v3.6 command: - "--api.insecure=true" - "--providers.docker=true" - "--entrypoints.web.address=:80" ports: - "80:80" - "8080:8080" volumes: - /var/run/docker.sock:/var/run/docker.sock networks: - frontendnetworks: frontend: external: true

    Note: le port HTTPS, à savoir 443, n’est pas exposé pour le moment. Si vous envisagez dès maintenant de publier une application HTTPS, vous pouvez ajouter le port dès maintenant via l’ajout d’une ligne supplémentaire.

    C. Le fichier traefik.yml

    La configuration globale et statique de Traefik se déclare par l’intermédiaire du fichier traefik.yml, au format YAML.

    Nous allons ajouter une ligne sous volumes pour déclarer le fichier de configuration de Traefik, afin qu’il soit persistant et modifiable, tout en étant lu par le conteneur. Par la suite, nous manipulerons à plusieurs reprises le fichier traefik.yml pour ajouter différentes directives.

    volumes: - /var/run/docker.sock:/var/run/docker.sock - ./traefik.yml:/etc/traefik/traefik.yml:ro

    Le fichier doit donc être créé à cet emplacement : /opt/docker-compose/traefik/traefik.yml.

    Éditez le fichier et ajoutez le code précisé ci-dessous pour définir les bases de Traefik en mode proxy inverse pour HTTP et HTTPS.

    Nous désactivons l’envoi de statistiques anonymisées (sendAnonymousUsage) et la vérification automatique de nouvelles versions (checkNewVersion). Nous activons le tableau de bord interne (port 8080) en mode non sécurisé (pas adapté à la production !) afin de pouvoir y accéder dans un premier temps pour visualiser les routes de Traefik. Enfin, on déclare deux entryPoints : un pour le trafic HTTP classique sur le port 80 (nommé web), et un second pour le trafic HTTPS sécurisé sur le port 443 (nommé websecure). Cela prépare Traefik à écouter sur ces deux ports et à accepter des requêtes entrantes que l’on pourra ensuite router vers nos conteneurs.

    # Configuration statique de Traefikglobal: checkNewVersion: false sendAnonymousUsage: false api: dashboard: true # Dashboard Traefik : 8080 insecure: true entryPoints: web: address: ":80" # EntryPoint pour HTTP websecure: address: ":443" # EntryPoint pour HTTPS

    Enregistrez et fermez le fichier.

    Pour éviter les doublons entre la configuration statique et les arguments en ligne de commande, je vous invite à supprimer la ligne command et les trois lignes associées dans le fichier Docker Compose, à savoir :

    command: - "--api.insecure=true" - "--providers.docker=true" - "--entrypoints.web.address=:80" D. Intégrer Docker à Traefik

    Dans le fichier Docker Compose, le nécessaire a été fait pour que le conteneur Traefik dispose d’un accès au socket de Docker (/var/run/docker.sock). Mais ce lien n’est pas exploité en l’état actuel de la configuration. Dans le fichier de configuration⁣ traefik.yml, il est nécessaire d’ajouter un nouveau fournisseur (Provider) correspondant à Docker.

    Éditez de nouveau le fichier traefik.yml et ajoutez ce bloc à la fin du fichier :

    providers: docker: endpoint: "unix:///var/run/docker.sock" exposedByDefault: false

    La directive exposedByDefault joue un rôle important ! Si elle est sur false comme ici, cela signifie que Traefik va détecter les conteneurs Docker sans les exposer automatiquement : seuls les conteneurs qui auront des labels Traefik seront pris en compte et routés, ce qui évite d’exposer par erreur un service qui ne devrait pas être accessible depuis l’extérieur.

    Désormais, enregistrez la configuration et lancez la construction du conteneur Traefik (depuis le répertoire /opt/docker-compose/traefik).

    docker compose up -d E. Accéder au tableau de bord Traefik

    Ouvrez un navigateur web et accédez au tableau de bord de Traefik via l’adresse IP de l’hôte Docker sur le port 8080. Par exemple : http://192.168.10.200:8080. Ce tableau de bord ne permet pas d’effectuer la configuration en ligne, mais il présente l’avantage d’afficher l’état de la configuration actuelle. Vous devriez notamment visualiser les 3 entryPoints de notre configuration Traefik (celui du dashboard est automatique quand ce dernier est activé).

    F. Associer un service HTTP à Traefik

    Traefik tourne sur notre serveur, c’est une bonne chose. Mais, pour le moment, il ne sert pas à grand-chose car aucun service n’est exposé par son intermédiaire. Pour commencer, nous allons exposer une application facile à héberger : IT-Tools, une boite à outils en ligne. Dans un premier temps, l’accès sera effectué en HTTP, puisque la gestion du certificat rajoute une couche de complexité supplémentaire.

    Créez un dossier pour ce projet :

    mkdir /opt/docker-compose/it-tools

    Dans ce répertoire, créez un fichier docker-compose.yml et insérez le code ci-dessous. Ce service lance l’application IT-Tools à partir de l’image officielle ghcr.io/corentinth/it-tools:latest et nomme le conteneur it-tools. Il est important de noter aussi que ce conteneur est rattaché au réseau Docker externe frontend, le même réseau que Traefik : c’est ce qui permet à Traefik de le découvrir et de router le trafic vers lui (grâce au montage du socket Docker côté Traefik et au provider Docker activé). Il n’y a donc pas de port exposé sur l’hôte pour ce conteneur.

    services: it-tools: image: ghcr.io/corentinth/it-tools:latest container_name: it-tools restart: unless-stopped networks: - frontend labels: - traefik.enable=true - traefik.http.routers.it-tools.rule=Host(`it-tools.it-connectlab.fr`) - traefik.http.routers.it-tools.entrypoints=web networks: frontend: external: true

    Il y a aussi une section labels essentielle pour permettre la découverte par Traefik.

    Les Labels Traefik : ce qu’ils font

    **traefik.enable=true **: nécessaire car, dans notre config Traefik, il y a l’instruction exposedByDefault: false. Ce label autorise explicitement Traefik à gérer ce service. traefik.http.routers.it-tools.rule=Host(\it-tools.it-connectlab.fr): crée un routeur HTTP nommé it-tools qui ne s’active que lorsque la requête du client Web est à destination de l’hôte it-tools.it-connectlab.fr (soit un enregistrement DNS à associer). traefik.http.routers.it-tools.entrypoints=web : indique que ce routeur écoute sur l’entrypPoint intitulé web donc celui qui écoute sur le port 80.

    Petite parenthèse : il est à noter que Traefik va automatiquement associer un service à ce routeur. Chaque service est associé à un module load balancer Traefik (équilibrage de charge), car c’est une fonction indispensable pour chaque reverse proxy pour distribuer la charge en plusieurs serveurs de backends. Même s’il n’y a qu’un seul serveur de backend, comme c’est le cas ici avec un seul conteneur, il y a le load balancer. Dans le cas présent, afin de compléter la configuration, nous pourrions ajouter ce label supplémentaire (c’est important sur les conteneurs où plusieurs ports sont en écoute) :

    - traefik.http.services.it-tools.loadbalancer.server.port=80

    Enregistrez le fichier et lancez le déploiement de l’application :

    docker compose up -d

    À partir d’un navigateur Web, vous devriez pouvoir accéder à l’application :

    L’application a été correctement publiée par l’intermédiaire de Traefik !

    V. Traefik HTTPS : comment ça marche ? A. ACME avec Traefik

    Un accès en HTTP en 2025, ce n’est pas l’idéal tant le HTTPS s’est démocratisé depuis plusieurs années. Surtout, il n’est pas nécessaire de payer pour obtenir un certificat TLS valide : merci Let’s Encrypt. La bonne nouvelle, c’est que Traefik supporte deux Certificate Resolvers : **ACME **(donc Let’s Encrypt) et **Tailscale **pour les services internes et accessibles via cette solution.

    Dans le contexte de la méthode ACME, Traefik prend en charge plusieurs types de challenges pour demander automatiquement le certificat. Il y a le challenge HTTP (httpChallenge) qui est surement le plus classique, mais qui implique que l’hôte soit accessible en HTTP sur le port 80. Surtout, il y a le challenge DNS (dnsChallenge) grâce à l’intégration de Lego, ce qui permet de jouer sur les enregistrements DNS de façon automatique en ciblant les API des gestionnaires de zones DNS.

    Par exemple : vous disposez d’un domaine enregistré chez OVHCloud, vous pouvez effectuer des demandes de certificats Let’s Encrypt via le composant ACME intégré à Traefik, le tout via l’API de OVHCloud. Autrement dit, c’est un processus pleinement automatisé. Cela est aussi vrai pour des dizaines d’autres providers DNS compatibles Traefik, comme Cloudflare, Azure DNS, Gandi, Hostinger ou encore Ionos (voir cette page).

    Pour la suite de cet article, l’objectif sera le suivant : obtenir un certificat TLS pour le domaine it-tools.it-connectlab.fr afin de publier l’application en HTTPS. Ce domaine étant enregistré chez OVHCloud, nous devrons utiliser leur API.

    B. Traefik : exposer le port 443

    Vous devez commencer par exposer le 443 au niveau du conteneur Traefik en éditant le fichier docker-compose.yml de ce projet.

    ports: - "80:80" - "8080:8080" - "443:443" C. Créer une clé d’API OVHCloud pour Traefik

    Vous devez commencer par créer une nouvelle API d’application à partir du portail OVHCloud. Pour l’Europe, il faut accéder à la page eu.api.ovh.com/createApp/, tandis que pour les États-Unis et le Canada, c’est sur la page ca.api.ovh.com/createApp/.

    Donnez un nom à l’application et précisez une description. Par exemple :

    En retour, vous obtenez une clé d’application et un secret associé. Vous devez garder précieusement ces deux informations.

    Ensuite, à l’aide d’une console PowerShell (passez par PowerShell ISE ou VSCode, ce sera plus pratique), vous devez envoyer une requête sur l’API pour donner des droits à cette application. Utilisez le code ci-dessous, en adaptant le nom DNS pour cibler le bon domaine, ainsi que la valeur à la suite de X-Ovh-Application en précisant la clé d’application.

    curl -XPOST -H "X-Ovh-Application: 3f6ed0ayzxyz" -H "Content-type: application/json" https://eu.api.ovh.com/1.0/auth/credential -d '{ "accessRules":[ { "method":"POST", "path":"/domain/zone/it-connectlab.fr/record" }, { "method":"POST", "path":"/domain/zone/it-connectlab.fr/refresh" }, { "method":"DELETE", "path":"/domain/zone/it-connectlab.fr/record/*" } ], "redirection":"https://www.it-connectlab.fr"}'

    L’exécution de cette commande retourne deux informations importantes :

    consumerKey : vous devez conserver la valeur associée à ce champ, car elle sera nécessaire pour la suite de la configuration. validationUrl : vous devez copier cette URL et y accéder avec votre navigateur préféré pour valider l’autorisation. {"consumerKey":"cf5b9e91fffff21233464135","validationUrl":"https://www.ovh.com/auth/sso/api?credentialToken=04fa6c66011dc8498ab80814b140d6b1eea133e520612228fc3620747de0cfdc","state":"pendingValidation"}

    L’URL à laquelle vous avez accédé précédemment affiche une demande de confirmation comme celle ci-dessous. Pensez à ajuster la durée de validité de cet accès et cliquez sur le bouton “Authorize”.

    5bbf2121-2cc0-476a-bc54-da96bb1d384a-image.png

    Vous serez redirigé vers la page indiquée lors de l’exécution de la commande curl. Même si le domaine ne renvoie vers rien, ce n’est pas gênant.

    Voilà, l’accès est prêt au niveau de l’API OVHCloud et de votre compte.

    D. Utiliser OVHCloud avec Traefik

    Puisque Traefik intègre Lego, vous devez consulter la documentation du fournisseur DNS correspondant à vos besoins pour savoir comment le configurer. Vous pouvez consulter, par exemple, la page concernant ovh. Ici, nous allons ajouter 4 variables d’environnement au fichier docker-compose.yml de Traefik :

    OVH_ENDPOINT : définit le point d’accès de l’API OVH (par exemple : ovh-eu), afin que Traefik sache vers quelle région OVH communiquer. OVH_APPLICATION_KEY : identifie l’application (ici Traefik) auprès de l’API OVH. OVH_APPLICATION_SECRET : sert à authentifier de façon sécurisée l’application auprès de l’API OVH. OVH_CONSUMER_KEY : autorise l’application à agir au nom de ton compte OVH, selon les droits accordés lors de la création de la clé.

    Dans le fichier Docker Compose, ces variables sont introduites sans valeur directe, car nous allons utiliser un fichier externe. En même temps, dans la section volumes, rajoutez le montage du dossier ./certs (soit /opt/docker-compose/traefik/certs/ que vous devrez créer).

    # docker-compose.ymlservices: traefik: image: traefik:v3.6 restart: unless-stopped environment: - OVH_ENDPOINT=${OVH_ENDPOINT} - OVH_APPLICATION_KEY=${OVH_APPLICATION_KEY} - OVH_APPLICATION_SECRET=${OVH_APPLICATION_SECRET} - OVH_CONSUMER_KEY=${OVH_CONSUMER_KEY} ports: - "80:80" - "8080:8080" - "443:443" volumes: - /var/run/docker.sock:/var/run/docker.sock - ./traefik.yml:/etc/traefik/traefik.yml:ro - ./certs:/var/traefik/certs:rw networks: - frontendnetworks: frontend: external: true

    Enregistrez et fermez ce fichier. Aux côtés du fichier Docker Compose, créez le fichier .env et associez les bonnes valeurs aux variables. Mise à part pour la première variable, pour les autres, ce sont des informations confidentielles spécifiques à votre environnement.

    OVH_ENDPOINT=ovh-euOVH_APPLICATION_KEY=3f6ed77777777OVH_APPLICATION_SECRET=f6f8d623bf73abcdefghxyzzzzOVH_CONSUMER_KEY=cf5b9e913c5776itconnect2025 E. Ajouter un résolveur ACME

    Pour autant, la configuration ne s’arrête pas là. Ensuite, vous allez devoir ouvrir le fichier de configuration traefik.yml. Vérifiez la présence d’un entryPoint HTTPS, comme websecure dans l’exemple ci-dessous.

    Dans cette configuration, nous devons définir un nouveau résolveur de certificats ACME pour OVHCloud utilisé par Traefik pour obtenir automatiquement des certificats SSL/TLS via Let’s Encrypt.

    Dans cet exemple, le résolveur sera simplement nommé ovhcloud, une adresse e-mail ([email protected]) est associée au compte ACME, tandis que le fichier /var/traefik/certs/ovh-acme.json stocke les certificats et clés générés. Le paramètre caServer indique l’URL de l’API Let’s Encrypt, ici en mode production (avec une alternative en mode staging, moins limitée). Vous pouvez tout à fait utiliser le mode staging pour tester la configuration, puis basculer en mode production ensuite.

    Enfin, la section dnsChallenge précise que la validation du domaine s’effectue via OVHCloud, en créant automatiquement un enregistrement DNS (demandé par Let’s Encrypt au cours du processus). Le delayBeforeCheck de 10 secondes associé laisse le temps à la propagation DNS avant la vérification du certificat. Si vous indiquez 0, cela améliore la réactivité mais c’est aussi une source d’erreur, ce qui est contreproductif.

    # Configuration statique de Traefikglobal: checkNewVersion: false sendAnonymousUsage: false api: dashboard: true # Dashboard Traefik : 8080 insecure: true entryPoints: web: address: ":80" # EntryPoint pour HTTP websecure: address: ":443" # EntryPoint pour HTTPS certificatesResolvers: ovhcloud: acme: email: "[email protected]" storage: "/var/traefik/certs/ovh-acme.json" caServer: "https://acme-v02.api.letsencrypt.org/directory" # Production #caServer: "https://acme-staging-v02.api.letsencrypt.org/directory" dnsChallenge: provider: ovh delayBeforeCheck: 10 providers: docker: endpoint: "unix:///var/run/docker.sock" exposedByDefault: false

    Enregistrez et fermez le fichier. La configuration de Traefik est terminée ! Pensez à faire un Down/Up sur le conteneur pour recharger la configuration.

    F. Ajouter un routeur HTTPS à Traefik

    Pour que notre application IT-Tools soit accessible en HTTPS, sa configuration doit être adaptée. Je vous rappelle que ses labels actuels s’appuient sur l’entryPoint en HTTP. Ouvrez le fichier Docker Compose de l’application, puis ajoutez quatre lignes supplémentaires dans les labels regroupées avec le nom de routeur it-tools-https :

    services: it-tools: image: ghcr.io/corentinth/it-tools:latest container_name: it-tools restart: unless-stopped networks: - frontend labels: - traefik.enable=true - traefik.http.routers.it-tools.rule=Host(`it-tools.it-connectlab.fr`) - traefik.http.routers.it-tools.entrypoints=web - traefik.http.routers.it-tools-https.rule=Host(`it-tools.it-connectlab.fr`) - traefik.http.routers.it-tools-https.entrypoints=websecure - traefik.http.routers.it-tools-https.tls=true - traefik.http.routers.it-tools-https.tls.certresolver=ovhcloudnetworks: frontend: external: true

    Ces directives configurent le routeur HTTPS de Traefik pour l’application it-tools. L’entrée entrypoints=websecure indique que ce routeur utilise le point d’entrée HTTPS. Le paramètre tls=true active le chiffrement TLS pour sécuriser les connexions. Enfin, tls.certresolver=ovhcloud précise que les certificats TLS/SSL doivent être obtenus automatiquement via le résolveur ACME nommé ovhcloud (nom précisé dans traefik.yml).

    Arrêter ce projet et relancez-le (Down/Up).

    Il ne reste plus qu’à tester l’accès en HTTPS à l’application : https://it-tools.it-connectlab.fr. Si vous êtes en mode STAGING sur Let’s Encrypt, il y aura bien un certificat mais il n’est pas valide (ce qui est normal). Cela permet de valider le bon fonctionnement de la configuration.

    G. Traefik : redirection HTTP vers HTTPS

    Pour finaliser la configuration, il me semble judicieux de configurer la redirection HTTP vers HTTPS. De ce fait, les applications publiées seront accessibles uniquement au travers d’une connexion sécurisée. Les requêtes HTTP seront redirigées, plutôt que de finir dans le vide…

    À ce sujet, il y a une technique évoquée dans la documentation de Traefik et que nous pouvons appliquer. Au sein du fichier traefik.yml, nous allons éviter l’entryPoint web pour ajouter une redirection en HTTPS vers l’entryPoint websecure.

    entryPoints: web: address: ":80" # EntryPoint pour HTTP http: redirections: entryPoint: to: websecure scheme: https websecure: address: ":443" # EntryPoint pour HTTPS

    Ce qui correspond à l’ajout de ces lignes :

    Vous n’avez plus qu’à relancer le conteneur Traefik et à tester !

    VI. Les journaux de debug de Traefik

    Dans le cas où la configuration ne fonctionne pas, vous devez aller faire un tour dans les journaux de Traefik. Par défaut, seules les erreurs sont retournées, ce qui peut être trop limite pour du troubleshooting Traefik.

    Ouvrez le fichier traefik.yml et ajoutez ces lignes pour ajuster le niveau de logs. Ici, nous configurons le mode DEBUG qui est le plus verbeux.

    log: level: DEBUG # Niveau de log

    Ensuite, arrêtez et relancez le conteneur. Attention, les journaux ne sont pas persistants, donc le redémarrage implique un effacement des journaux.

    Consultez les journaux du conteneur Traefik, vous devriez voir de nombreuses informations passer dans la console. Si tout se passe bien, il y aura quand même des informations dans les logs, c’est aussi tout l’intérêt du mode debug.

    /opt/docker-compose/traefik$ docker compose logs -f --tail 100

    Je vous encourage aussi à vérifier :

    La syntaxe de vos fichiers de configuration : attention au copier-coller, au formatage et aux erreurs de frappe. La configuration des entryPoints et des ports exposés au niveau du conteneur Traefik. Les permissions sur les répertoires associés aux données persistantes de Traefik. VII. Conclusion

    Grâce à ce guide d’introduction à Traefik, vous devriez être capable de mettre en place un reverse proxy dans des environnements basés sur Docker. Vous disposez des bases nécessaires pour bien comprendre le fonctionnement de Traefik, afin de l’adapter à vos besoins et votre contexte.

    Pour aller plus loin, consultez la documentation officielle de Traefik et notamment cette page qui regroupe tous les labels Docker. Aimeriez-vous d’autres tutoriels sur Traefik ? N’hésitez pas à partager vos suggestions en commentaire.

    FAQ Qu’est-ce que Traefik et à quoi sert-il ?

    Traefik est un reverse proxy et un load balancer qui simplifie la gestion du trafic réseau vers des applications, conteneurs ou services, tout en automatisant la configuration grâce à l’intégration avec Docker, Kubernetes, ou d’autres orchestrateurs. Il a été créé par Émile Vauge, un Français.

    Comment fonctionne l’auto-discovery des services dans Traefik ?

    Traefik se connecte à un “provider” (tel que Docker ou Kubernetes) et détecte les conteneurs ou services exposés. Il crée automatiquement les routes et règles associées selon les labels configurés. La découverte automatique peut être désactivée pour éviter que des services inappropriés soient exposés. Le provider agit comme une source de configuration dynamique.

    Comment Traefik gère-t-il les certificats SSL/TLS ?

    Traefik prend en charge Let’s Encrypt et plus particulièrement l’ACME. Ainsi, il peut demander, renouveler et gérer automatiquement les certificats SSL/TLS pour les domaines associés à vos applications, garantissant un accès HTTPS avec un certificat valide et sans configuration complexe.

    Traefik peut-il gérer plusieurs domaines ou sous-domaines ?

    Oui. Chaque domaine ou sous-domaine peut être routé vers un service différent grâce aux règles (comme Host()) dans la configuration ou via des labels Docker.

    À quoi sert le tableau de bord de Traefik ?

    Le tableau de bord (Dashboard) de Traefik permet de visualiser en temps réel la configuration active : routes, middlewares, services, certificats et métriques. Il aide au diagnostic et à la supervision du trafic. Mais, il ne permet pas de faire la configuration en ligne : c’est uniquement de la lecture seule.

    Comment fonctionnent les middlewares dans Traefik ?

    Les middlewares servent à transformer les requêtes : ajout d’en-têtes, authentification avant de pouvoir accéder à une application, filtrage applicatif (WAF), etc. On peut dire qu’ils ajoutent des capacités supplémentaires à Traefik.

    Quels sont les journaux (logs) générés par Traefik ?

    Traefik produit deux types de logs : les access logs (requêtes HTTP) et les logs applicatifs (erreurs, warnings, événements internes). Comme l’explique cet article, il y a notamment un paramètre permettant d’ajuster le niveau de log.

    Comment monitorer Traefik ?

    Traefik expose des métriques au format OpenTelemetry et dans des formats adaptés pour des solutions comme Prometheus et InfluxDB2. Il y a également un tableau de bord prêt à l’emploi pour Grafana. Un bloc de configuration metrics: permet d’ajuster la configuration des métriques exposées et leur accès.

    – Source :

    https://www.it-connect.fr/tuto-traefik-reverse-proxy-avec-docker/

  • Violenceundefined

    Bitwarden, Interview du PDG Michael Crandell

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech bitwarden michael crandell
    1
    1 Votes
    1 Messages
    31 Vues
    Violenceundefined

    Une petite interview de Michael Crandell, PDG chez Bitwarden

    – Source :

    https://www.clubic.com/actualite-591613-bitwarden-pour-un-monde-ou-personne-ne-se-fait-pirater---interview-michael-crandell.html

  • duJambonundefined

    OpenAI va lancer la publicité sur ChatGPT

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
    1
    2 Votes
    1 Messages
    22 Vues
    duJambonundefined

    OpenAI a annoncé le lancement de tests de publicités dans l’application ChatGPT auprès de certains utilisateurs américains, marquant un changement de position par rapport aux réticences exprimées auparavant par Sam Altman. Les publicités apparaîtront prochainement en bas des réponses pour les utilisateurs de la version gratuite et du nouvel abonnement ChatGPT Go à 8 $ par mois, désormais disponible dans plus de 170 pays. Les abonnements Plus, Pro, Business et Enterprise resteront sans publicité.

    Ces annonces, clairement identifiées et séparées des réponses, viseront des produits ou services pertinents (par exemple du tourisme). OpenAI affirme que les publicités n’influenceront pas les réponses du chatbot et que les conversations ne seront pas partagées avec les annonceurs, avec des restrictions supplémentaires pour les sujets sensibles et les mineurs.

    Cette initiative s’inscrit dans un contexte de fortes pressions financières : OpenAI ne prévoit pas la rentabilité avant 2030, fait face à des coûts très élevés et compte encore peu d’abonnés payants. Si la publicité est perçue par l’entreprise comme un moyen de diversifier ses revenus, certains observateurs restent sceptiques sur son efficacité réelle.

    Source: https://arstechnica.com/information-technology/2026/01/openai-to-test-ads-in-chatgpt-as-it-burns-through-billions/

    Fallait bien que ça arrive, heureusement USA first 🙂

  • duJambonundefined

    Administrateurs Microsoft fuyez vite NTLM v1

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
    1
    0 Votes
    1 Messages
    31 Vues
    duJambonundefined

    Mandiant a publié une table arc-en-ciel permettant de casser rapidement les mots de passe administrateur protégés par l’algorithme obsolète NTLMv1, afin de démontrer concrètement ses failles de sécurité et pousser les organisations à l’abandonner. Grâce à cette base de données, il est possible de récupérer des mots de passe Net-NTLMv1 en moins de 12 heures avec du matériel peu coûteux.

    Bien que ses vulnérabilités soient connues depuis des décennies, NTLMv1 reste largement utilisé, notamment dans des environnements critiques dépendant d’applications anciennes, où les migrations sont coûteuses ou risquées. Mandiant souligne que cette inertie expose les organisations au vol d’identifiants et à des escalades de privilèges rapides.

    L’initiative est saluée par les professionnels de la cybersécurité, qui y voient un moyen efficace de convaincre les décideurs d’investir dans la migration vers des protocoles plus sûrs, comme NTLMv2. Mandiant appelle à la désactivation immédiate de Net-NTLMv1 et fournit des ressources pour accompagner cette transition.

    Source: https://arstechnica.com/security/2026/01/mandiant-releases-rainbow-table-that-cracks-weak-admin-password-in-12-hours/

    Risques de mauvaises surprises en vue 🙂

  • b591undefined

    Team BraD

    Planifier Épinglé Verrouillé Déplacé Autour du Warez
    1
    0 Votes
    1 Messages
    57 Vues
    b591undefined

    Bonjour,

    J’aime beaucoup le travail de la team BraD. J’avais l’habitude de le prendre en priorité sur un site commençant par x maintenant fermé. Savez-vous sur quel tk elle poste en premier lieu ?

  • duJambonundefined

    Un peu de sérieux dans un monde de n'importe quoi: Wikipedia signe des accords de formation en IA avec Microsoft, Meta et Amazon

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
    1
    1 Votes
    1 Messages
    19 Vues
    duJambonundefined

    La Fondation Wikimedia a signé des accords d’accès API payants avec Microsoft, Meta, Amazon, Perplexity et Mistral AI, rejoignant Google et d’autres entreprises déjà partenaires. Ces accords permettent à ces géants de l’IA d’accéder à un flux de données Wikipédia plus rapide et volumineux via Wikimedia Enterprise, sa filiale commerciale, tout en laissant le contenu librement accessible sous licence Creative Commons.

    Ces partenariats visent à compenser les coûts d’infrastructure croissants, causés par l’extraction massive de données par des bots (65 % des requêtes coûteuses, mais seulement 35 % du trafic total). Le trafic humain a d’ailleurs baissé de 8 % en un an, car les utilisateurs sont souvent redirigés vers des résumés IA sans visiter Wikipédia, menaçant son modèle participatif (lecteurs → contributeurs → donateurs).

    Les contributeurs bénévoles s’opposent à l’usage de l’IA générative sur Wikipédia, ce qui a conduit à l’arrêt d’un pilote de résumés IA en juin 2025. Jimmy Wales, fondateur, soutient l’entraînement des IA sur les données de Wikipédia (« validées par des humains »), mais insiste sur le fait que les entreprises doivent payer leur « juste part » des coûts qu’elles imposent.

    À noter : ces accords ne concernent pas de licences sur le contenu (toujours gratuit), mais un accès API professionnel payant.

    Source: https://arstechnica.com/ai/2026/01/wikipedia-will-share-content-with-ai-firms-in-new-licensing-deals/

  • Violenceundefined

    [Docker] Tinyauth + Traefik : ajoutez un portail d’authentification à vos applications web

    Planifier Épinglé Verrouillé Déplacé Tutoriels informatiques tinyauth traefik authentification
    1
    1 Votes
    1 Messages
    35 Vues
    Violenceundefined
    I. Présentation

    Protégez vos services web avec Tinyauth : une solution open source légère, simple à déployer et idéale pour centraliser l’authentification dans votre Home Lab ou votre environnement Docker. Ce tutoriel explique comment installer et configurer Tinyauth en tant que middleware pour Traefik.

    Dans un Home Lab, multiplier les services web rime souvent avec multiplier les écrans de connexion, enfin, quand ils existent. Pour ajouter une authentification centralisée à toutes les applications, vous pouvez opter pour des solutions comme Authentik ou Keycloak. Au-delà de ces deux applications très connues, il y a Tinyauth : une approche légère et épurée de l’authentification, pensée pour protéger facilement vos services derrière un reverse proxy (Traefik, Nginx Proxy Manager, Caddy).

    Que ce soit dans un Home Lab, une petite infrastructure ou un environnement de dev, on peut rapidement se retrouver avec une multitude de services web : interfaces d’administration, outils internes, dashboards… C’est là que Tinyauth intervient. Couplé à Traefik, il permet d’unifier l’authentification sans mettre en place une usine à gaz. Tinyauth se place entre les utilisateurs et les conteneurs Docker pour afficher une page de login.

    Pour authentifier les utilisateurs, Tinyauth peut s’appuyer sur une base de comptes locale, utiliser OAuth (sur Google ou GitHub, par exemple) et même s’interfacer avec un annuaire LDAP (LLDAP, OpenLDAP, Active Directory).

    Note: l’intégration de Tinyauth avec vos services web Docker est basée sur le mécanisme de ForwardAuth de Traefik.

    II. Principe de fonctionnement : Traefik + Tinyauth

    Avant la partie pratique, clarifions le rôle de chacun des composants utilisés :

    Traefik : reverse proxy / load balancer qui reçoit les requêtes HTTP(S) et les route vers vos services (une boite à outils, un wiki, un site web, etc.). Tinyauth : service d’authentification et d’autorisation. Il reçoit les requêtes “à valider” de la part de Traefik en agissant comme un middleware, puis il authentifie l’utilisateur avant de répondre à Traefik.

    Le lien entre Traefik et Tinyauth se fait grâce au mécanisme ForwardAuth :

    Le client demande l’accès à un service web, par exemple : https://it-tools.it-connectlab.fr. Traefik intercepte la requête et l’envoie d’abord à Tinyauth (ForwardAuth). Tinyauth entre en action si l’utilisateur : n’est pas connecté, renvoie une redirection vers une page de login ; est connecté mais n’a pas les autorisations, renvoie une erreur (403 par exemple) ; est connecté et autorisé, il renvoie un 2xx avec éventuellement des en-têtes HTTP spécifiques. Traefik relaie alors la requête au service cible, en y ajoutant les en-têtes reçus.

    Vos applications n’ont pas besoin de gérer elles-mêmes l’authentification, c’est Tinyauth qui s’en charge en proposant un portail d’authentification.

    III. Installation de Tinyauth avec Docker

    Point de départ de cette démonstration : un serveur Linux (Debian) sur lequel Docker est installé. Un conteneur avec le reverse proxy Traefik est déjà en cours d’exécution, tout comme un conteneur avec l’application IT-Tools. Cette application est accessible, sans authentification, à l’adresse suivante : https://it-tools.it-connectlab.fr. Si vous souhaitez utiliser ce point de départ, suivez mon guide d’introduction à Traefik.

    L’objectif : protéger l’accès à IT-Tools en ajoutant une page de connexion gérée par Tinyauth.

    A. Créer le dossier pour le projet

    Nous allons commencer par créer un répertoire pour stocker les fichiers du projet Tinyauth :

    mkdir /opt/docker-compose/tinyauth B. Docker Compose Tinyauth

    À l’intérieur du répertoire créé précédemment, nous allons créer un fichier docker-compose.yml. Voici le code à insérer dans ce fichier :

    services: tinyauth: image: ghcr.io/steveiliop56/tinyauth:v4 container_name: tinyauth restart: unless-stopped networks: - frontend environment: - APP_URL=https://tinyauth.it-connectlab.fr - USERS=${USERS} - SECRET=${SECRET} - LOG_LEVEL=debug labels: - traefik.enable=true - traefik.http.routers.tinyauth.rule=Host(`tinyauth.it-connectlab.fr`) - traefik.http.routers.tinyauth.entrypoints=web - traefik.http.routers.tinyauth-https.rule=Host(`tinyauth.it-connectlab.fr`) - traefik.http.routers.tinyauth-https.entrypoints=websecure - traefik.http.routers.tinyauth-https.tls=true - traefik.http.routers.tinyauth-https.tls.certresolver=ovhcloud - traefik.http.services.tinyauth.loadbalancer.server.port=3000 - traefik.http.middlewares.tinyauth.forwardauth.address=http://tinyauth:3000/api/auth/traefik networks: frontend: external: true

    Cette configuration crée un conteneur nommé tinyauth, connecté au réseau Docker frontend sur lequel est déjà connecté Traefik. L’application Tinyauth sera accessible via l’adresse https://tinyauth.it-connectlab.fr (APP_URL), à laquelle deux routers Traefik sont associés (un en HTTP, l’autre en HTTPS). Un certificat TLS Let’s Encrypt sera obtenu via le fournisseur de certificat ovhcloud, qui est configuré dans Traefik (c’est une interaction avec l’API OVHcloud pour gérer le challenge DNS du processus ACME).

    J’attire votre attention sur deux variables d’environnement pour lesquelles les valeurs seront stockées dans un fichier distinct :

    USERS = sert à déclarer, de façon statique, un ou plusieurs utilisateurs. SECRET = sert à signer et chiffrer les sessions ou les jetons (cookies) générés par Tinyauth.

    Enregistrez et fermez ce fichier.

    Vous devez générer une valeur aléatoire pour la variable SECRET. En ligne de commande, vous pouvez le faire à l’aide d’OpenSSL comme ceci : openssl rand -base64 32 | tr -dc 'a-zA-Z0-9' | head -c 32.

    Pour créer un utilisateur statique, vous avez besoin de deux informations : un nom d’utilisateur et un mot de passe, ou plutôt le hash BCrypt d’un mot de passe. Vous pouvez utiliser un outil en ligne pour obtenir cette information ou en ligne de commande, avec la commande mkpasswd, par exemple.

    apt install whois -y mkpasswd --method=bcryptPassword:# Saisissez le mot de passe en mode interactif et copiez la valeur obtenue.

    Voici un exemple de valeur obtenue (le point final fait partie de la valeur) : $2b$05$4K/ulQau1w1v/mR5UzwaOu8UQFAa/bT.DbnrbRK6ed0OFY.KucIQ.

    Vous pouvez alors constituer une chaine sous cette forme : <nom utilisateur>:<hash bcrypt>. Dans l’exemple ci-dessous, le nom du compte sera adm_fb.

    Créez un fichier nommé .env et ajoutez ce contenu :

    USERS=<nom utilisateur>:<hash bcrypt>SECRET=<la valeur obtenue avec la commande openssl> # Par exemple :USERS=adm_fb:$2b$05$4K/ulQau1w1v/mR5UzwaOu8UQFAa/bT.DbnrbRK6ed0OFY.KucIQ.SECRET=2BBUv0YFcZRoWMndmG9kaI3US5QU7u6Z

    J’ai eu des cas où il fallait doubler les $ dans la valeur du mot de passe pour que ça fonctionne. Ce qui donnerait :

    $$2b$$05$$4K/ulQau1w1v/mR5UzwaOu8UQFAa/bT.DbnrbRK6ed0OFY.KucIQ.

    Enregistrez et lancez la création du conteneur Docker TinyAuth :

    cd /opt/docker-compose/tinyauthdocker compose up -d IV. Protéger un service web avec Tinyauth

    Pour ajouter une page d’authentification à un service web exécuté dans un conteneur Docker, vous devez éditer le fichier Docker Compose de l’application en question. Ici, nous prenons l’exemple du service IT-Tools, donc nous allons éditer le fichier /opt/docker-compose/it-tools/docker-compose.yml.

    Dans la section dédiée aux labels Traefik, vous devez ajouter cette ligne pour lui associer le middleware Tinyauth :

    - traefik.http.routers.it-tools-https.middlewares=tinyauth

    Ce qui donne cette configuration complète :

    labels: - traefik.enable=true - traefik.http.routers.it-tools.rule=Host(`it-tools.it-connectlab.fr`) - traefik.http.routers.it-tools.entrypoints=web - traefik.http.routers.it-tools-https.rule=Host(`it-tools.it-connectlab.fr`) - traefik.http.routers.it-tools-https.entrypoints=websecure - traefik.http.routers.it-tools-https.tls=true - traefik.http.routers.it-tools-https.tls.certresolver=ovhcloud - traefik.http.routers.it-tools-https.middlewares=tinyauth

    Suite à cette modification, relancez le conteneur applicatif :

    cd /opt/docker-compose/it-toolsdocker compose downdocker compose up -d --build

    Tentez d’accéder à l’application web, ici représentée par l’adresse : https://it-tools.it-connectlab.fr. Au lieu d’avoir l’interface d’IT-Tools, la page de connexion Tiny Auth s’affiche :

    Donc, là, il n’y a plus le choix : il faut s’authentifier avec le compte renseigné dans le fichier .env.

    Une fois l’authentification réussie, le reverse proxy Traefik nous redirige vers l’application IT-Tools. La configuration est opérationnelle !

    V. Tinyauth et l’authentification OAuth

    Plutôt que d’utiliser une base de comptes locale, nous allons utiliser la méthode OAuth couplée à GitHub. Ainsi, il sera possible de s’authentifier auprès du portail Tinyauth à l’aide d’un compte GitHub.

    La première étape consiste à créer une nouvelle application OAuth sur GitHub (à partir de votre compte GitHub). Vous pouvez créer une application OAuth sur GitHub via la page github.com/settings/developers. Cliquez sur le bouton “New OAuth app”.

    – Vous devez ensuite :

    Spécifier un nom pour l’application Définir la Homepage URL, c’est-à-dire l’adresse de votre Tinyauth. Spécifier la callback URL, en utilisant l’adresse de Tinyauth + /api/oauth/callback/github.

    Voici un exemple :

    Vous arrivez sur la page de votre application. Cliquez sur le bouton “Generate a new client secret” pour générer un secret permettant d’utiliser cette application. Copiez le “Client ID” et “Client secret” car nous allons en avoir besoin par la suite.

    Éditez le fichier de configuration du conteneur Tinyauth :

    nano /opt/docker-compose/tinyauth/docker-compose.yml

    Puis, ajoutez ces trois variables d’environnement :

    - PROVIDERS_GITHUB_CLIENT_ID=${PROVIDERS_GITHUB_CLIENT_ID} - PROVIDERS_GITHUB_CLIENT_SECRET=${PROVIDERS_GITHUB_CLIENT_SECRET} - OAUTH_WHITELIST=${OAUTH_WHITELIST}

    Quelques explications s’imposent :

    PROVIDERS_GITHUB_CLIENT_ID : la valeur Client ID obtenue précédemment. PROVIDERS_GITHUB_CLIENT_SECRET : la valeur Client secret obtenue précédemment. PROVIDERS_GITHUB_CLIENT_ID : la liste des adresses e-mail de comptes GitHub autorisés à se connecter. Sinon, n’importe qui avec un compte GitHub peut s’authentifier sur votre portail.

    Puis, dans le fichier .env, configurez les variables d’environnement avec vos valeurs (ajoutez ces lignes à la suite de celles déjà présentes) :

    PROVIDERS_GITHUB_CLIENT_ID=Ov23liQVitconnectPROVIDERS_GITHUB_CLIENT_SECRET=e78bf94fb2ab4f16ditconnectitconnectOAUTH_WHITELIST=mon-utilisateur@it-connect.fr

    Enregistrez, puis relancez le conteneur Tinyauth :

    cd /opt/docker-compose/tinyauth/dodocker compose downdocker compose up -d --build

    Désormais, quand nous tentons une connexion à l’application, un nouveau bouton apparaît sur la page de connexion Tinyauth ! Il permet de s’authentifier avec GitHub, ce qui est plutôt de bonne augure !

    Il convient alors de préciser son nom d’utilisateur et son mot de passe.

    Puis, d’autoriser l’application Tinyauth à obtenir l’adresse e-mail et les informations du profil (en lecture seule). Ces informations peuvent aussi être relayées à l’application sur laquelle une connexion est tentée.

    Une fois l’authentification GitHub réussie, vous accédez à votre application !

    VI. Personnaliser l’interface de Tinyauth

    Tinyauth prend en charge plusieurs variables d’environnement que vous pouvez utiliser pour configurer votre instance, y compris pour personnaliser l’apparence. Vous pouvez notamment changer le titre et le fond d’écran. Voyons comment effectuer ces deux modifications.

    Ouvrez le fichier /opt/docker-compose/tinyauth/docker-compose.yml. Dans la section environment, ajoutez la variable APP_TITLE avec la valeur souhaitée pour le titre visible au-dessus du formulaire. Par exemple :

    - APP_TITLE=IT-Connect Lab

    Pour utiliser un fond d’écran personnalisé, vous avez deux options :

    Stocker l’image sur votre serveur et la monter dans le conteneur Tinyauth. Pointer vers l’image via une URL web, ce qui peut être une ressource externe hébergée sur un autre domaine.

    Dans le cas où vous souhaitez stocker l’image sur votre serveur, vous devez positionner le fichier sous /opt/docker-compose/tinyauth/ puis le monter dans le conteneur via l’ajout d’une ligne sous volumes. Par exemple :

    volumes: - ./wallpaper.jpg:/data/resources/wallpaper.jpg:ro

    Puis, dans la section environment, ajoutez deux lignes pour préciser le chemin vers le dossier disposant des ressources personnalisées (RESOURCES_DIR), puis le chemin vers le fichier image en lui-même (BACKGROUND_IMAGE). Voici un exemple (respectez bien ce format).

    - RESOURCES_DIR=/data/resources - BACKGROUND_IMAGE=/resources/wallpaper.jpg

    Relancez le conteneur avec la nouvelle configuration :

    docker compose downdocker compose up -d --build

    VII. Le contrôle d’accès avec Tinyauth

    Tinyauth intègre des fonctions pour le contrôle d’accès, notamment pour limiter l’accès à certains sous-domaines (ou certaines URL / chemins) uniquement à certains utilisateurs. Vous pouvez créer des règles basées sur les utilisateurs, les comptes OAuth, les chemins et les adresses IP (autoriser uniquement les connexions depuis une liste blanche d’adresses IP, par exemple).

    Dans tous les cas, Tinyauth doit pouvoir surveiller vos conteneurs et lire les labels (comme le fait Traefik). Vous devez donc ajouter ce volume dans la configuration de Tinyauth :

    volumes: - /var/run/docker.sock:/var/run/docker.sock:ro

    La configuration s’effectue ensuite au niveau de chaque application, grâce à un système de labels Tinyauth. Vous devez rajouter une ligne pour préciser le nom de domaine de l’application (bien que ce soit facultatif car Tinyauth prend par défaut le sous-domaine) et ensuite ajouter les ACL Tinyauth.

    L’exemple ci-dessous, positionné sur l’application IT-Tools, permet d’autoriser uniquement le compte adm_fb à accéder à cette application. Ici, on autorise explicitement un utilisateur (on peut aussi en préciser plusieurs), donc tous les autres seront interdits. Nous pouvons aussi faire l’inverse : tout autoriser et bloquer uniquement certains comptes, mais j’aime moins cette approche.

    labels: - traefik.enable=true - traefik.http.routers.it-tools.rule=Host(`it-tools.it-connectlab.fr`) - traefik.http.routers.it-tools.entrypoints=web - traefik.http.routers.it-tools-https.rule=Host(`it-tools.it-connectlab.fr`) - traefik.http.routers.it-tools-https.entrypoints=websecure - traefik.http.routers.it-tools-https.tls=true - traefik.http.routers.it-tools-https.tls.certresolver=ovhcloud - traefik.http.routers.it-tools-https.middlewares=tinyauth - tinyauth.apps.it-tools.config.domain=it-tools.it-connectlab.fr - tinyauth.apps.it-tools.users.allow=adm_fb

    Relancez les deux conteneurs… Puis, testez. Pour l’occasion, j’ai ajouté un second utilisateur nommé flo et qui, en principe, doit se voir l’accès refusé. Voici le résultat obtenu :

    D’autres exemples sont précisés dans la documentation officielle.

    VIII. Docker Compose Tinyauth - Exemple complet

    Pour finir, voici la configuration complète avec l’authentification GitHub et la personnalisation de l’interface Tinyauth :

    services: tinyauth: image: ghcr.io/steveiliop56/tinyauth:v4 container_name: tinyauth restart: unless-stopped networks: - frontend environment: - APP_URL=https://tinyauth.it-connectlab.fr - APP_TITLE=IT-Connect Lab - RESOURCES_DIR=/data/resources - BACKGROUND_IMAGE=/resources/wallpaper.jpg - USERS=${USERS} - SECRET=${SECRET} - PROVIDERS_GITHUB_CLIENT_ID=${PROVIDERS_GITHUB_CLIENT_ID} - PROVIDERS_GITHUB_CLIENT_SECRET=${PROVIDERS_GITHUB_CLIENT_SECRET} - OAUTH_WHITELIST=${OAUTH_WHITELIST} - LOG_LEVEL=debug volumes: - /var/run/docker.sock:/var/run/docker.sock:ro - ./wallpaper.jpg:/data/resources/wallpaper.jpg:ro labels: - traefik.enable=true - traefik.http.routers.tinyauth.rule=Host(`tinyauth.it-connectlab.fr`) - traefik.http.routers.tinyauth.entrypoints=web - traefik.http.routers.tinyauth-https.rule=Host(`tinyauth.it-connectlab.fr`) - traefik.http.routers.tinyauth-https.entrypoints=websecure - traefik.http.routers.tinyauth-https.tls=true - traefik.http.routers.tinyauth-https.tls.certresolver=ovhcloud - traefik.http.services.tinyauth.loadbalancer.server.port=3000 - traefik.http.middlewares.tinyauth.forwardauth.address=http://tinyauth:3000/api/auth/traefik networks: frontend: external: true

    Ainsi que le fichier .env associé :

    USERS=adm_fb:$2b$05$4K/ulQau1w1v/mR5UzwaOu8UQFAa/bT.DbnrbRK6ed0OFY.KucIQ.SECRET=2BBUv0YFcZRoWMndmG9kaI3US5QU7u6ZPROVIDERS_GITHUB_CLIENT_ID=Ov23liQVitconnectPROVIDERS_GITHUB_CLIENT_SECRET=e78bf94fb2ab4f16ditconnectitconnectOAUTH_WHITELIST=e-mail@it-connect.fr IX. Conclusion

    À condition d’être un minimum à l’aise avec Docker, Tinyauth se présente comme une solution simple et efficace pour protéger n’importe quelle application par un portail d’authentification. L’association avec Traefik est très intéressante pour mettre en place une authentification centralisée.

    Ce type d’architecture reste relativement simple à maintenir, tout en offrant un bon contrôle sur qui accède à quoi. Vous pouvez ensuite affiner les politiques d’accès, ajouter des groupes ou intégrer d’autres services, tout en conservant le même socle : Traefik en frontal, Tinyauth comme brique d’authentification partagée.

    En complément de ce tutoriel, vous pouvez consulter la documentation de Tinyauth.

    FAQ Qu’est-ce que Tinyauth et à quoi sert-il ?

    Tinyauth est une solution légère permettant d’ajouter un portail d’authentification à une application web sans mettre en place une infrastructure complexe. C’est un outil open source codé majoritairement en Go et TypeScript.

    Tinyauth est-il compatible avec toutes les applications web ?

    Oui, dès lors que l’application peut être protégée derrière un reverse proxy ou une redirection HTTP/HTTPS. L’intégration avec Traefik est possible, mais ce n’est pas la seule possibilité. Certaines applications peuvent être plus difficiles à intégrer s’il y a des en-têtes spécifiques à gérer.

    Tinyauth fonctionne-t-il avec Nginx ou Traefik ?

    Oui. Nginx, Traefik et Caddy peuvent être configurés pour rediriger l’utilisateur vers Tinyauth avant d’accéder à l’application.

    Comment activer HTTPS pour Tinyauth ?

    On peut activer TLS en passant par Traefik ou Caddy, ou en configurant Nginx avec un certificat Let’s Encrypt. L’utilisation du HTTPS avec un certificat TLS est plus que recommandée puisqu’il est question d’authentification.

    Peut-on personnaliser l’interface du portail Tinyauth ?

    Oui, l’apparence peut être modifiée, notamment le titre de l’instance et le fond d’écran, grâce à deux variables d’environnement prévues à cet effet (APP_TITLE et BACKGROUND_IMAGE).

    Est-il possible de connecter Tinyauth à un Active Directory ou un LDAP ?

    Oui, la documentation de Tinyauth met en évidence la possibilité de connecter un annuaire LDAP pour l’authentification. Plusieurs champs sont proposés, comme l’adresse du serveur LDAP, le Bind DN, etc… C’est suffisant pour envisager une connexion AD.

    Comment consulter les logs de Tinyauth ?

    Si Tinyauth est déployé par l’intermédiaire d’un conteneur Docker, vous pouvez exécuter la commande docker compose logs -f --tail 100 depuis le répertoire du projet pour afficher les journaux en temps réel.

    – Source :

    https://www.it-connect.fr/tinyauth-traefik-ajoutez-un-portail-authentification-a-vos-applications-web/

  • Raccoonundefined

    Les caméras « touristiques » des communes dans le viseur de la CNIL

    Planifier Épinglé Verrouillé Déplacé Discussions générales
    1
    2 Votes
    1 Messages
    42 Vues
    Raccoonundefined

    Lorsque la CNIL parle des caméras « touristiques », il s’agit de celles utilisées par des communes pour « valoriser un territoire ». La Commission rappelle qu’elles « ne devraient pas permettre la collecte de données personnelles ».

    Problème : « lors de contrôles, la CNIL a constaté qu’il était parfois possible de distinguer, sur les vidéos et photographies diffusées par les communes sur leurs sites web à des fins de promotion touristique, des personnes dans leur quotidien ainsi que des plaques d’immatriculation des véhicules dans le champ des caméras ».

    La Commission explique que cela constitue un traitement de données personnelles et qu’il doit donc respecter le RGPD. Certaines communes ont fait valoir « que l’utilisation de ces caméras […] reposait sur la base légale de l’intérêt légitime ».

    La CNIL n’est pas du même avis et parle d’un « traitement de données personnelles disproportionné au regard de sa finalité ». De plus, « ce type de dispositif ne permet pas aux personnes de s’opposer à cet enregistrement avant le recueil des images ». Les communes ciblées et les griefs précis ne sont pas indiqués.

    Les caméras permettaient d’observer « des moments de vie personnels » comme ceux aux terrasses de bars, ou lors de manifestations sur la voie publique, mais aussi des moments « intimes » avec des caméras sur les entrées et fenêtres d’habitations par exemple. La Commission rappelle aussi qu’il existe des risques de « cambriolages, harcèlement, chantage, violences conjugales ».

    La CNIL n’interdit pas les caméras touristiques, mais à condition qu’elles respectent la vie privée des personnes. Un exemple de bonnes et mauvaises pratiques est donné avec Notre-Dame à Paris :

    Source : next.ink

  • duJambonundefined

    Le mystère est résolu: voici ce que sont les “petits points rouges” du télescope spatial James Webb

    Planifier Épinglé Verrouillé Déplacé Sciences
    1
    6 Votes
    1 Messages
    35 Vues
    duJambonundefined

    Pendant des années, les scientifiques étaient perplexes. Depuis la mise en service du télescope spatial James Webb (JWST), ils ont observé à plusieurs reprises de mystérieux petits points rouges sur certaines images. Le responsable a été identifié. On fait le point avec l’expert scientifique Martijn Peters.

    Les fameux petits points rouges apparaissent sur des images dans des zones datant d’une époque où l’univers n’avait que quelques centaines de millions d’années. Des centaines de ces points rouges ont déjà été recensés. Mais si l’on observe des images datant d’un milliard d’années plus tard, ils semblent soudainement disparaître.

    947bd089-9c62-46a6-a7d1-7e0e3114af44-image.png

    Certains scientifiques pensaient qu’il s’agissait d’énormes galaxies, si puissantes que le JWST pouvait encore percevoir leur lumière 13 milliards d’années plus tard. Mais cette hypothèse pose un problème : elle ne correspond pas au temps nécessaire à la formation des galaxies après le Big Bang. Celles-ci n’apparaissaient qu’après la période correspondant aux images où les points rouges ont été observés par le télescope spatial.

    Pendant deux ans, des scientifiques danois ont étudié sans relâche les images présentant ces points rouges. La réponse se trouvait dans l’une des entités les plus puissantes de notre univers: les trous noirs. Parallèlement, ils ont fait une découverte sur la naissance des tout premiers trous noirs dans l’univers.

    Les points rouges, des jeunes trous noirs

    Les petits points rouges se révèlent être de jeunes trous noirs. Ils sont cent fois moins massifs qu’on ne le pensait auparavant. Mais ils pèsent tout de même 10 millions de fois la masse de notre Soleil et ont un diamètre de 10 millions de kilomètres. Le centre de notre Voie lactée abrite un trou noir supermassif dont la masse équivaut à 4 millions de fois celle du Soleil.

    Les jeunes trous noirs sont enveloppés d’un cocon de gaz qu’ils absorbent pour croître. Pendant ce processus, une quantité énorme de chaleur, de l’ordre de millions de degrés, est libérée et traverse ce cocon. C’est ce rayonnement qui donne aux petits points leur couleur rouge caractéristique. Les trous noirs, en eux-mêmes, sont plutôt des mangeurs désordonnés: seule une petite partie du gaz qui tombe est absorbée, le reste est expulsé par les pôles du trou noir.

    284e5c9d-a12d-456f-bb24-cce7e5e64762-image.png
    La couleur rouge du petit point au centre de l’image provient du rayonnement libéré lorsque le trou noir absorbe du gaz

    Grâce à ces résultats, les scientifiques ont résolu un mystère scientifique, mais ils ont aussi répondu à la question de savoir pourquoi des trous noirs supermassifs, avec des masses jusqu’à un milliard de fois celle de notre Soleil, existaient déjà quelques centaines de millions d’années seulement après le Big Bang. Ils savent maintenant qu’ils observent des images de jeunes trous noirs en pleine phase de croissance, un stade qui n’avait jamais (consciencieusement) été observé auparavant.

    Source: https://www.7sur7.be/sciences/le-mystere-est-resolu-voici-ce-que-sont-les-petits-points-rouges-du-telescope-spatial-james-webb~ae455585/






©2025 planete-warez.net
L'actualité Warez & underground en continu
Icône café Faire un don
Politique   RGPD  @dev  Sudonix
    • Se connecter

    • Vous n'avez pas de compte ? S'inscrire

    • Connectez-vous ou inscrivez-vous pour faire une recherche.
    • Premier message
      Dernier message
    0
    • Catégories
      • Toutes les catégories
      • Planète Warez
        Présentations
        Aide & Commentaires
        Réglement & Annonces
        Tutoriels
      • IPTV
        Généraliste
        Box
        Applications
        VPN
      • Torrent & P2P
      • Direct Download et Streaming
      • Autour du Warez
      • High-tech : Support IT
        Windows, Linux, MacOS & autres OS
        Matériel & Hardware
        Logiciel & Software
        Smartphones & Tablettes
        Graphismes
        Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
        Tutoriels informatiques
      • Culture
        Actualités High-Tech
        Cinéma & Séries
        Sciences
        Musique
        Jeux Vidéo
      • Humour & Insolite
      • Discussions générales
      • Espace détente
      • Les cas désespérés
    • Récent
    • Populaire
    • Résolu
    • Non résolu