• 8 Votes
    147 Messages
    26k Vues

    nikel, ca fonctionne 🙂 et j’ai le lien du fichier 🙂

  • 3 Votes
    3 Messages
    31 Vues

    Jeff Bezos et tous les types de son acabit, vont là où il y’a le fric et les privilèges.
    Sinon chez nous, côté info, c’est pas mieux non plus (je ne parle pas de la presse écrite) mais plutôt de la télé. C’est carrément la désorientation surtout quand on a pour simple exemple CNews qui, inutile de tourner autour du pot, on est clairement à l’extrême droite.
    Perso, pour m’informer, je fais mon propre mix.
    Dès que je le peux, je checke les médias espagnols, italiens ou anglophones pour avoir une vision globale de la chose de ce qui se passe dans le monde (je ne me fie jamais qu’à une seule source, comme le font trop de gens).
    Sinon règle d’or pour ma part, je ne touche jamais aux réseaux associaux pour l’actu, le niz des zazins en tous genre.

  • 2 Votes
    10 Messages
    141 Vues

    @Aurel , alors très mal documenté et chez Canon et chez Apple, en fait je les ais crus et j’ai pas vérifié pour de vrai.

  • 0 Votes
    73 Messages
    22k Vues

    Bon l’avantage de toute cette histoire, c’est que je me suis remis à la recherche à l’ancienne, avec prowlaar/radaar/sonaar/bataard etc…
    Et que du coup, je viens de voir que j’ai un abonnement à vie à nzbgeek.
    Comme quoi:smile:

  • 0 Votes
    3 Messages
    32 Vues

    Exactement, l’humain devient badadia ^^

  • Un peu d'humour en image

    Épinglé Humour & Insolite
    5k
    4 Votes
    5k Messages
    1m Vues

    text alternatif

  • 1 Votes
    1 Messages
    16 Vues

    30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.

    En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.

    En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).

    667 millions d’adresses IPv6… par mm² !

    La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.

    4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.

    Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».

    La France en tête du taux d’utilisation d’IPv6 !

    L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.

    Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.

    En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.

    Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »

    En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.

    Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».

    En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.

    Cinq grandes étapes, la première d’ici 2 à 3 ans ?

    L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :

    IPv6 est activé par défaut sur la quasi-totalité des offres grand public IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises Une part non négligeable des sites web sont hébergés en IPv6 uniquement Une part non négligeable des FAI ne proposent plus d’IPv4 La majorité des sites abandonnent IPv4

    La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.

    Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.

    Source : next.ink

    En complément :

    La guerre des IPv4 en Afrique menace la gestion mondiale d’Internet

    IPv6 : la France passe en tête au niveau mondial, mais la route est encore longue

  • On ne se moque pas de ces choses là.

    Humour & Insolite
    4k
    3 Votes
    4k Messages
    894k Vues

    @vanouzbek C’est clair, mais le partage ne profite pas qu’à YGG mais aussi aux utilisateurs.
    En faire le minimum syndical, c’est mesquin.

  • [Topic Unique] La cale

    Torrent & P2P
    143
    2 Votes
    143 Messages
    12k Vues

    Mais ce n’est de toute façon pas possible d’être exhaustif ou juste.

    Si je prends le cas du son, je me fiche (c’est personnel, je sais), d’avoir la piste US taggée Dolby atmos, alors que la française est en bête 5.1, sans parler d’autres formats et d’autres langues.
    Si je veux de la VO, il y a les trackers US publics sans ratio. Dans tracker VF, rien à foutre de la VO, taguer la VF c’est mieux, VO présente ou pas.

    Une consultation du fichier d’info est quasi obligatoire, ne serait-ce qu’à cause des débits (voire des réglages pour les encodes).

    Et j’en profite pour répéter ici que la suppression des sous-titres de langues étrangères est complètement débile vu la taille ridiculement faible des ces fichiers.

    Et je ne prends pas que des UHD complets, je n’ai pas la place, c’est justement pour ça que le choix des versions est important.

    Le meilleur compromis possible, c’est ce que tout le monde recherche en fonction de ses propres possibilités, ceux qui se fichent de la qualité sont surement sur des sites de streaming gratuits.

  • 0 Votes
    4 Messages
    56 Vues

    L’augmentation régulière des tarifs de ces services n’est pas correct compte tenu que c’est en général livré avec des réductions de catalogues et/ou réduction de qualité (non spécifique à disney+). Le retrait DV/HDR10+ s’ajoute aux pratiques déjà courantes pour eux.

    Pour les jeux multijoueurs, je trouve que ça dépends de l’éditeur, il y a parfois de bonnes surprises.

  • 3 Votes
    1 Messages
    39 Vues

    La fermeture de grands sites pirates ne fait pas que déplacer les internautes vers d’autres plateformes illégales : elle peut aussi stimuler la consommation légale, mais de façon inégale. Une étude menée par des chercheurs des universités Chapman et Carnegie Mellon, basée sur la fermeture en 2015 du site brésilien MegafilmesHD, montre que les comportements varient selon le genre et le niveau de revenus.

    Après la fermeture de MegafilmesHD, les anciens utilisateurs ont augmenté leur fréquentation d’autres sites pirates (+20 % de visites et +61 % de temps passé). En parallèle, une hausse de l’usage légal a été observée : +6 % de visites sur Netflix et +11 % de temps passé, avec un lien direct entre l’usage intensif du site pirate et la probabilité de s’abonner ensuite à Netflix.

    Cependant, cet effet positif est limité. Les étudiants et personnes à faibles revenus se sont moins tournés vers les offres légales, le prix restant un frein. De plus, les femmes ont davantage abandonné le piratage après la fermeture, tandis que les hommes ont plus souvent cherché de nouvelles sources illégales.

    Conclusion : la répression peut générer des gains légaux mesurables, mais uniquement pour une partie de la population. Sans alternatives légales accessibles, attractives et abordables, la fermeture de sites pirates risque surtout de déplacer le piratage plutôt que de le réduire durablement.

    Source: https://torrentfreak.com/research-major-pirate-site-shutdown-boosted-visits-to-other-pirate-sites-and-netflix/

  • 1 Votes
    1 Messages
    21 Vues

    C’est au moins la troisième fois que ce site est pris pour cible par des voleurs.

    Des chercheurs en cybersécurité ont découvert que plusieurs paquets open source malveillants publiés sur npm et PyPI ciblaient les développeurs et applications liés à la plateforme de trading décentralisée dYdX. Ces paquets contenaient du code capable de voler des phrases de récupération, des clés privées et des identifiants sensibles, entraînant le piratage complet de portefeuilles crypto et la perte irréversible de fonds.

    Les versions compromises concernaient des bibliothèques officielles JavaScript et Python de dYdX, ce qui suggère que les comptes de publication de dYdX ont été compromis. Le malware exfiltrait les données vers un domaine frauduleux imitant dYdX (typosquatting).
    Sur PyPI, le code allait encore plus loin en intégrant un cheval de Troie d’accès à distance (RAT) permettant aux attaquants d’exécuter du code à distance, d’espionner les systèmes, de voler des clés (SSH, API), d’installer des portes dérobées et de se déplacer sur le réseau.

    Cette attaque touche toutes les applications dépendant de ces versions, aussi bien en développement qu’en production. Elle s’inscrit dans une série d’attaques répétées contre dYdX, après une compromission npm en 2022 et un détournement DNS en 2024.

    Les chercheurs recommandent à tous les utilisateurs et développeurs d’auditer immédiatement leurs applications et de supprimer toute dépendance aux paquets infectés.

    Pour le détail des paquets voir: https://arstechnica.com/security/2026/02/malicious-packages-for-dydx-cryptocurrency-exchange-empties-user-wallets/

    Open source, n’est pas synonyme de sécurité.

  • 5 Votes
    1k Messages
    388k Vues

    @TylerDurden67 Salut, tu es arrivé à faire fonctionner l’api? J’aimerais récupérer le nombre de stream actif mais tout mes GET renvoie “Authentication credentials were not provided” j’ai pourtant renseigner XC password sur ma page user. Les seul résultats que j’obtiens c’est avec la generation d’un token mais c’est temporaire comme authentification. Si des fois tu as une piste, je te serais éternellement reconnaissant 😁

  • 1 Votes
    2 Messages
    39 Vues

    Moi j’aurai plus vu des Xiaomi dans leurs poches XD

    (Merci pour l’info)

  • 2 Votes
    2 Messages
    53 Vues

    C’était pas une super idée de récupérer le contenu de Spotify aussi 😕 Comment être sous le feu des projecteurs pour un contenu qui n’est même pas de son ressort…

  • 2 Votes
    2k Messages
    671k Vues

    @patricelg Oups, j’ai loupé ça d’hier matin…

    1a2.jpg

  • 1 Votes
    1 Messages
    23 Vues

    Un tribunal fédéral californien a jugé que les accusations de contournement des protections techniques de YouTube suffisent, à ce stade, à constituer une violation potentielle du DMCA. Dans l’affaire Cordova v. Huneault, la juge Virginia DeMarchi a estimé que le système de « chiffrement dynamique » de YouTube contrôle effectivement l’accès aux fichiers téléchargeables, même si les vidéos sont librement visionnables en ligne.

    Cette décision est importante pour les créateurs de vidéos de réaction et de commentaire, dont beaucoup téléchargent des extraits d’autres chaînes à l’aide d’outils tiers contournant les protections de YouTube. Le tribunal indique que le caractère équitable (fair use) du contenu final ne protège pas nécessairement contre une accusation distincte de contournement du DMCA.

    Le litige oppose deux créateurs YouTube : Christopher Cordova, qui accuse Jonathan Huneault d’avoir utilisé ses vidéos sans autorisation et d’avoir contourné les protections techniques de YouTube pour les obtenir. La défense soutient que les vidéos étant publiques, il n’y a pas de véritable contrôle d’accès et conteste l’usage d’outils de piratage, évoquant plutôt l’enregistrement d’écran.

    En rejetant la demande de classement sans suite, la juge permet à l’affaire de se poursuivre, ouvrant la voie à une enquête approfondie. La décision renforce l’idée que l’acte même de contournement peut être sanctionné, indépendamment de l’absence de préjudice ou d’une éventuelle utilisation équitable, ce qui pourrait exposer de nombreuses chaînes de réaction à de nouveaux risques juridiques.

    Source: https://torrentfreak.com/ripping-clips-for-youtube-reaction-videos-can-violate-the-dmca-court-rules/

  • 0 Votes
    1k Messages
    189k Vues

    @duJambon

    C’est juste que je j’étais un peu exigeant sur la chose mais sinon t’inquiète, vas y les yeux fermés 😉 (et tu va être en mode frustré en gueulant “Mais du con mais fais marche arrière” 😁)

  • 1 Votes
    1 Messages
    24 Vues

    Anthropic a mené une expérience ambitieuse consistant à faire développer un compilateur C par 16 agents IA du modèle Claude Opus 4.6, avec une supervision humaine limitée. En deux semaines, près de 2 000 sessions et pour environ 20 000 $ de coûts d’API, les agents ont produit un compilateur en Rust de 100 000 lignes capable de compiler un noyau Linux amorçable sur plusieurs architectures et de réussir la majorité des tests standards, ainsi que de compiler des projets majeurs comme PostgreSQL ou Doom.

    Cependant, cette réussite doit être fortement nuancée. Le projet s’appuie sur un problème particulièrement adapté à l’IA (spécifications anciennes, tests existants, compilateurs de référence) et le compilateur obtenu reste inférieur à GCC en performance et en robustesse, avec de nombreuses limitations techniques. À mesure que le code s’est complexifié, les agents ont perdu en cohérence, révélant un plafond pratique autour de 100 000 lignes pour le codage agentiel autonome.

    L’aspect « autonome » est également relativisé : une part considérable du travail a été humaine, notamment dans la conception de l’infrastructure, des tests, des pipelines d’intégration continue et des mécanismes de retour d’information adaptés aux faiblesses des modèles. Le coût annoncé n’inclut ni l’entraînement du modèle ni les décennies de travail humain ayant rendu les tests possibles.

    En définitive, l’expérience démontre une avancée réelle et inédite dans la programmation multi-agents, tout en mettant en lumière ses limites actuelles et les risques liés au déploiement de code que personne ne comprend entièrement.

    Source: https://arstechnica.com/ai/2026/02/sixteen-claude-ai-agents-working-together-created-a-new-c-compiler/

    Réussir une compilation, c’est déjà très bien, mais même sans erreur et sans optimisation du code, on peut facilement produire un truc qui rame, genre galère) et qui est gourmand en ressources. Un bon compilateur, ça n’a pas de prix.