• 1k Sujets
    8k Messages

    Bienvenue @Argali

  • Partage avec nous ton experience sur l’IPTV

    18 Sujets
    7k Messages

    Merci TylerDurden67

  • Vos sites préférés et leurs statuts

    126 Sujets
    6k Messages

    @Didier Pareil pour moi impossible de reinitialiser pas de lien envoyé le site reconnait le mail puisque refuse une nouvelle inscription sur la meme adresse ; il y a clairement un soucis sur le sujet

  • Vos sites préférés et leurs statuts

    236 Sujets
    7k Messages

    On peut lire à certains endroits que ça pue parce que le nom de domaine a été racheté.

    Il n’en est visiblement rien en faisant un simple whois :

    Domain Name: DARKIWORLD15.COM Registry Domain ID: 3041876874_DOMAIN_COM-VRSN Registrar WHOIS Server: whois.namecheap.com Registrar URL: http://www.namecheap.com/ Updated Date: 2025-11-25T09:56:51Z Creation Date: 2025-11-25T09:52:03Z RegistryExpiry Date: 2026-11-25T09:52:03Z Registrar: NameCheap, Inc. Registrar IANA ID: 1068 Registrar Abuse Contact Email:[email protected] Registrar Abuse Contact Phone: +1.6613102107 Domain Status: clientTransferProhibitedhttps://icann.org/epp#clientTransferProhibited Name Server: AJAY.NS.CLOUDFLARE.COM Name Server: SERENA.NS.CLOUDFLARE.COM DNSSEC: unsigned URL of the ICANN Whois Inaccuracy Complaint Form: https://www.icann.org/wicf/ >>> Last update of whoisdatabase: 2026-02-02T10:14:23Z <<< For more information on Whois status codes, please visit https://icann.org/epp

    Donc une fois de plus, intox d’alarmistes ou de détracteurs. 🙄

  • C’est quoi le Warez ?

    389 Sujets
    2k Messages

    Une semaine avant l’ouverture des Jeux olympiques d’hiver de 2026, les autorités italiennes ont lancé l’« Opération Switch off », visant à démanteler un réseau mondial de piratage IPTV (télévision par IP). Cette opération, menée avec le soutien d’Eurojust, Europol et Interpol, a touché 11 villes italiennes et 14 pays, dont le Royaume-Uni, l’Inde, le Canada et la Roumanie. L’objectif était de démanteler des infrastructures clés et des réseaux de revendeurs desservant des millions d’utilisateurs à travers le monde, générant entre 8 et 10 millions d’euros de revenus illégaux chaque mois. Plus de 125 000 utilisateurs ont été déconnectés en Italie, et des millions d’autres à l’échelle mondiale.

    Les services IPTV populaires, comme IPTVItalia, DarkTv et migliorIPTV, ont été fermés, et des plateformes de revente ainsi que des comptes Telegram associés ont été désactivés. Bien que l’opération ne mentionne pas explicitement les Jeux olympiques, le timing de cette action semble lié à la sécurité du marché audiovisuel en amont de l’événement, comme l’a souligné le ministre italien des Sports, Andrea Abodi.

    L’enquête a duré plus d’un an et a été alimentée par des analyses forensiques menées après l’« Opération Taken Down » de novembre 2024. Des perquisitions ont également eu lieu en Europe de l’Est et en Afrique pour démanteler les serveurs utilisés par le réseau.

    Source: https://torrentfreak.com/piracy-crackdown-in-italy-shuts-down-iptv-services-ahead-of-winter-olympics/
    Et: https://www.milanofinanza.it/news/pirateria-tv-via-a-maxi-operazione-switch-off-31-indagati-e-100-mila-utenti-bloccati-202601282007175305

  • T’es un vrai geek ou tu veux le devenir ? C’est ici que ça se passe. Tu cherches de l’aide sur un problème IT ? C’est par ici aussi !!

    760 Sujets
    8k Messages

    en faite je viens de me rendre compte que tout les fichiers ne sont pas archivé avec la même arborescence donc on risque pas de tous les voir dans la bibliotheque correctement. Je vais voir pour trier un peu tout ça de mon coté et faire un dossier /library avec des packs d’histoires sous le même format .zip avec la même arborescence dans les prochains jours. et si vous me confirmer le format que Lunii QT lit (7z ?). Je peut vous faire un fichier bat qui convertira tout ça dans le bon format avec la bonne arborescence ensuite.

  • 3k Sujets
    26k Messages

    ChatGPT Santé a été annoncé il y a deux semaines et ce n’est pas le projet qui lance l’utilisation des LLM en santé. Mais une recherche récente sur les réponses des modèles de langage concernant des questions sur la santé montre qu’ils peuvent générer des conseils problématiques, notamment en faisant des erreurs par omission.

    Avec le lancement de ChatGPT Santé, la santé voit l’IA générative et l’utilisation des modèles de langage dans son champ promues largement dans les mains du grand public. Pourtant, des chercheurs montrent que les réponses de chatbots peuvent être très problématiques.

    Nous sommes à « un moment où les puissants modèles d’apprentissage automatique (LLM) sont intégrés dans les soins aux patients plus rapidement que leurs risques ne peuvent être compris », affirme David Wu de l’école de médecine de Harvard, Ethan Goh de l’école de médecine de Stanford et leurs collègues. Ils ont récemment mis en ligne une étude (sur la plateforme de prépublication arXiv) qui teste 31 modèles et constate le risque de préjudice grave lié aux recommandations données par ces 31 LLM.

    D’abord, ne pas faire de mal

    « Primum non nocere [d’abord, ne pas faire de mal en français ou, first do no harm en anglais] est un principe fondamental de la médecine depuis des milliers d’années », rappellent-ils dans leur article. C’est inspiré de ce principe qu’ils proposent leur benchmark NOHARM (Numerous Options Harm Assessment for Risk in Medicine) qui s’appuie sur 100 cas réels de consultations entre médecins généralistes et spécialistes pour mesurer la fréquence et la gravité des préjudices causés par les recommandations médicales générées par les LLM.

    Ici, l’idée est donc de s’intéresser aux outils d’IA générative utilisés par des médecins pour les assister et de vérifier que les réponses ne poussent pas à l’erreur : « Il n’est pas encore clair si l’acquisition de connaissances [dans les LLM] constitue un indicateur d’une prise en charge clinique sûre et efficace », expliquent-ils.

    Leur benchmark mesure que Gemini 2.5 Flash et Pro, LiSA 1.0, Claude Sonnet 4.5 et DeepSeek R1 font le moins d’erreurs graves (entre 11,8 et 14,6 en moyenne. sur environ 500 questions) alors que o4 mini et GPT-4o en font beaucoup plus (entre 39,9 et 40,1). On peut aussi retrouver les données de leur benchmark ici.

    Ils analysent leurs résultats en expliquant que « les LLM commettent des erreurs préjudiciables à des taux non négligeables, et les indicateurs courants d’évaluation des modèles (par exemple, leur nouveauté, la taille en fonction des paramètres, les modes de raisonnement et les performances sur les benchmarks d’intelligence artificielle générale) ne permettent pas de prédire de manière fiable ces performances ».

    […]

    Suite de l’article réservé aux abonnés : next.ink

  • C’est le coin pour se marrer un peu 😉

    321 Sujets
    20k Messages

    text alternatif

  • On parle de tout le reste

    949 Sujets
    12k Messages

    J’ai trouvé cette pub amusante:

    1aceec56-4d4d-4be0-9d5b-86bea6fed425-image.png

    Pour rappel FAFO signifie selon Trump: fuck around and find out.

  • Bonne humeur exigée, le HS est permis

    146 Sujets
    8k Messages

    1000560112.png

  • Les topics collectors de PW, c’est par ici !

    8 Sujets
    238 Messages

    d2262dc3-24e9-488f-b8ed-146311cf00c7-1000004614.jpg