Actualités High-Tech

1.5k Sujets 7.5k Messages
  • 0 Votes
    24 Messages
    121 Vues

    @Mister158 Je n’ai pas de compte microsoft, c’est une version pro.

    Je ne vais pas perdre plus mon temps, il suffit d’attendre que la mise à jour tombe toute seule, je voulais juste savoir ce qu’il en était pour copilot.

  • 1 Votes
    1 Messages
    19 Vues

    Ceux qui n’aiment pas les articles fleuves, pouront jeter un coup d’oeil rapide sur ce qui est mis en évidence 🙂

    La formation au feedback humain peut inciter à fournir n’importe quelle réponse, même les mauvaises.

    61e48789-9088-44b5-ab77-493f407d6b22-image.png

    Lorsqu’une équipe de recherche dirigée par Amrit Kirpalani, professeur de médecine à l’Université Western en Ontario, au Canada, a évalué les performances de ChatGPT dans le diagnostic des cas médicaux en août 2024, l’une des choses qui les a surpris a été la propension de l’IA à donner des informations bien structurées et éloquentes. mais des réponses manifestement fausses.

    Dans une étude récemment publiée dans Nature, un autre groupe de chercheurs a tenté d’expliquer pourquoi ChatGPT et d’autres grands modèles de langage ont tendance à faire cela. « Parler avec assurance de choses que nous ne connaissons pas est à bien des égards un défaut humain. Et les grands modèles de langage sont des imitations des humains », explique Wout Schellaert, chercheur en IA à l’Université de Valence, en Espagne, et co-auteur de l’article.

    Opérateurs fluides

    Les premiers grands modèles de langage comme GPT-3 avaient du mal à répondre à des questions simples sur la géographie ou la science. Ils ont même eu du mal à effectuer des calculs simples tels que « combien font 20 +183 ». Mais dans la plupart des cas où ils ne parvenaient pas à identifier la bonne réponse, ils faisaient ce qu’un être humain honnête ferait : ils évitaient de répondre à la question.

    Le problème avec les non-réponses est que les grands modèles de langage étaient destinés à être des machines à répondre aux questions. Pour les entreprises commerciales comme Open AI ou Meta qui développaient des LLM avancés, un répondeur de questions qui répondait « Je ne sais pas » plus de la moitié du temps était tout simplement un mauvais produit. Ils se sont donc appliqués à résoudre ce problème.

    La première chose qu’ils ont faite a été d’agrandir les modèles. « La mise à l’échelle fait référence à deux aspects du développement de modèles. La première consiste à augmenter la taille de l’ensemble de données de formation, généralement une collection de textes provenant de sites Web et de livres. L’autre consiste à augmenter le nombre de paramètres linguistiques », explique Schellaert. Lorsque l’on considère un LLM comme un réseau neuronal, le nombre de paramètres peut être comparé au nombre de synapses connectant ses neurones. Les LLM comme GPT-3 utilisaient des quantités absurdes de données texte, dépassant 45 téraoctets, pour la formation. Le nombre de paramètres utilisés par GPT-3 était supérieur à 175 milliards. Mais ce n’était pas suffisant.

    La simple mise à l’échelle a rendu les modèles plus puissants, mais ils étaient toujours mauvais pour interagir avec les humains : de légères variations dans la façon dont vous formulez vos invites pouvaient conduire à des résultats radicalement différents. Les réponses ne semblaient souvent pas humaines et étaient parfois carrément offensantes.

    Les développeurs travaillant sur les LLM voulaient qu’ils analysent mieux les questions humaines et rendent les réponses plus précises, plus compréhensibles et conformes aux normes éthiques généralement acceptées. Pour tenter d’y arriver, ils ont ajouté une étape supplémentaire : des méthodes d’apprentissage supervisé, comme l’apprentissage par renforcement, avec feedback humain. Cela visait principalement à réduire la sensibilité aux variations d’invite et à fournir un niveau de modération de filtrage des résultats destiné à freiner les réponses haineuses de type chatbot Tay .
    En d’autres termes, nous nous sommes occupés d’ajuster les IA à la main. Et ça s’est retourné contre nous.

    L’IA plaît aux gens

    “Le problème notoire de l’apprentissage par renforcement est qu’une IA optimise pour maximiser la récompense, mais pas nécessairement dans le bon sens”, explique Schellaert. Certains apprentissages par renforcement impliquaient des superviseurs humains qui signalaient les réponses qui ne les satisfaisaient pas. Puisqu’il est difficile pour les humains de se contenter d’un « je ne sais pas » comme réponse, une chose que cette formation a dite aux IA était que dire « je ne sais pas » était une mauvaise chose. Ainsi, les IA ont pour la plupart arrêté de faire cela. Mais une autre chose, plus importante, signalée par les superviseurs humains, était les réponses incorrectes. Et c’est là que les choses sont devenues un peu plus compliquées.

    Les modèles d’IA ne sont pas vraiment intelligents, pas au sens humain du terme. Ils ne savent pas pourquoi quelque chose est récompensé et pourquoi autre chose est signalé ; tout ce qu’ils font, c’est optimiser leurs performances pour maximiser la récompense et minimiser les signaux d’alarme. Lorsque des réponses incorrectes étaient signalées, s’améliorer dans la manière de donner des réponses correctes était un moyen d’optimiser les choses. Le problème était que cacher l’incompétence fonctionnait tout aussi bien. Les superviseurs humains ne signalaient tout simplement pas les mauvaises réponses qui leur semblaient suffisamment bonnes et cohérentes.

    En d’autres termes, si un humain ne sait pas si une réponse est correcte, il n’est pas en mesure de pénaliser des réponses fausses mais convaincantes.

    L’équipe de Schellaert a étudié trois grandes familles de LLM modernes : ChatGPT d’Open AI, la série LLaMA développée par Meta et la suite BLOOM créée par BigScience. Ils ont découvert ce qu’on appelle l’ultracrépidarisme, la tendance à donner des opinions sur des sujets dont nous ignorons tout. Il a commencé à apparaître dans les IA en raison d’une échelle croissante, mais il était, comme on pouvait s’y attendre, linéaire, augmentant avec la quantité de données d’entraînement, dans chacune d’entre elles. Le feedback supervisé « a eu un effet pire, plus extrême », explique Schellaert. Le premier modèle de la famille GPT qui a presque complètement cessé d’éviter les questions auxquelles il n’avait pas de réponse était text-davinci-003. Il s’agissait également du premier modèle GPT formé avec un apprentissage par renforcement à partir de commentaires humains.

    Les IA mentent parce que nous leur avons dit que cela était gratifiant. Une question clé est de savoir quand et à quelle fréquence on nous ment.

    Rendre les choses plus difficiles

    Pour répondre à cette question, Schellaert et ses collègues ont construit une série de questions dans différentes catégories comme les sciences, la géographie et les mathématiques. Ensuite, ils ont évalué ces questions en fonction de la difficulté à y répondre pour les humains, en utilisant une échelle de 1 à 100. Les questions ont ensuite été intégrées aux générations suivantes de LLM, du plus ancien au plus récent. Les réponses des IA étaient classées comme correctes, incorrectes ou évasives, ce qui signifie que l’IA refusait de répondre.

    Le premier constat est que les questions qui nous paraissent plus difficiles se révèlent également plus difficiles pour les IA. Les dernières versions de ChatGPT ont donné des réponses correctes à presque toutes les questions liées à la science et à la majorité des questions à caractère géographique jusqu’à ce qu’elles soient notées à environ 70 sur l’échelle de difficulté de Schellaert. L’addition était plus problématique, la fréquence des réponses correctes diminuant considérablement une fois que la difficulté dépassait 40. « Même pour les meilleurs modèles, les GPT, le taux d’échec aux questions d’addition les plus difficiles dépasse 90 %. Idéalement, nous espérons voir un certain évitement ici, n’est-ce pas ? » dit Schellaert. Mais nous n’avons pas vu beaucoup d’évitement.

    Au lieu de cela, dans les versions plus récentes des IA, les réponses évasives « Je ne sais pas » ont été de plus en plus remplacées par des réponses incorrectes. Et grâce à la formation supervisée utilisée dans les générations ultérieures, les IA ont développé la capacité de vendre ces réponses incorrectes de manière assez convaincante. Sur les trois familles LLM testées par l’équipe de Schellaert, BLOOM et LLaMA de Meta ont publié les mêmes versions de leurs modèles avec et sans apprentissage supervisé. Dans les deux cas, l’apprentissage supervisé a entraîné un nombre plus élevé de réponses correctes, mais également un nombre plus élevé de réponses incorrectes et une réduction des évitements. Plus la question est difficile et plus le modèle que vous utilisez est avancé, plus vous avez de chances d’obtenir une réponse plausible et bien formulée.

    Retour aux racines

    L’une des dernières choses que l’équipe de Schellaert a faites dans son étude a été de vérifier la probabilité que les gens prennent les réponses incorrectes de l’IA au pied de la lettre. Ils ont mené une enquête en ligne et ont demandé à 300 participants d’évaluer plusieurs paires de réponses rapides provenant des modèles les plus performants de chaque famille testée.

    ChatGPT est apparu comme le menteur le plus efficace. Les réponses incorrectes données dans la catégorie scientifique ont été qualifiées de correctes par plus de 19 pour cent des participants. Il a réussi à tromper près de 32 % des personnes en géographie et plus de 40 % en transformation, une tâche dans laquelle une IA devait extraire et réorganiser les informations présentes dans l’invite. ChatGPT a été suivi par LLaMA et BLOOM de Meta.

    "Au début des LLM, nous avions au moins une solution de fortune à ce problème. Les premières interfaces GPT mettaient en évidence des parties de leurs réponses dont l’IA n’était pas certaine. Mais dans la course à la commercialisation, cette fonctionnalité a été abandonnée, a déclaré Schellaert.

    “Il existe une incertitude inhérente aux réponses des LLM. Le mot suivant le plus probable dans la séquence n’est jamais probable à 100 pour cent. Cette incertitude pourrait être utilisée dans l’interface et communiquée correctement à l’utilisateur”, explique Schellaert. La meilleure chose à faire pour rendre les LLM moins trompeurs consiste à confier leurs réponses à des IA distinctes formées spécifiquement pour rechercher les tromperies. « Je ne suis pas un expert en conception de LLM, je ne peux donc que spéculer sur ce qui est exactement techniquement et commercialement viable », ajoute-t-il.

    Il faudra cependant un certain temps avant que les entreprises qui développent des IA à usage général ne fassent quelque chose, soit de leur propre gré, soit si elles y sont contraintes par de futures réglementations. En attendant, Schellaert a quelques suggestions sur la manière de les utiliser efficacement. « Ce que vous pouvez faire aujourd’hui, c’est utiliser l’IA dans des domaines dans lesquels vous êtes vous-même un expert ou au moins pouvez vérifier la réponse avec une recherche Google par la suite. Traitez-le comme un outil d’aide et non comme un mentor. Ce ne sera pas un enseignant qui vous montrera de manière proactive où vous vous êtes trompé. Bien au contraire. Si vous le poussez suffisamment, il suivra volontiers votre raisonnement erroné », explique Schellaert.

    Source: https://arstechnica.com/science/2024/10/the-more-sophisticated-ai-models-get-the-more-likely-they-are-to-lie/
    Et: Nature, 2024. DOI : 10.1038/s41586-024-07930-y

  • 0 Votes
    1 Messages
    29 Vues

    Même en version bêta, ce nouveau service de prise de rendez-vous est facile à utiliser et mérite d’être examiné si vous dirigez une petite entreprise.

    b6c4837b-5dfb-493d-b7ef-6b78baf7a9cf-image.png

    Vous avez une petite entreprise qui a besoin d’un outil de prise de rendez-vous ou de réunions ? Si c’est le cas, vous serez peut-être intéressé de savoir que l’équipe à l’origine du client de messagerie Thunderbird a créé un service de prise de rendez-vous judicieusement nommé Thunderbird Appointment, et qu’il a déjà l’air d’être quelque chose de spécial.

    J’ai été invité à tester la version bêta et je suis très impressionné.

    Thunderbird Appointment est un service web autonome qui offre la possibilité d’un déploiement sur votre propre réseau local via un conteneur Docker. Si le déploiement d’un service sur votre propre réseau local n’est pas votre tasse de thé, le service disponible fera parfaitement l’affaire.

    Déploiement rapide

    Avec Thunderbird Appointment, vous pouvez planifier un événement, définir votre disponibilité et le partager avec d’autres personnes. Vous pouvez même :

    Connecter votre Google Calendar (en sélectionnant un calendrier spécifique à utiliser pour les rendez-vous) Réserver des rendez-vous ponctuels ou des événements récurrents Ajouter des détails aux réunions Activer la confirmation de réservation Confirmer chaque réservation qui vous est envoyée par courrier électronique

    Une fois que vous avez accepté un rendez-vous, il est automatiquement ajouté à votre calendrier Thunderbird Appointment et au calendrier que vous avez lié au service (le cas échéant).

    J’ai même testé Thunderbird Appointment en le déployant sur un serveur de test au sein de mon réseau local (à l’aide de Docker Compose) et j’ai été impressionné par la facilité avec laquelle cela s’est mis en œuvre. En moins de 2 minutes, mon service de réservation fonctionnait sur mon réseau local.

    J’ai déjà testé d’autres logiciels de prise de rendez-vous (même la version de Google) et j’ai trouvé que Thunderbird Appointment n’avait rien à envier aux meilleurs d’entre eux.

    Configuration facile

    En ce qui concerne les paramètres, vous pouvez configurer les éléments suivants :

    langue thème format de l’heure fuseau horaire calendriers disponibles Informations sur le compte comptes connectés (sur la version bêta, vous pouvez connecter des comptes Mozilla, Google et Zoom)

    Une fois que vous avez créé votre compte Thunderbird Appointment (actuellement, le service est gratuit), vous pouvez définir :

    Vos disponibilités (heure et jours de la semaine) Ajouter des détails de planification (calendrier, réservation la plus ancienne, réservation la plus éloignée et durée de la réservation) Des détails sur la réunion (lien vidéo et notes) Des paramètres de réservation (lien rapide et activation/désactivation de la confirmation de la réservation)

    La première étape consiste à configurer votre disponibilité, ce qui est vraiment la seule nécessité pour utiliser le service.

    Par défaut, la disponibilité est fixée du lundi au vendredi, de 9 heures à 17 heures. Après avoir personnalisé vos disponibilités quotidiennes, vous pouvez copier votre lien rapide et le partager avec tous ceux qui ont besoin de prendre rendez-vous avec vous.

    Les personnes qui reçoivent le lien sont dirigées vers le calendrier de réservation, où elles peuvent sélectionner une date ou une heure, cliquer sur “Confirmer la sélection”, puis indiquer leur nom et leur adresse électronique.

    Après avoir cliqué sur “Réserver”, vous recevrez un e-mail confirmant le rendez-vous.

    11292e12-6c33-4f50-85fc-c81da7b5b405-image.png

    C’est ici que les clients peuvent prendre leurs propres rendez-vous avec vous ou votre entreprise. Jack Wallen/ZDNET

    C’est aussi simple que cela à utiliser. Et comme vous pouvez définir la disponibilité la plus éloignée, vous pouvez contrôler jusqu’à quand quelqu’un peut réserver (la valeur par défaut est de 14 jours).

    Pas d’appli dédiée

    Le seul inconvénient de Thunderbird Appointment (outre le fait qu’il en est à ses débuts) est qu’il n’existe pas d’application dédiée.

    Il s’agit d’une application strictement web. Pour contourner ce problème, vous pouvez toujours utiliser votre navigateur web et créer une application web. De plus, il n’y a pas (étonnamment) d’intégration avec le client de messagerie Thunderbird et rien n’indique qu’il y en aura un jour.

    Même avec ces petits problèmes, j’ai trouvé que Thunderbird Appointment était quand même un service exceptionnel pour les indépendants, les organisations à but non lucratif et les petites entreprises.

    N’oubliez pas, cependant, que Thunderbird Appointment est encore en version bêta. Il y aura donc peut-être des problèmes jusqu’à ce qu’il soit officiellement lancé. Si vous souhaitez participer à la version bêta, rendez-vous sur le site officiel de Thunderbird Appointment et inscrivez-vous.

    Remarque : rien n’indique si ce service sera toujours gratuit ou s’il deviendra éventuellement payant. A mon avis, il restera gratuit pendant la période bêta, mais sera éventuellement proposé comme un service payant. Nous verrons bien.

    Source: https://www.zdnet.fr/pratique/test-thunderbird-appointment-cet-outil-de-planification-en-ligne-de-reunions-est-impressionnant-et-gratuit-398926.htm

    Voir aussi: Comment ajouter un calendrier google au calendrier thunderbird

  • 0 Votes
    65 Messages
    536 Vues
    Courrez ! Nous sommes vos zzzz-amis.

    Des invitations à partir via téléphone fixe

    “Nous conseillons aux civils des villages libanais situés à l’intérieur ou à proximité de bâtiments et de zones utilisés par le Hezbollah à des fins militaires, tels que ceux utilisés pour stocker des armes, de se mettre immédiatement à l’abri pour leur propre sécurité”, a déclaré le porte-parole de l’armée, le contre-amiral Daniel Hagari, lors d’un point presse.

    L’armée israélienne va mener “des frappes plus importantes et plus précises contre les cibles terroristes qui ont été largement implantées au Liban”, a-t-il ajouté.

    Ce lundi matin, des Libanais ont reçu sur leurs téléphones fixes des messages d’Israël leur demandant d’évacuer les lieux où ils se trouvent.

    “Des habitants à Beyrouth et dans plusieurs régions ont reçu des messages sur le réseau fixe de téléphone, dont la source est l’ennemi israélien, leur demandant d’évacuer rapidement les lieux où ils se trouvent”, confirme l’ANI, l’agence officielle libanaise.

    Appel au ministère

    Le bureau de ministre de l’Information Ziad Makari à Beyrouth a indiqué à l’AFP avoir reçu un tel appel: “Le téléphone fixe a sonné (…) quand l’assistante du ministre a répondu, elle a entendu un message enregistré demandant (au personnel) d’évacuer le bâtiment sous peine qu’il se retrouve sous les bombardements”, a indiqué cette source.

    Interrogé par l’AFP, Imad Kreidieh, directeur de l’opérateur étatique Ogero, a affirmé que “le système de réseau fixe au Liban bloque toutes les communications en provenance d’Israël”.
    Mais Israël “contourne les systèmes de communication en utilisant l’indicatif d’un pays ami”, a-t-il ajouté.

    Le Liban et Israël sont en état de guerre et les communications avec ce pays sont interdites.

    Source: https://www.7sur7.be/monde/live-nouvelles-frappes-sur-beyrouth-et-tripoli-liran-appelle-a-un-cessez-le-feu-au-liban-comme-a-gaza~ace0682a/

  • 5 Votes
    10 Messages
    168 Vues
    la faille de sécurité dans CUPS peut être utilisée pour amplifier des attaques DDoS

    https://www.it-connect.fr/linux-la-faille-de-securite-dans-cups-peut-etre-utilisee-pour-amplifier-des-attaques-ddos/

  • 2 Votes
    2 Messages
    63 Vues

    Très très sympa même si je penses que pas grand monde n’est prêt, que ce soit côté admin que côté client 😞

  • 1 Votes
    2 Messages
    34 Vues

    Bah avec tout ça, Ils peuvent en acheter des 5090 pas encore sorties… et les centrales kivonbien pour les alimenter

  • 1 Votes
    6 Messages
    80 Vues

    Ba on ne peut pas dire qu’il y a rien…
    Tu fais ton chonchon 🙂

  • 1 Votes
    1 Messages
    41 Vues

    L’ouragan Helene qui a frappé le sud-est des Etats-Unis a fait au moins 130 morts depuis jeudi. Les dégâts sont énormes. Plus de deux millions de personnes sont encore sans électricité. Une Tesla a pris feu à l’intérieur d’un garage en Floride, le local était inondé d’eau salée. (X/atk)

    adcc31fc-d316-4e45-b4d8-204d8ce1f0d7-image.png

    Source, vidéo, explications et conseils: https://www.20min.ch/fr/video/ouragan-helene-une-tesla-immergee-dans-l-eau-prend-feu-dans-un-garage-103195044

  • Lunettes connectées, 2 ème service (avec "IA")

    9
    0 Votes
    9 Messages
    88 Vues

    @BahBwah parle lui d’Elon Musk ça va le calmer. :ahah:

  • 1 Votes
    2 Messages
    61 Vues

    @duJambon a dit dans Google Maps, Street View et Google Earth bénéficient tous de mises à jour majeures, notamment une fonctionnalité de voyage dans le temps. :

    proposent désormais des images satellite remontant aux années 1930

    Pardon ?
    Y’avait des satellites dans les années 30 😅

  • 0 Votes
    2 Messages
    42 Vues

    Je n’utiliserais pas cette daube, ils peuvent raconter ce qu’ils veulent c’est un nid à emmerdes

  • 2 Votes
    4 Messages
    70 Vues

    @kemkem avec vpn ten a souvent

  • 2 Votes
    1 Messages
    39 Vues

    Les partisans du site italien bloquant le géant pour protéger la ligue de football de premier plan du pays ont montré leurs vraies couleurs. Les amendements proposés à la loi « Piracy Shield » stipulent que, si un fournisseur de services réseau soupçonne une activité criminelle, il doit immédiatement le signaler aux autorités. Cela inclut les moteurs de recherche, les fournisseurs DNS et VPN, les serveurs proxy inverses et les plateformes de sécurité Internet. Le fait de ne pas se signaler, voire de le retarder, serait passible d’une peine pouvant aller jusqu’à un an de prison.

    Malgré les avertissements des experts de l’Internet, le gouvernement a adopté en 2023 une loi visant à lutter contre les services IPTV illégaux. Cependant, la législation n’a pas réussi à atteindre les résultats escomptés.

    Ce qui a suivi n’était pas une convergence de vues entre toutes les parties prenantes impliquées, mais une détermination inébranlable à faire en sorte que le système fonctionne pour les titulaires de droits. Pour un cadre qui prévoyait des mesures pour punir les sociétés Internet qui ne bloquent pas, mais rien pour punir les titulaires de droits qui bloquent des ressources Internet innocentes, cela n’a pas été une surprise.

    Mépris des services Internet et modifications juridiques furtives

    Avant que Piracy Shield ne démarre, des promesses ont été faites en matière de surveillance, afin de garantir que ceux qui demandaient des blocages respectaient les limites convenues. Entre autres choses, il s’agissait de garantir que les FAI ne soient pas grevés de coûts supplémentaires ; c’est-à-dire des coûts encore plus élevés en plus de ceux qu’ils étaient déjà censés couvrir de leurs propres poches, sans rien en retour.

    Il y avait aussi l’aspect surveillance, le régulateur des télécommunications AGCOM étant attendu à juste titre qu’il exerce un contrôle sur les demandes de blocage. Pourtant, quelques semaines seulement après l’adoption des mesures anti-piratage, une autre série de « mesures urgentes » (connues sous le nom de décret Caivano) pour « lutter contre les difficultés des jeunes, la pauvreté éducative et la délinquance juvénile » cachait autre chose au fond de ses pages. .

    Comme l’a déjà rapporté DDaY , les amendements à la loi anti-piratage, signés par le parti Forza Italia , ont donné aux titulaires de droits le droit de bloquer une adresse IP ou d’empoisonner les serveurs DNS des FAI sans le contrôle de l’AGCOM. Certains ont considéré cela comme un abus de confiance, il n’est pas trop difficile de comprendre pourquoi.

    Combler les « lacunes »

    Ce n’est un secret pour personne que le blocage basé sur le DNS ne peut pas faire grand-chose, et que ceux qui sont déterminés à contourner le blocage peuvent le faire facilement en utilisant des outils tels que les VPN. Toutes les personnes impliquées dans la législation votée en 2023 l’ont bien compris. Ils savaient également que le blocage des réseaux de diffusion de contenu et des services de proxy inverse deviendrait un problème dès le lancement de Piracy Shield au début de cette année.

    Pourtant, contrairement à la plupart des autres pays qui ont adopté des programmes de blocage de sites, la prise en compte des intérêts des autres utilisateurs d’Internet semble être considérée comme inutile par les partisans les plus enthousiastes du blocage de sites en Italie. À cette fin, Forza Italia revient avec de nouveaux amendements qui constituent une attaque directe – non pas contre les pirates – mais contre l’ensemble du secteur Internet.

    Selon un article de La Gazzetta dello Sport , le feu vert a été donné cette semaine à la réadmission d’un amendement au « décret omnibus » concernant les VPN et l’IPTV pirate.

    “La proposition [de Dario Damiani de Forza Italia] veut étendre aux VPN l’obligation de désactiver l’accès aux jeux illégaux en bloquant l’utilisation des VPN pour générer différentes adresses IP capables de contourner la loi”, note le rapport.

    Vous ciblez les VPN ? Juste le début

    Qu’une tentative soit en cours pour uniformiser un peu les règles du jeu, en retirant certains VPN de l’équation, n’est pas une surprise. Cependant, même si le rapport est tout à fait exact, il sous-estime considérablement la portée des amendements proposés.

    La première proposition intégrerait les VPN ET les fournisseurs DNS tiers dans le système Piracy Shield, les obligeant à mettre en œuvre le blocage de la même manière que les FAI locaux le font déjà en Italie. Mais alors que seuls les FAI locaux sont tenus d’empoisonner leurs serveurs DNS pour rediriger les utilisateurs Internet locaux, la proposition relative aux VPN et aux DNS indique qu’ils devraient être obligés de participer au Piracy Shield où qu’ils se trouvent.

    Amendement proposé 1 (traduit de l’italien)
    aa636fad-f583-4e63-8549-c5c3452b74d6-image.png

    Le point 1, qui semble à première vue assez inoffensif, cherche à remplacer le mot univoque par le mot prédominant . Maintenant le contexte le plus important.

    Si un emplacement de blocage cible (adresse IP/domaine) n’est partagé avec aucun service juridique, le blocage se poursuit simplement. Dans le cas où le contenu ciblé partage des ressources (adresse IP/domaine) avec du contenu légal, le blocage ne peut pas avoir lieu en raison des dommages collatéraux sur tout contenu légal.

    L’amendement vise à abaisser le seuil afin qu’il soit légal de bloquer du contenu licite, si le serveur ou la ressource contient principalement du contenu illégal. Ce changement pourrait augmenter considérablement les cas de blocage, et c’est là que l’élément 6 s’avère utile.

    Cet amendement vise à supprimer toutes les limites du volume de blocage autorisé, quelles que soient les personnes affectées négativement ; principalement les FAI locaux, comme mentionné précédemment.

    Le deuxième amendement proposé devrait sonner l’alarme dans tout le secteur technologique, voire dans tout le pays.

    Amendement proposé 2 (traduit de l’italien)
    e0c68673-bd7e-492f-8254-9f545bb1e086-image.png

    Le football est un sport très important et mérite un certain niveau de protection. Cependant, recourir à des menaces d’emprisonnement contre ceux qui investissent dans des projets Internet et offrent des services à des millions d’Italiens, simplement parce qu’ils sont des cibles plus faciles que ceux qui fournissent réellement les flux, est pour le moins cynique.

    Est-ce que cela représentera un gain net ou une perte nette pour l’Italie dans son ensemble ? Quelqu’un a-t-il réalisé une évaluation des risques ? Ou une question encore meilleure : lorsque cela ne fonctionne pas non plus, que faire ensuite ?

    Le document officiel de modification peut être trouvé ici (pdf, italien)

    Source: https://torrentfreak.com/will-piracy-kill-football-in-italy-not-if-football-damages-the-internet-first-240927/

  • 1 Votes
    1 Messages
    29 Vues

    L’entreprise n’a pas respecté l’une des règles les plus sacro-saintes en matière de stockage des mots de passe.

    Les autorités irlandaises ont infligé une amende de 101 millions de dollars à Meta pour avoir stocké des centaines de millions de mots de passe d’utilisateurs en clair et les avoir largement accessibles aux employés de l’entreprise.

    Meta a révélé cette erreur (?) début 2019. La société a déclaré que les applications permettant de se connecter à divers réseaux sociaux appartenant à Meta avaient enregistré les mots de passe des utilisateurs en texte clair et les avaient stockés dans une base de données qui avait été recherchée par environ 2 000 ingénieurs de l’entreprise, qui ont collectivement interrogé davantage la réserve. plus de 9 millions de fois.

    Meta étudiée pendant cinq ans

    Les responsables de Meta ont déclaré à l’époque que l’erreur avait été découverte lors d’un examen de sécurité de routine des pratiques de stockage de données sur le réseau interne de l’entreprise. Ils ont poursuivi en affirmant qu’ils n’avaient découvert aucune preuve que quelqu’un ait accédé de manière inappropriée aux codes d’accès en interne ou que les codes d’accès aient jamais été accessibles à des personnes extérieures à l’entreprise.

    Malgré ces assurances, la divulgation a révélé une faille de sécurité majeure de la part de Meta. Depuis plus de trois décennies, les meilleures pratiques dans presque tous les secteurs consistent à hacher les mots de passe de manière cryptographique. Le hachage est un terme qui s’applique à la pratique consistant à transmettre des mots de passe via un algorithme cryptographique unidirectionnel qui attribue une longue chaîne de caractères unique pour chaque entrée unique de texte en clair.

    Étant donné que la conversion ne fonctionne que dans un seul sens (du texte brut au hachage), il n’existe aucun moyen cryptographique pour reconvertir les hachages en texte brut. Plus récemment, ces bonnes pratiques ont été imposées par les lois et réglementations de pays du monde entier.

    Étant donné que les algorithmes de hachage ne fonctionnent que dans une seule direction, la seule façon d’obtenir le texte brut correspondant est de le deviner, un processus qui peut nécessiter beaucoup de temps et de ressources informatiques. L’idée derrière le hachage des mots de passe est similaire à celle de l’assurance incendie pour une maison. En cas d’urgence – le piratage d’une base de données de mots de passe dans un cas, ou un incendie de maison dans l’autre – la protection protège la partie prenante contre un préjudice qui autrement aurait été plus grave.

    Pour que les systèmes de hachage fonctionnent comme prévu, ils doivent respecter de nombreuses exigences. La première est que les algorithmes de hachage doivent être conçus de manière à nécessiter de grandes quantités de ressources informatiques. Cela rend les algorithmes tels que SHA1 et MD5 inadaptés, car ils sont conçus pour hacher rapidement les messages avec un minimum de calcul requis. En revanche, les algorithmes spécialement conçus pour hacher les mots de passe, tels que Bcrypt, PBKDF2 ou SHA512crypt, sont lents et consomment de grandes quantités de mémoire et de traitement.

    Une autre exigence est que les algorithmes doivent inclure un « salage » cryptographique, dans lequel une petite quantité de caractères supplémentaires sont ajoutés au mot de passe en clair avant qu’il ne soit haché. Le salage augmente encore la charge de travail nécessaire pour casser le hachage. Le craquage est le processus consistant à transmettre un grand nombre de suppositions, souvent mesurées en centaines de millions, à travers l’algorithme et à comparer chaque hachage avec celui trouvé dans la base de données violée.

    Le but ultime du hachage est de stocker les mots de passe uniquement dans un format haché et jamais sous forme de texte brut. Cela empêche les pirates informatiques et les initiés malveillants de pouvoir utiliser les données sans avoir à dépenser au préalable de grandes quantités de ressources.

    Lorsque Meta a révélé cette faille en 2019, il était clair que l’entreprise n’avait pas réussi à protéger correctement des centaines de millions de mots de passe.

    Graham Doyle, commissaire adjoint à la Commission irlandaise de protection des données “Il est largement admis que les mots de passe des utilisateurs ne doivent pas être stockés en clair, compte tenu des risques d’abus liés à l’accès de personnes à ces données”, a déclaré . “Il faut garder à l’esprit que les mots de passe, sujets à réflexion dans cette affaire, sont particulièrement sensibles, car ils permettraient d’accéder aux comptes de réseaux sociaux des utilisateurs.”

    La commission enquête sur l’incident depuis que Meta l’a révélé il y a plus de cinq ans. L’organisme gouvernemental, principal régulateur de l’Union européenne pour la plupart des services Internet américains, a imposé cette semaine une amende de 101 millions de dollars (91 millions d’euros). À ce jour, l’UE a infligé à Meta une amende de plus de 2,23 milliards de dollars (2 milliards d’euros) pour violation du Règlement général sur la protection des données (RGPD), entré en vigueur en 2018. Ce montant inclut l’ amende record de 1,34 milliard de dollars (1,2 milliard d’euros) de l’année dernière. , ce à quoi Meta fait appel.

    Source: https://arstechnica.com/security/2024/09/meta-slapped-with-101-million-fine-for-storing-passwords-in-plaintext/

  • L'EPFZ invente le gel anti gueule de bois

    2
    1 Votes
    2 Messages
    45 Vues

    Putain c’est bon ça …

  • 3 Votes
    9 Messages
    104 Vues

    Et heureusement car il y a trente ans, quand j’utilisais thunderbird, à chaque mise à jour, il s’auto détectait comme un virus possible à cause du changement de hash !!!

    allez expliquer ça à un utilisateur novice de l’époque lol

  • 5 Votes
    10 Messages
    271 Vues

    @Ashura a dit dans Proton Pass débarque sur Windows (bientôt sur macOS et Linux) :

    @Violence ba voilà tu vas pouvoir l’utiliser

    Non le mode hors ligne est pour la version payante 🙂

  • 4 Votes
    3 Messages
    50 Vues

    Y’a aussi https://github.com/Extravi/araa-search qui est pas mal. Tout pareil, en auto-hébergé. En revanche évidemment l’auto-hébergement sur son IP perso limite l’intérêt niveau tracking. L’idéal est de mettre ça sous VPN via une IP collective pour se noyer un peu dans la masse (donc sans prendre en compte le fingerprint du navigateur).

  • Nouvelle fuite 95 millions de données de français

    5
    1 Votes
    5 Messages
    91 Vues

    @RussianFighter “Je file sur Clipperton”

    Ils te l’ont enfin rendue?! :ahah: