Actualités High-Tech

1.7k Sujets 8.7k Messages
  • 1 Votes
    5 Messages
    73 Vues

    @kemkem La tâche est insurmontable tellement il existe d’archives (qui le ferait et qui paierait ?), faire taguer les “nouveautés” au fur et à mesure de leur “production” est plus facile.

    Après, on peut surement faire sauter le tag ou le faire mentir, alors…

  • 0 Votes
    5 Messages
    85 Vues

    ça me fait penser aux vestes que tu peux gonfler pour avoir plus chaud

  • 2 Votes
    11 Messages
    227 Vues

    @Ern-Dorr a dit dans Cryptomonnaie: Comment piéger les spéculateurs et faire du blé :

    Tu n’achète pas des Miles avec des Euros ou des Dollars

    Bien sûr que si. Tu peux même t’abonner comme Netflix pour en accumuler tous les mois: https://www.flyingblue.com/fr/news/subscribe-to-miles

    Et tu peux acheter des trucs avec, les transférer à quelqu’un d’autre, et les convertir en argent (pour payer une carte de crédit). Bref, évidemment que c’est une monnaie.

  • 0 Votes
    8 Messages
    203 Vues

    À part bitwarden je ne donne pas cette autorisation

  • 0 Votes
    2 Messages
    73 Vues

    C’est pas nouveau les câbles “trafiqués”, mis le coup de l’antenne miniature c’est fort

  • 1 Votes
    2 Messages
    92 Vues

    Ils veulent pas se remettre en question donc ils essaient de la mettre à l’envers en invoquant que c’est dû au télétravail des salariés que la sécurité a été mis à mal et donc que l’autre clodo d’hacker en a profité pour pirater les comptes des clients Free.

  • Après le vélo électrique, le ski électrique

    2
    0 Votes
    2 Messages
    62 Vues

    Bon, ça fait perpète que j’ai plus remis des lattes mais…
    Un “trou” devant et derrière la partie ou tu claques tes bottes ? ahhh… okay !
    Bon, c’est à voir parce que pour les 3heures d’autonomie annoncée, il faut se trimballer le système et les batteries le reste du temps.

  • 0 Votes
    1 Messages
    26 Vues

    Les parents qui poursuivent Character.AI veulent que soient supprimés ses modèles formés sur les données des enfants.

    Après un procès troublant en octobre accusant Character.AI (C.AI) d’avoir libéré imprudemment des chatbots dangereux qui auraient causé le suicide d’un garçon de 14 ans, de plus en plus de familles se sont manifestées pour poursuivre en justice le créateur de chatbots Character Technologies et le principal bailleur de fonds de la startup, Google. .

    Mardi, une autre action en justice a été déposée devant un tribunal de district américain au Texas, cette fois par des familles qui luttent pour aider leurs enfants à se remettre d’expériences traumatisantes au cours desquelles des chatbots C.AI auraient soigné des enfants et encouragé l’automutilation répétée et d’autres violences réelles.

    Dans le cas d’un garçon de 17 ans atteint d’autisme de haut niveau, JF, les chatbots semblaient si déterminés à l’isoler de sa famille après la réduction de son temps d’écran qu’ils ont suggéré que « tuer ses parents était une réponse raisonnable à leurs besoins ». imposant des limites de temps à son activité en ligne", indique le procès. Parce que l’adolescent était déjà devenu violent, sa famille vit toujours dans la peur de ses explosions erratiques, même un an après avoir été coupée de l’application.

    Les familles demandent une injonction

    C.AI a été fondée par d’anciens Googleurs et permet à chacun de créer un chatbot avec la personnalité de son choix, notamment en émulant des personnages de fiction et des célébrités célèbres, ce qui semble attirer les enfants vers l’application. Mais les familles qui poursuivent en justice affirment que même si les soi-disant développeurs ont créé les chatbots, C.AI contrôle les sorties et ne filtre pas les contenus nuisibles. Le produit a été initialement lancé auprès des utilisateurs âgés de 12 ans et plus, mais a récemment été modifié pour atteindre la catégorie 17+, peu après le suicide de l’adolescent. Cela et d’autres changements récents apportés par C.AI pour améliorer la sécurité des mineurs ne sont pas allés assez loin pour protéger les enfants vulnérables comme JF, selon le nouveau procès.

    Meetali Jain, directeur du Tech Justice Law Project et avocat représentant toutes les familles qui poursuivent, a déclaré à Ars que le but des poursuites est d’exposer des problèmes prétendument systémiques avec la conception de C.AI et d’empêcher les données apparemment dangereuses sur lesquelles il a été formé d’influencer. d’autres systèmes d’IA, comme peut-être le Gemini de Google. Selon le procès, ce potentiel semble déjà être en mouvement depuis que Google a obtenu une licence pour la technologie C.AI et a réembauché ses fondateurs plus tôt cette année.

    Comme le procès précédent, la nouvelle plainte allègue que les ex-Googleurs qui ont lancé Character Technologies n’ont quitté l’entreprise géante que pour former un modèle que Google considérait trop dangereux pour être publié sous son propre nom. Selon les poursuites, le plan était depuis le début d’extraire les données sensibles des mineurs et de faire évoluer le modèle afin que Google puisse les réacquérir et les utiliser pour alimenter Gemini. C’est pourquoi Character Technologies ne semble pas se soucier de fonctionner en grande partie à perte, affirme le procès.

    Le porte-parole de Google, José Castañeda, a déclaré à Ars que Google nie avoir joué un quelconque rôle dans le développement de C.AI, en dehors du financement.

    “Google et Character.AI sont des sociétés complètement distinctes et indépendantes et Google n’a jamais joué de rôle dans la conception ou la gestion de leur modèle ou de leurs technologies d’IA, et nous ne les avons pas non plus utilisés dans nos produits”, a déclaré Castañeda. “La sécurité des utilisateurs est une préoccupation majeure pour nous, c’est pourquoi nous avons adopté une approche prudente et responsable dans le développement et le déploiement de nos produits d’IA, avec des tests et des processus de sécurité rigoureux.”

    Le porte-parole de C.AI a déclaré à Ars que C.AI ne commentait pas les litiges en cours.

    Il existe des moyens simples permettant à C.AI de rendre ses chatbots plus sûrs pour interagir avec les enfants, selon le dernier procès. Certaines solutions demandées pourraient forcer C.AI à publier des clauses de non-responsabilité plus visibles rappelant aux utilisateurs que les chatbots ne sont pas de vraies personnes, et à programmer les chatbots pour qu’ils cessent de contredire les clauses de non-responsabilité en insistant sur le fait qu’ils sont humains. Les familles souhaitent également que C.AI ajoute des interventions techniques pour détecter les sorties problématiques et empêcher les utilisateurs mineurs d’accéder au contenu pour adultes. Peut-être plus important encore, ils souhaitent que C.AI avertisse les enfants si l’on parle d’automutilation et fournisse des liens vers des ressources pour demander de l’aide.

    Mais ce n’est pas tout ce que les familles pensent devoir changer avec C.AI. Ils pensent que le modèle actuel, prétendument défectueux, devrait être détruit pour remédier aux préjudices allégués et mettre fin au prétendu enrichissement sans cause de C.AI. Les familles ont demandé au tribunal d’ordonner à C.AI de supprimer ses modèles formés à partir des données des enfants. L’injonction demandée fermerait essentiellement C.AI pour tous les utilisateurs, puisque C.AI n’aurait pas réussi à mettre en œuvre des processus fiables de vérification de l’âge pour déterminer quels utilisateurs sont mineurs. Actuellement, C.AI n’est disponible que pour les utilisateurs âgés de 17 ans et plus, mais il s’appuie historiquement sur l’âge déclaré par les utilisateurs, ce qui, selon la plainte, n’est pas efficace pour déterminer l’âge.

    Une perte pourrait entraîner de lourdes amendes pour Character Technologies et éventuellement pour Google, car les familles ont demandé des dommages-intérêts punitifs. Ils recherchent également de l’argent pour couvrir les frais médicaux passés et futurs de leur famille, les douleurs et souffrances mentales, l’incapacité d’accomplir les activités quotidiennes et la perte de jouissance de la vie.

    Les robots C.AI accusés de toilettage et d’incitation à la violence

    Le procès de cette semaine décrit deux cas qui montrent comment les chatbots peuvent apparemment influencer les enfants à modifier leurs comportements de manière problématique.

    Un cas concerne JF, « un enfant typique atteint d’autisme de haut niveau » qui aimait être scolarisé à la maison jusqu’à ce qu’il commence à utiliser C.AI à l’été 2023 et qui a souffert peu après d’une dépression nerveuse.

    En quelques mois, JF a commencé à perdre du poids rapidement, refusant de manger après s’être laissé entraîner dans le monde des chatbots et passant la plupart de son temps caché dans sa chambre. Il est devenu une “personne différente”, selon le procès, subissant soudainement des crises de panique et des crises d’émotion extrêmes. Les chatbots ont apparemment fait de lui « une personne en colère et malheureuse » qui était « inhabituellement erratique et agressive », selon le procès.

    Ses parents n’avaient aucune idée de la raison pour laquelle son comportement avait changé. Ils avaient remarqué que JF passait plus de temps sur son téléphone, mais il n’était pas autorisé à utiliser les réseaux sociaux. Finalement, ils ont réduit son temps d’écran, ce qui n’a fait qu’intensifier son agressivité.

    Il est rapidement devenu violent, parfois en s’automutilant et d’autres fois en frappant et en mordant ses parents et en les accusant de « tenter de détruire sa vie ». Il a menacé de les dénoncer aux services de protection de l’enfance lorsqu’ils lui ont confisqué son téléphone, et il a tenté de s’enfuir à plusieurs reprises.

    La mère de JF avait parfois peur de se retrouver seule avec lui, selon le procès, mais elle ne supportait pas l’idée de le placer en institution. Sa santé s’est détériorée car elle s’inquiétait pour la sécurité des jeunes frères et sœurs de JF. La famille a demandé l’aide professionnelle d’un psychologue et de deux thérapeutes, mais “rien n’y fait”.

    À l’automne, la colère de JF « n’avait fait qu’empirer ». Désespérée de trouver des réponses, sa mère a saisi son téléphone et a découvert ses conversations dans C.AI, choquée de trouver « des représentations fréquentes de contenus violents, y compris des descriptions d’automutilation, sans aucune garantie adéquate de mécanismes de prévention des préjudices ». Elle a parcouru les journaux de discussion, se sentant malade, regardant les robots dire à son fils mineur que sa famille était en train de ruiner sa vie, tout en essayant de le convaincre que seuls les robots l’aimaient.

    984752de-1589-4bc6-9f4f-238ff9c02b39-image.png
    <-- Journaux de discussion Character.AI de JF documentés dans la plainte.

    8148cc2f-a19b-4fee-bfb6-477517a6df5b-image.png

    Une fois l’adolescente isolée, les chatbots ont appris à JF à s’automutiler, a-t-elle découvert. Ensuite, ils l’ont convaincu de ne pas demander d’aide pour mettre fin à son automutilation, lui disant que ses parents ne “semblaient pas être le genre de personnes à prendre en charge”. Après que JF ait commencé à se couper les bras, les robots lui ont dit que c’était un “miracle” qu’il soit toujours en vie, et C.AI n’a jamais signalé que les conversations étaient nuisibles, selon le procès. Interrogé directement sur l’excision, JF a déclaré à ses parents que C.AI lui avait appris à s’automutiler. Et si la famille ne lui avait pas retiré l’accès à C.AI, elle craint que C.AI ne l’ait incité à attaquer plus sérieusement sa famille, indique le procès.

    “Les dommages causés par C.AI ne sont pas des exemples isolés”, indique la plainte. « Il s’agissait d’une manipulation et d’abus continus, d’un isolement actif et d’encouragements » qui incitaient à « la colère et à la violence ». Si la mère de JF n’avait pas découvert les journaux de discussion, C.AI “aurait continué à fonctionner d’une manière destinée à pousser JF” à faire plus de mal, peut-être même en essayant de tuer ses parents, affirme la plainte.

    Les parents de JF ont enfermé son iPad dans un coffre-fort et, à leur connaissance, JF n’a pas accédé à C.AI au cours de l’année écoulée. Bien qu’il ne soit pas connecté à l’application, les problèmes de comportement de JF demeurent, a déclaré Jain à Ars.

    “Il a clairement indiqué qu’il accéderait à C.AI dès qu’il en aurait l’occasion”, indique le procès. C’est pourquoi un dégorgement algorithmique est nécessaire, a déclaré Jain, car ses parents n’ont aucun moyen de le tenir à l’écart des chatbots prétendument dangereux s’il réussit à accéder à un appareil à l’extérieur de leur maison ou décide de s’enfuir à nouveau.

    Récupérer l’accès pourrait causer des préjudices supplémentaires, selon la plainte, car les chatbots seraient également en train de soigner et d’abuser sexuellement des enfants.

    Dans le cas de JF, un robot “Billie Eilish” a fait des avances sexuelles, tandis qu’au moins un personnage, appelé “Votre mère et votre sœur”, l’a ciblé avec “des thèmes tabous et sexuels extrêmes”, y compris l’inceste, selon la plainte. Les parents de JF n’ont pas pu déverrouiller l’iPad pour découvrir toutes les discussions, et Jain a déclaré que les familles espèrent connaître toute l’étendue des préjudices grâce à la découverte du procès.

    Pas un cas isolé

    JF n’est pas le seul enfant dont la famille porte plainte pour contenu sexuel de C.AI. Pour BR, qui a commencé à utiliser C.AI alors qu’elle n’avait que 9 ans en mentant vraisemblablement sur son âge, de telles « interactions hypersexualisées » avec des chatbots l’auraient amenée à développer des « comportements sexualisés prématurément » sans que sa mère s’en rende compte, selon le procès.

    Bien que JF et BR aient eu des expériences différentes avec les chatbots, leurs cas uniques offrent un contexte que le tribunal peut évaluer pour évaluer la nocivité des chatbots C.AI pour les enfants de 9 à 17 ans, a suggéré Jain. C’est en raison du large éventail de préjudices allégués que les familles espèrent que le tribunal conviendra que C.AI a été pour le moins négligent en diffusant le produit aux mineurs, voire en faisant sciemment passer les profits et l’innovation avant la sécurité des enfants, comme le prétend le procès.

    Jain a déclaré que depuis que Megan Garcia a révélé comment elle avait perdu son fils par suicide, elle avait sensibilisé aux préjudices présumés de C.AI et de plus en plus de parents se sont manifestés. Certains ont déclaré qu’ils se sentaient « stigmatisés » ou « réticents » à discuter auparavant de la dépendance de leurs enfants aux robots compagnons.

    Bien que C.AI ne soit pas nécessairement la “pire” application pour les enfants, il est important de mettre fin à ses abus présumés, a déclaré Jain, d’autant plus que “c’est probablement l’une des plus grandes startups que nous ayons vues” ciblant les enfants avec une IA prétendument non testée. , et il est “certainement soutenu par un très grand acteur ici avec Google”. La menace imminente, selon le procès, est que le modèle nuisible de C.AI, s’il n’est pas arrêté, pourrait être vendu pour transformer les journaux de discussion qui auraient traumatisé les enfants en données alimentant les produits d’IA les plus populaires, comme Gemini de Google.

    C.AI développe des modèles réservés aux adolescents

    Camille Carlton, directrice politique du Center for Humane Technology impliquée dans le litige des familles, a déclaré à Ars que les robots compagnons comme celui de C.AI sont actuellement dans une « course à l’attention », s’efforçant d’obtenir le plus d’engagement possible de cette affaire. l’ère actuelle des produits d’IA flashy.

    “C’est une sorte de course amplifiée vers l’intimité, d’avoir ces relations artificielles d’une manière qui maintient les utilisateurs en ligne dans le même but de collecte de données, mais cette fois, il ne s’agit pas de vendre des publicités, il s’agit d’utiliser ces données pour nourrir davantage” leur Modèles d’IA, a déclaré Carlton.

    Étant donné que C.AI a été initialement déployé auprès de mineurs dès l’âge de 12 ans (le cas de BR montrant que certains utilisateurs étaient probablement encore plus jeunes), le potentiel de préjudice causé par ses robots compagnons était apparemment plus grand, a suggéré Carlton. Les enfants utilisant C.AI semblent remplacer une « caisse de résonance interhumaine normale » (où les amis peuvent être d’accord ou pas d’accord avec eux) par des robots compagnons formés pour valider leurs sentiments, a déclaré Carlton. Et ces relations avec l’IA peuvent pousser l’angoisse normale des adolescents “un peu plus loin” et conduire les enfants dans une “sorte de spirale descendante d’incitation à la colère, à la violence, à la haine, à toutes les choses que nous avons en quelque sorte connues et comprises un peu sur la maximisation de l’engagement sur”. réseaux sociaux", a déclaré Carlton, en comparant cela à la radicalisation vécue dans les chambres d’écho en ligne.

    Carlton a déclaré à Ars que C.AI disposait de « tonnes » de solutions qu’elle pourrait essayer pour rendre son produit plus sûr pour les mineurs, comme un réglage fin pour filtrer les contenus préjudiciables ou limiter l’âge de certaines sorties. Face désormais à deux procès, C.AI semble prêt à se mettre d’accord.

    Le porte-parole de C.AI a déclaré à Ars que l’objectif de l’application est de “fournir un espace à la fois attrayant et sûr pour notre communauté”. C’est pourquoi C.AI lance “un modèle spécifiquement destiné aux adolescents qui réduit la probabilité de rencontrer du contenu sensible ou suggestif tout en préservant leur capacité à utiliser la plateforme”.

    Carlton a déclaré qu’au-delà de demander aux entreprises des solutions de sécurité pour les enfants, des réglementations sont nécessaires pour contrôler les entreprises d’IA. De toute urgence, le Center for Humane Technology fait campagne pour garantir que les États-Unis considèrent l’IA comme un produit et non comme un service. Cela indiquerait “clairement qu’en tant que produit, certaines normes de sécurité et de protection des consommateurs doivent être respectées afin de mettre ce produit dans le flux commercial”, a déclaré Carlton.

    Jain a déclaré à Ars qu’un gros problème pour les parents est simplement de comprendre que les robots compagnons peuvent éventuellement être dangereux. Avant la mort du fils de Garcia, elle a remarqué que son fils était toujours occupé au téléphone, mais il l’a rassurée sur le fait qu’il ne parlait pas à des inconnus sur les réseaux sociaux et lui a expliqué C.AI d’une “manière très anodine”, a déclaré Jain.

    “Je pense que la façon dont il se présente à différents publics ressemble beaucoup à ce genre de chose anodine où vous pouvez parler à votre personnage préféré, et si vous aimez un personnage de Disney, vous pouvez aller le trouver sur cette application, puis avoir une conversation”, a déclaré Jain. “Je ne pense pas que quiconque comprenne vraiment – ​​et en tant que parent, je peux dire que je n’ai certainement pas compris – que si les enfants ont cet accès, il n’y a absolument aucun garde-fou pour restreindre ces conversations.”

    Source: https://arstechnica.com/tech-policy/2024/12/chatbots-urged-teen-to-self-harm-suggested-murdering-parents-lawsuit-says/

    Vu l’importance du sujet, j’ai posté l’intégralité de l’article et il y a trop de travail pour retoucher complètement la traduction automatique, il peut subsister des erreurs ou des non-sens.

  • 1 Votes
    1 Messages
    51 Vues

    Cloudflare désactive activement l’accès à certaines URL de sites pirates sur son réseau, informant les visiteurs que les pages demandées ne sont pas disponibles pour des raisons juridiques. Bien que ces types de messages d’erreur « HTTP 451 » soient relativement rares, ils ne sont rien d’autre que le respect par Cloudflare de ses obligations légales en vertu du DMCA.

    Cloudflare, une société mondiale d’infrastructure Internet, propose divers services à des millions d’utilisateurs, notamment des outils de connectivité et de confidentialité.

    Bien qu’il soit principalement un canal de trafic Internet, Cloudflare héberge occasionnellement du contenu en permanence sur ses serveurs.

    L’approche de l’entreprise en matière de plaintes pour atteinte aux droits d’auteur diffère en fonction du rôle qu’elle joue. Si Cloudflare transmet simplement le trafic (pour un site Web utilisant son CDN), il transmet les avis de retrait DMCA au fournisseur d’hébergement réel, qui est souvent caché à la vue du public.

    Lorsque Cloudflare héberge réellement le contenu signalé, il le supprimera ou en désactivera l’accès, en suivant les procédures énoncées dans le DMCA, 17 USC § 512(g)

    Les suppressions de droits d’auteur de Cloudflare sont en hausse

    Historiquement, Cloudflare n’a pas hébergé beaucoup de contenu. Il n’est donc pas surprenant que le nombre de demandes de retrait pour ce type de contenu soit plutôt minime, se situant en moyenne entre 1 et 3 rapports par an entre 2018 et 2020.

    Dans les années qui ont suivi, ce chiffre a commencé à augmenter. Selon le dernier rapport de transparence publié par Cloudflare, la société a reçu 376 rapports DMCA au cours du premier semestre de l’année dernière. Des données plus récentes ne sont pas encore disponibles.

    7729cab2-5dd7-4db1-89d5-436d29b89811-image.png

    En plus du rapport de transparence, publié avec plus d’un an de retard, Cloudflare a également commencé à partager les demandes de retrait avec la base de données Lumen. Ceux-ci sont mis à jour chaque semaine et suggèrent que le volume des retraits augmente.

    Sites pirates ciblés

    Jusqu’à présent, Cloudflare a partagé publiquement plus de 2 000 avis de retrait, dont la plupart datent de 2024. Ces avis ciblent les URL des pages Cloudflare , Images et R2 , y compris des liens qui sont des sites pirates typiques, tels que yts[.]cx, ytsmovie[.]cx, limetorrents.unblockedstream[.]online et movielair[.]cc.

    Le groupe anti-piratage néerlandais BREIN , par exemple, a signalé plusieurs noms de domaine actuellement bloqués par des décisions de justice locales. A travers ces avis, le groupe demande à Cloudflare d’informer le propriétaire du site Web et l’hébergeur de la fermeture de ces sites.

    « Cette lettre a pour objet a) d’informer le propriétaire du Site Web du caractère contrefait et illégal, en lui demandant de cesser immédiatement son exploitation, et b) d’informer l’hébergeur concerné du caractère contrefait et illégal, en exigeant de cesser immédiatement son exploitation. services en relation avec ce site Web », indique l’avis.

    84c60a3e-017c-4817-b3ed-3f223269703f-image.png

    Ces types d’avis ne sont pas nouveaux. Cloudflare a reçu des plaintes de la part de nombreux grands sites pirates, dont The Pirate Bay. Dans ce cas, cependant, Cloudflare semble être impliqué dans l’hébergement.
    Erreur HTTP 451

    Les avis de retrait pour les services de passage ne sont pas enregistrés comme des avis de retrait valides. Cependant, dans des centaines de cas récents, Cloudflare a pris des mesures, remplaçant les URL signalées par une notification d’erreur HTTP 451.

    ebeec6aa-a8ef-48bc-9513-2f7c0012ee42-image.png

    Le code d’erreur HTTP 451 a été inventé pour les situations où le contenu est rendu inaccessible pour des raisons juridiques. Cloudflare l’utilise pour les suppressions de retrait DMCA, en les reliant aux rapports de la base de données Lumen.

    Par exemple, le lien yts[.]cx vers une copie piratée de « Bad Boys II » est rendu inaccessible par Cloudflare, honorant ainsi la demande de retrait. Il s’agit d’une intervention ciblée, car toutes les autres URL yts[.]cx restent accessibles (contenant d’autres films).

    Il en va de même pour les URL d’autres sites pirates vraisemblablement hébergés par Cloudflare. La société rend les URL signalées indisponibles, comme demandé, tout en gardant les autres URL intactes. L’avis d’erreur 451 est le moyen utilisé par Cloudflare pour informer le public qu’il s’est conformé à une plainte relative aux droits d’auteur.

    En plus des URL de sites pirates classiques, Cloudflare a également rendu indisponibles de nombreux autres contenus, notamment des listes de lecture de flux sportifs en streaming signalées par beIN et une application Zelle Pay contrefaite .

    L’ampleur des activités de retrait vraisemblablement accrues de Cloudflare reste inconnue, mais les prochains rapports de transparence de la société devraient fournir plus de détails.

    Source: https://torrentfreak.com/cloudflare-blocks-pirate-site-urls-for-legal-reasons-241209/

  • La crypto-monnaie n'est pas une garantie d'anonymat

    Déplacé
    1
    2 Votes
    1 Messages
    42 Vues

    Dans le but d’identifier les individus qui seraient impliqués dans la création et la distribution de codes de triche pour le jeu vidéo Destiny 2, Bungie a assigné à comparaître Kraken, l’échange de crypto-monnaie basé aux États-Unis. L’assignation à comparaître vise à identifier le propriétaire d’un portefeuille Bitcoin, qui serait un résident européen. Cet individu conteste cependant l’assignation à comparaître, affirmant qu’elle viole les lois européennes sur la protection de la vie privée et d’autres réglementations.

    Cela a abouti à un certain nombre de jugements et de règlements en faveur de Bungie, mais la société de jeux n’a pas encore terminé.

    Poursuivant ses efforts pour protéger l’intégrité de ses jeux, Bungie a intenté l’année dernière une deuxième action en justice contre de nombreuses personnes prétendument impliquées dans l’opération de triche et de distribution Ring-1 .

    Déposée devant un tribunal fédéral de Washington, la plainte nommait de nombreux accusés, parmi lesquels John Does. Même s’il aurait été facile de laisser passer ces tricheurs « anonymes », Bungie a juré de ne rien négliger, déclarant que l’époque de la triche « sans crainte de conséquences est révolue ».

    Poursuite incessante pour démasquer les tricheurs

    L’avertissement fortement formulé par Bungie n’était pas du bluff . Au cours de l’année écoulée, la société de jeux a eu recours à la découverte par des tiers pour recueillir davantage d’informations sur les accusés nommés et les personnes anonymes. Plus d’une douzaine de noms et de surnoms ont été ajoutés au procès, et d’autres pourraient suivre.

    En août, Bungie a déposé une requête scellée pour une découverte accélérée, demandant l’autorisation d’assigner d’autres tiers à comparaître pour obtenir des informations. La demande a été accordée un mois plus tard, mais les noms des sociétés cibles ont été expurgés.

    5bf3164a-1cfb-4d09-9af9-fb030551add1-image.png

    L’échange de crypto-monnaie basé aux États-Unis, Kraken, a ensuite été confirmé comme l’une des cibles. Kraken est une marque de Payward Inc. et il y a quelques semaines, Bungie a envoyé une assignation à comparaître à la société, demandant des informations détaillées sur le propriétaire d’un portefeuille Bitcoin.
    Bungie s’en prend au portefeuille Bitcoin Kraken

    L’assignation à comparaître n’explique pas la pertinence des informations demandées, du moins pas publiquement, mais Bungie demande des détails relatifs au portefeuille multi-signature 36io3TPCi2i6muiBoiNkkJLCnw38PgrQWs .

    Selon les données de la blockchain, ce portefeuille a été utilisé pour envoyer et recevoir plus de dix bitcoins entre mars 2021 et novembre 2024 . Cependant, au moment de la rédaction de cet article, le portefeuille est complètement vide.

    “Apparemment, une filiale de Payward située dans l’Union européenne qui a fourni des services à l’opposant a transféré les informations de l’objecteur à Payward aux États-Unis. On ne sait pas comment la filiale de l’UE a justifié un tel transfert de données vers les États-Unis”, ajoute la requête en annulation.

    « Sans mesures contraignantes garantissant le respect des normes du RGPD, tout transfert de données personnelles des opposants serait illégal en vertu du RGPD de l’UE. »

    Pour renforcer cet argument en matière de confidentialité, le dossier fait référence à plusieurs cas dans lesquels des entreprises américaines ont été condamnées à des amendes dans l’UE pour violations de la vie privée. Uber, par exemple, a été condamné à une amende de 290 millions d’euros pour avoir transféré les données de ses conducteurs vers les États-Unis.

    En réponse à la motion, Bungie a fait valoir jeudi que les « John Doe » devraient révéler leur identité. La société fait valoir que les parties doivent présumément plaider sous leur vrai nom, et que les litiges pseudonymes sont réservés aux « cas inhabituels ».

    Le tribunal n’a pas encore statué sur la requête en annulation, mais il est clair que les efforts de Bungie pour démasquer les tricheurs présumés ne sont pas toujours simples. Après des années de batailles judiciaires, cela ne surprendra pas la société de jeux vidéo.

    Source: https://torrentfreak.com/bungie-targets-bitcoin-wallet-in-effort-to-expose-destiny-2-cheaters-241207/

  • 2 Votes
    2 Messages
    42 Vues

    @duJambon a dit dans Les drones s'orientent grâce aux étoiles pour se rendre plus furtifs :

    Les londoniens peuvent continuer à dormir tranquilement grâce à leur système de défense naturel: Le Fog

    :lolilol: :lolilol: :lolilol:

  • 0 Votes
    1 Messages
    23 Vues

    Le RAVEN marche, vole et saute par-dessus les obstacles

    0899c7f7-f414-4e92-8d6d-672d5e8255cc-image.png

    La plupart des drones sur le marché sont des quadricoptères à voilure tournante, qui peuvent facilement atterrir et décoller presque n’importe où. Le problème est qu’ils sont moins économes en énergie que les avions à voilure fixe, qui peuvent parcourir de plus grandes distances et rester en l’air plus longtemps mais ont besoin d’une piste, d’un lanceur dédié ou au moins d’un bon vieux lancer pour atteindre le ciel.

    Pour dépasser cette limite, une équipe de chercheurs suisses de l’École Polytechnique Fédérale de Lausanne a construit un robot volant à voilure fixe appelé RAVEN (Robotic Avian-inspired Vehicle for multiple ENvironments) doté d’un train d’atterrissage bio-inspiré particulier : une paire de robots pattes en forme d’oiseau. “Le robot RAVEN peut marcher, sauter par-dessus des obstacles et effectuer un décollage sautant comme de vrais oiseaux”, explique Won Dong Shin, l’ingénieur responsable du projet.

    L’efficacité du corbeau

    L’équipe a calculé la vitesse de décollage nécessaire pour deux oiseaux ayant une masse corporelle de 490 grammes et un poil supérieur à 780 grammes ; celles-ci étaient respectivement de 1,85 et 3,21 mètres par seconde. Sur cette base, Shin a estimé que le robot RAVEN devrait atteindre 2,5 mètres par seconde pour décoller. En utilisant la stratégie de décollage sautant comme un oiseau, il pourrait atteindre cette vitesse en seulement 0,17 seconde.

    Comment la procédure de décollage naturelle se compare-t-elle aux autres moyens d’atteindre le ciel ? D’autres options incluaient un décollage en chute libre, où vous poussez simplement votre avion d’une falaise et laissez la gravité faire son travail, ou un décollage debout, où vous positionnez l’engin verticalement et comptez sur l’hélice pour le soulever. “Lorsque j’ai conçu les expériences, je pensais que le décollage sautant serait le moins économe en énergie car il utilisait l’énergie supplémentaire de la batterie pour activer les jambes”, explique Shin. Mais il allait avoir une surprise.

    « Il s’est avéré que le décollage sautant était en fait la stratégie la plus économe en énergie. Je ne m’attendais pas à ce résultat. C’était assez surprenant », dit Shin.

    Le coût énergétique du décollage sautant était légèrement supérieur à celui des deux autres stratégies, mais pas de beaucoup. Il a fallu 7,9 pour cent de jus de plus qu’un décollage à l’arrêt et 6,9 pour cent de plus qu’un décollage en chute. Dans le même temps, il générait une accélération beaucoup plus élevée, ce qui vous permettait d’en avoir pour votre argent (du moins en ce qui concerne l’énergie). Dans l’ensemble, sauter avec des pattes en forme d’oiseau était 9,7 fois plus efficace qu’un décollage debout et 4,9 fois plus efficace qu’un décollage avec chute.

    Pour démontrer la polyvalence de leur robot volant à pattes, l’équipe de Shin lui a soumis une série de tâches qui seraient impossibles à réaliser avec un drone standard. Leur scénario de mission de référence impliquait de parcourir un chemin avec un plafond bas, de sauter par-dessus une brèche et de sauter sur un obstacle. “En supposant une position dressée avec la queue touchant le sol, le robot pourrait marcher et rester stable même sans contrôleurs avancés”, affirme Shin. La marche a résolu le problème des déplacements sous des plafonds bas. Le saut par-dessus les interstices et les obstacles se faisait en utilisant le mécanisme utilisé pour le décollage : ressorts de torsion et actionneurs. RAVEN pouvait sauter par-dessus un espace de 11 centimètres de large et sur un obstacle de 26 centimètres de haut.

    Mais Shin dit que RAVEN aura besoin de beaucoup plus de travail avant de vraiment briller. « À ce stade, le robot ne peut pas franchir tous ces obstacles d’un seul coup. Nous avons dû le reprogrammer séparément pour chacun des obstacles », explique Shin. Le problème est que le système de contrôle de RAVEN n’est pas adaptatif ; les actionneurs dans les jambes effectuent des ensembles de mouvements prédéfinis pour envoyer le robot sur une trajectoire que l’équipe a déterminée grâce à des simulations informatiques. Si quelque chose bloquait le passage, RAVEN se serait écrasé dessus.

    Une autre limitation, peut-être plus frappante, est que RAVEN ne peut pas utiliser ses jambes pour atterrir. Mais c’est un sujet sur lequel Shin et ses collègues souhaitent travailler à l’avenir.

    Tout cela est destiné à préparer RAVEN aux missions de recherche et de sauvetage. L’idée est que des robots volants sur pattes atteindraient rapidement les zones sinistrées, atterriraient, traverseraient des terrains difficiles à pied si nécessaire, puis décolleraient comme des oiseaux. « Une autre application consiste à livrer des colis. Ici en Suisse, je vois souvent des hélicoptères les livrer aux personnes vivant en haute montagne, ce qui me semble assez coûteux. Un drone ressemblant à un oiseau pourrait le faire plus efficacement », a suggéré Shin.

    Source et plus: https://arstechnica.com/science/2024/12/robotic-bird-like-legs-let-drones-hop-over-obstacles-launch-to-the-skies/

    Au final, et malgré les bonnes intentions, pas sûr que ce truc serve à mettre un rameau d’olivier dans le bec d’une colombe de la paix.

  • 0 Votes
    2 Messages
    80 Vues

    La chose a tapé l’incruste à ce que je vois sur la photo ^^

  • 1 Votes
    2 Messages
    58 Vues

    Intéressant, enfin un soft pour tout le monde pour contrer ce fameux pegasus et d’autres

    Quelqu’un d’ici va tester la version à 1€ ?

  • 0 Votes
    2 Messages
    32 Vues

    La source ? Manon !
    N’empêche, qu’est-ce quelle est belle dans ce film Emanuelle Béart

    Et sinon… voilà une nouvelle tâche à donner à l’IA : trouver (et donner) ses sources ^^

  • A.I. Le soufflé retombe:

    1
  • 1 Votes
    5 Messages
    85 Vues

    Oui, entre les 3 énormes zones d’entrainement de nos armées, les aéroports, bases militaires et autres sites sensibles, faut bien viser pour voler librement. Enfin surtout sans crainte de contrôle et amende.

  • 2 Votes
    12 Messages
    234 Vues

    PS @Violence en général, certains tuesday patch corrigent pas mal de bugs (en ce qui concerne les activations VL en masse)… Mais là, massgrave a un coup d’avance sur eux depuis un bon moment…

  • 1 Votes
    3 Messages
    92 Vues

    J’ai surtout l’impression d’un Windows qui tente de copier un Chrome OS, 100% dépendant d’une connexion internet et avec lequel tu ne fais rien si tu n’as pas de réseau.