• 1 Votes
    8 Messages
    99 Vues

    @mekas a dit dans IA : Le chatbot de DPD insulte un client à la suite d'une mise à jour :

    Pour l’instant égalité ! Mais on voit bien que ça peut dégénérer à tout instant ! lol

    Mais non… Il y en a qui me cherchent, c’est de bonne guerre…

  • 2 Votes
    5 Messages
    104 Vues

    Capture d’écran 2024-01-26 134247.png

    La Limite !!!

  • 0 Votes
    1 Messages
    24 Vues

    AIformé

    illustration d'une personne manipulée comme une marionnette par une IA

    Au début d’une année 2024 riche en échéances politiques, OpenAI explique les mesures qu’elle prévoit pour éviter l’usage de ses technologies à des fins de désinformation. Un enjeu urgent, alors que des deepfakes sont déjà utilisés un peu partout sur le globe pour tromper les électeurs.

    L’année 2024 sera politiquement intense. De la Russie à l’Inde en passant par Taiwan, les États-Unis ou l’Afrique du Sud, les habitants d’au moins 64 pays, dans lesquels vit la moitié de la population planétaire, seront invités à aller voter au fil de l’année dans des élections à forts enjeux.

    À ce décompte s’ajoutent les 27 États européens, dont les populations devront se rendre aux urnes en juin pour l’élection de leurs représentants parlementaires au sein de l’Union. Dans un tel contexte, l’enjeu que l’explosion des outils d’intelligence artificielle générative pose en matière de désinformation est réel – et la plupart des experts du sujet, franchement inquiets.

    Open AI a donc publié le 15 janvier un article dans lequel son approche du phénomène est détaillée, tandis qu’au Forum économique mondial en cours à Davos, son patron Sam Altman a fait partie des multiples dirigeants de la tech à évoquer le sujet.

    | Intelligence artificielle, « fake news » et recommandations pour limiter les risques | ChatGPT, Bard et les autres, agents de désinformation massive ? | Un an après l’adoption du DSA, les acteurs de la lutte contre la désinformation entre espoir et inquiétudes | Rumman Chowdhury : « il faut investir autant dans la protection des utilisateurs que dans le développement de l’IA »

    L’entreprise met l’accent sur l’offre d’informations vérifiées sur les élections, l’ « application de politiques mesurées » et l’amélioration de la transparence – objectif qui ne vise pas à remettre en cause le contrôle qu’OpenAI maintient sur ses technologies, mais plutôt à rendre évident qu’une image a été générée par DALL-E.

    Interdiction de créer des applications de ChatGPT pour les campagnes politiques

    La société déclare avoir mis en place une équipe transversale dédiée au travail sur ces questions politiques. Pour la faire fonctionner, OpenAI déclare se reposer sur l’expertise de ses équipes chargées de la sécurité des systèmes, du renseignement sur les menaces (threat intelligence), de ses équipes juridiques, d’ingénieurs et de ses équipes politiques.

    En termes de prévention des abus (et notamment de la création de deepfakes), OpenAI déclare utiliser les mêmes pratiques que dans des contextes non politiques (du red teaming, la sollicitation des retours d’usagers et d’auditeurs externes et l’usage de techniques de modération des risques) avant de les rendre accessibles au public.

    En pratique, elle indique que Dall-E a des règles claires qui l’empêchent de re-créer des visages réels – affirmation que des utilisateurs de Reddit s’emploient régulièrement à contredire dans le domaine cinématographique.

    Open AI explique par ailleurs adapter ses conditions d’utilisations au fil de l’eau. Parmi ces règles, elle empêche d’ailleurs d’utiliser ChatGPT et son API pour créer des chatbots se faisant passer pour des personnes réelles.

    Tirant leçon des multiples scandales de désinformation qui ont émaillé les dernières années, l’entreprise interdit de manière préventive la construction d’application dédiées au lobbying et aux campagnes politiques « en attendant d’en savoir plus » sur l’efficacité « de nos outils en matière de persuasion personnalisée ». Elle ne permet pas non plus la création d’applications visant à détourner des personnes du processus démocratiques.

    OpenAI ne précise pas les outils qui lui permettent de repérer et modérer les éventuels contournements de ses décisions. Elle indique en revanche que dans « ses nouveaux GPT, les utilisateurs peuvent nous signaler de potentielles violations ».

    Transparence sur les générations d’image et informations qualifiées sur les élections

    Pour faciliter le traçage et « améliorer la transparence sur la provenance des images », OpenAI indique s’apprêter à déployer le système de certificats numériques de la Coalition pour la preuve et l’authenticité des contenus. Celui-ci permet d’encoder des détails sur l’origine des images grâce à la cryptographie, donc de les estampiller « image générée par DALL-E ».

    L’entreprise indique par ailleurs avoir travaillé à une plus grande intégration des sources d’information dans les réponses de ChatGPT. Les utilisateurs devraient donc avoir bientôt accès à des liens renvoyant vers les informations fournies – un progrès pour vérifier les informations produites, mais aussi un pas de plus vers la transformation du chatbot en équivalent de moteur de recherche.

    Enfin, aux États-Unis, l’entreprise indique travailler avec l’Association nationale des Secrétaires d’État (NASS) pour fournir une information non partisane sur les élections. ChatGPT devrait donc rediriger les internautes vers le site CanIVote.org pour que ceux-ci trouvent toutes les informations nécessaires à leur processus électoral. Et de déclarer que « les leçons tirées de ce travail alimenteront notre travail dans d’autres pays et régions ».

    | Les moteurs de recherche accentuent la désinformation Au Bangladesh et au Royaume-Uni, l’IA sert déjà la désinformation politique

    À la mi-décembre 2023, le Financial Times rapportait comment, au Bangladesh, des services de deepfakes accessibles pour 24$ par mois étaient déjà utilisés pour créer des divisions ou soumettre des informations trompeuses aux électeurs.

    Les partis et groupes en faveur du gouvernement ont largement utilisé ces outils pour créer des contenus télévisés, ou des imitations des membres de l’opposition dans lesquels ceux-ci semblaient hésitants à soutenir les gazaouis, une position inflammable dans un pays majoritairement musulman où l’opinion public soutient largement les Palestiniens (la vidéo a ensuite été supprimée).

    Le 7 janvier, la Première ministre Sheikh Hasina a remporté un cinquième mandat, après un scrutin boycotté par le principal parti d’opposition, qui évoque un « simulacre d’élection ».

    Au Royaume-Uni, un travail mené par l’entreprise de communications Fenimore Harper a relevé l’existence de plus d’une centaine de deepfakes du premier ministre Rishi Sunak diffusés sous forme de publicités sur Facebook. Ces publications auraient atteint quelque 400 000 personnes avant que Meta ne les fasse supprimer.

    | Désinformation : de l’IA pour faire croire à une attaque du Pentagone
  • 2 Votes
    1 Messages
    31 Vues

    Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).

    Source : [next.ink](Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).)

  • 1 Votes
    4 Messages
    79 Vues

    @Raccoon faudra voir

  • 0 Votes
    1 Messages
    25 Vues

    Face à la montée en puissance des cyberattaques, Microsoft mise sur plus d’automatisation pour intercepter plus d’intrusion et réagir plus rapidement en cas de faille de sécurité. Il plaide aussi pour une coopération internationale renforcée.

    Microsoft a connu depuis un an une multitude de failles de sécurité touchant son service cloud Azure, provoquant des critiques de la part de l’industrie sur ses pratiques en matière de transparence et remédiation. Le géant de Redmond semble avoir entendu ces plaintes et a annoncé une initiative baptisée “Secure Future” le 2 novembre 2023 qui vise à améliorer les choses.

    Diviser par deux le temps de réaction face à une vulnérabilité sur le cloud

    Microsoft ne le met pas particulièrement en avant dans sa communication, préférant parler de ses projets à base d’intelligence artificielle, mais il dit vouloir “diviser par deux le temps nécessaire pour corriger une vulnérabilité cloud” et compte pour cela sur des rapports plus transparents et plus cohérents concernant les cyberattaques de la part de la communauté tech.

    Il va par ailleurs migrer vers un nouveau système de gestion des clés grand public et d’entreprise entièrement automatisé, doté d’une architecture conçue pour garantir que les clés restent inaccessibles même lorsque les processus sous-jacents sont compromis. Il s’appuiera aussi sur son architecture informatique confidentielle et utilisera des modules de sécurité matériels (HSM) qui stockent et protègent les clés dans le matériel et chiffrent les données au repos, en transit et pendant le calcul.

    Exploiter le potentiel de l’IA

    Comme évoqué plus haut, Microsoft souligne largement le potentiel de l’IA pour la sécurité. Il va étendre à ses clients les fonctionnalités d’automatisation qu’il utilise déjà au sein du Microsoft Threat Intelligence Center (MSTIC) et du Microsoft Threat Analysis Center (MTAC), ses divisions dédiées à la surveillance et à l’analyse des cybermenaces. Ces dernières suivent quotidiennement plus de 65 000 milliards de signaux et utilisent des outils d’IA pour les analyser en continu afin d’identifier les vulnérabilités et d’anticiper les cybermenaces. Cela ne se fera évidemment pas gratuitement.

    Microsoft mise par ailleurs sur son “Microsoft Security Copilot”, un assistant destiné aux équipes spécialisées dans la cybersécurité dévoilé en mars dernier. Il permettrait de réagir plus rapidement en cas d’incidents, aussi bien pour en identifier l’origine que pour prendre les bonnes actions correctives.

    Des avancées techniques

    Microsoft travaille sur de nouvelles avancées en matière d’ingénierie logicielle fondamentale. L’entreprise assure qu’elle appliquera des processus systématiques de protection contre les cybermenaces lors du développement, des tests, du déploiement et de l’exploitation de tous les systèmes et services du groupe. De plus, elle utilisera GitHub Copilot pour auditer et tester le code source sur des scénarios de menaces avancés.

    L’entreprise prévoit également le renforcement de la protection de l’identité contre les cyberattaques sophistiquées, rappelant que les menaces basées sur l’identité ont été multipliées par dix au cours de l’année écoulée. Pour ce faire, Microsoft explique qu’il appliquera un processus unifié qui vérifiera les identités et les droits d’accès de ses utilisateurs, appareils et services sur tous ses produits et plateformes.

    Microsoft appelle les états à s’engager plus vigoureusement

    Outre ces actions, Microsoft publie un plaidoyer qui appelle à une collaboration internationale plus poussée en matière de lutte contre les cyberattaques comme l’affirme le groupe dans son communiqué :

    Tous les États devraient s’engager publiquement à ne pas créer de vulnérabilités logicielles dans les réseaux des fournisseurs d’infrastructures critiques, tels que les fournisseurs d’énergie, d’eau, de nourriture, de soins médicaux ou autres"

    Il plaide par ailleurs pour un engagement plus vigoureux et affiché des nations qui amènera les pays qui franchissent ces lignes rouges à rendre davantage compte de leurs actes.

    – Source

    https://www.usine-digitale.fr/article/microsoft-veut-diviser-par-deux-son-temps-de-reaction-face-aux-vulnerabilites-cloud.N2190833

  • 2 Votes
    9 Messages
    161 Vues

    @Violence tu sais quoi, j’avais un doute avant même de citer Westworld (qui dépote quand même) ^^, je me suis dit " Ça doit être Mrs Davis mais bon étant donné que même Westworld est une pépite, je tente ma chance" 😂 .