L'I.A. au service de la guerre
-
Les renseignements israéliens ont désigné leurs cibles à Gaza via l’IA : “La machine l’a fait froidement, et c’est plus facile” (on a tous pu voir la dernière bavure).
Chaque nouvelle révolution technologique, chaque nouveau conflit, nous rapproche de l’usage d’armes réellement autonomes. Mais c’est un pas de plus qui fait froid dans le dos que rapporte The Guardian: les services de renseignement israéliens utilisent l’intelligence artificielle pour choisir les cibles des bombardements sur Gaza. Une manière de gagner du temps sans se poser trop de questions.
Selon le quotidien britannique, six officiers des renseignement militaires ont témoigné de leur usage d’un logiciel nommé Lavender, une base de données d’intelligence artificielle dont l’existence n’avait pas été révélée auparavant. Ce logiciel aurait permis de désigner 37.000 cibles potentielles sur la base de leurs liens apparents avec le Hamas. Avec une froideur toute mécanique, témoignent ses utilisateurs.
Plus fiable qu’un soldat
“De mémoire, c’est sans précédent” a lâché l’un d’entre eux, forcément anonyme, qui estime avoir plus confiance en un “mécanisme statistique” qu’en un soldat en deuil. “Tout le monde, y compris moi, a perdu des gens le 7 octobre. La machine l’a fait froidement. Et cela a rendu les choses plus faciles.”
Plus faciles, et plus rapide: un autre officier estime que le recours à l’IA pour décider de la pertinence d’une cible permettait de planifier un bombardement en une vingtaine de secondes seulement. Avec pour seul geste humain de valider la décision prise par une machine.
Pas de bombes coûteuses sur des personnes sans importance
Une manière de mener des frappes plus précises, et donc moins susceptibles de causer des “dommages collatéraux” ? Absolument pas, révèlent ces sources au Guardian. Celles-ci ont déclaré qu’au cours des premières semaines de la guerre, elles étaient autorisées à tuer 15 ou 20 civils lors de frappes aériennes sur “des militants de bas rang.” Face aux demandes insistantes de l’armée pour obtenir d’avantage de cibles susceptibles d’affaiblir le Hamas, les services de renseignement se seraient d’avantage reposées sur Lavender. De là à l’utiliser pour créer une base de données d’individus considérés comme ayant les caractéristiques des militants du Hamas ou des autres milices islamistes actives à Gaza, il n’y avait qu’un pas.
Lavender permettait aussi d’économiser les projectiles guidés plus précis, et donc plus précieux : “Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance - cela coûte très cher au pays et il y a une pénurie de munitions” résume froidement une des sources du journal britannique. […] Grâce au système, les ciblages ne s’arrêtent jamais. Il y en a encore 36.000 qui attendent”. De quoi balayer les espoirs d’une retenue dans l’usage de la force.
“Règles de proportionnalité”
L’armée israélienne a depuis relativisé ces révélations, rappelant que ces opérations avaient été menées conformément aux “règles de proportionnalité prévues par le droit international.”
Dans un communiqué, elle présente Lavender comme un simple moyen de recouper l’information. “Les FDI (forces de défense israéliennes) n’utilisent pas de système d’intelligence artificielle qui identifie les agents terroristes ou qui tente de prédire si une personne est un terroriste. Les systèmes d’information ne sont que des outils pour les analystes dans le processus d’identification des cibles.”
Quand on met n’importe quoi au service de n’importe qui…
-
N’importe quoi…putains de meurtriers.
-
ce qui devait arriver … arriva, malheureusement
-
un autre officier estime que le recours à l’IA pour décider de la pertinence d’une cible permettait de planifier un bombardement en une vingtaine de secondes seulement. Avec pour seul geste humain de valider la décision prise par une machine.
Je vais me faire l’avocate du diable encore, maos en quoi est-ce pire que le même soldat prenant la même décision dans le même laps de temps, sans aide informatisée?
Vous ne croyez quand même pas qu’avant l’IA, le soldat se serait dit “ah non là j’ai un doute, j’appuie pas sur le bouton”?
-
@7cf148fd Ta remarque est pertinente mais bon… c’est surtout une guerre bien médiatisée de notre côté de la planète.
En très très résumé :- Un ptit groupe d’humains fanatiques qui prennent en otage pleins d’autres humains pour aller zigouiller d’autres humains (familles, aide humanitaire et autres fanatiques) avec de sacrés moyens qui nous laisse bouche bée tellement c’est triste.
- et pareil dans l’autre camp avec des moyens un tantinet plus rudimentaires. Mais c’est triste aussi.
-
Selon Microsoft, la Chine se sert de l’IA pour semer la discorde
La Chine augmente l’utilisation de contenus générés par des logiciels d’intelligence artificielle (IA) et de faux comptes sur des réseaux sociaux pour semer la discorde aux États-Unis et ailleurs, selon le dernier rapport d’un centre de recherche de Microsoft.
Pékin a «mis les bouchées doubles» contre ses cibles et a accru la sophistication de ses opérations d’influence à l’étranger, affirme Clint Watts, patron du centre d’analyses des menaces du géant informatique américain, dans ce rapport publié tard jeudi soir.
«La Chine se sert de faux comptes sur les réseaux sociaux pour déterminer ce qui divise le plus les électeurs afin de tenter de creuser des fossés et de faire pencher le résultat de l’élection présidentielle à son avantage», poursuit Clint Watts. La Chine a «également augmenté son utilisation de contenus générés par l’IA afin de mieux parvenir à ses fins à travers le monde», ajoute-t-il.
Les opérations chinoises d’influence continuent de «s’emparer de manière opportuniste» d’événements, tels qu’un déraillement de train dans l’État du Kentucky ou des incendies sur l’île hawaïenne de Maui, pour instiller la défiance à l’égard des autorités américaines, d’après le rapport.
Effet escompté?
Les consultations aux États-Unis «illustrent un effort délibéré de mieux comprendre quelle tranche démographique de l’électorat américain soutient telle ou telle problématique ou position et quels sont les sujets les plus clivants, en amont de la dernière ligne droite» dans la course à la Maison-Blanche.
Selon les conclusions du rapport, il y a peu d’indications permettant de déterminer si ces tentatives de manipulation de l’opinion publique produisent, à ce stade, l’effet escompté par les Chinois.
Le centre d’analyses avait signalé fin 2023 que des internautes «affiliés» au gouvernement chinois s’étaient fait passer sur les réseaux sociaux pour des électeurs américains, avec pour objectif de peser sur les élections de mi-mandat de novembre 2022.
«Cette activité s’est poursuivie et ces comptes ne publient quasi exclusivement que des messages sur des thèmes clivants aux États-Unis, comme le changement climatique, la politique migratoire, la consommation de drogues, l’immigration ou encore les tensions raciales», signale Clint Watts, en relevant que des élections importantes sont prévues à travers le monde cette année, en particulier en Inde et en Corée du Sud.
Il affirme également que Microsoft a constaté une recrudescence de contenus générés par IA prônant les positions chinoises avant les élections présidentielles à Taïwan en janvier.
Par ailleurs, le rapport signale que la Corée du Nord avait commencé à utiliser l’IA pour voler des cryptomonnaies, perturber des chaînes d’approvisionnement et rassembler des renseignements militaires plus efficacement.
Source: AFP et https://www.24heures.ch/cyber-selon-microsoft-la-chine-se-sert-de-lia-pour-semer-la-discorde-410962891634
-
patricelg PW Addict DDL Rebelle Windowsien Ciné-Séries Cluba répondu à duJambon le dernière édition par
En lisant et dès que j’ai vu Corée du Nord, je n’ai pas pu m’empêcher de penser à ce film : L’Aube Rouge
Je ne donne pas très longtemps pour que ça arrive…