Les géants de la tech redéfinissent leur engagement sur l'IA à des fins militaires
-
En date du 11 Février 2025
Alors que le Sommet sur l’action pour l’intelligence artificielle se tient à Paris, les grands acteurs de la technologie adaptent leur position sur l’usage de l’IA à des fins militaires. Google, par exemple, a récemment modifié ses engagements éthiques en la matière.
La semaine dernière, Google est revenu sur une promesse formulée en 2018, selon laquelle l’entreprise s’engageait à ne pas développer d’IA pour des “armes ou technologies dont l’objectif principal est de blesser des personnes”. Aujourd’hui, cette déclaration a été remplacée par une formule plus vague indiquant que Google “s’aligne sur les objectifs des utilisateurs, la responsabilité sociale et les principes largement acceptés du droit international et des droits de l’homme”.
Mais Google n’est pas un cas isolé. Selon Jean-Marc Rickli, directeur des risques globaux au Centre de Politique de Sécurité de Genève, les entreprises technologiques adoptent une posture de plus en plus axée sur la sécurité nationale.
“Ce qu’on remarque maintenant, surtout depuis le retour de Donald Trump, mais déjà avant, c’est une montée en puissance des entreprises de la tech qui mettent la priorité sur la sécurité nationale. Palantir en est un exemple, mais on constate aussi que Facebook et Google soutiennent de plus en plus ouvertement le gouvernement américain”, a-t-il expliqué mardi dans La Matinale de la RTS.
L’IA, un enjeu de sécurité et de régulation
L’Intelligence artificielle peut être utilisée dans le domaine du renseignement mais aussi dans l’amélioration d’outils ou d’armes, comme les drones par exemple. Mais alors comment réguler ces outils et s’assurer que ces IA respectent le droit international humanitaire?
“À l’ONU, un groupe d’experts travaille depuis dix ans sur la question de l’interdiction des armes autonomes. Le problème, c’est qu’il n’existe aucun consensus entre les États et les différents acteurs. Dans un monde de plus en plus polarisé, arriver à un accord devient de plus en plus compliqué”, explique Jean-Marc Rickli.
L’Europe avance également ses pions sur ce terrain. Lors du Sommet de Paris, Helsing, une entreprise européenne spécialisée dans l’IA de défense, a annoncé un partenariat avec Mistral AI. Leur objectif : développer des technologies d’IA dédiées à la défense européenne.
Un pas de plus vers Cyberdyne/Skynet…
-
Limite, faudrait voir ce que donne des armes pilotées par des IA qui se battent contre des armes pilotées par des IA…
Dans une sorte d’arène ou il n’y a pas de règles.
-
On a déjà Battlebots ^^
Maintenant suffit d’y implémenter de l’IA et là on est dans la merde
-
@duJambon Le probleme des armes autonomes c’est l’homme en lui meme, car il suffit d’une equipe qui construise en un lieu secret une “arche pour IA” ou elle pourra s’instyaller, dans le secret, et apres bon courage pour la retrouver… Nos grands enarques ne savent decider et faire faire que ce que d’autres pays ont deja fait et ont failli detruire l’espece humaine. Sur les IA, c’est belote et rebelote!!!
On ne peux enfermer une IA dans une sandbox, elle s’adaptera et s’echappera…