Alors qu’une ONG s’apprête à faire pression sur Apple afin qu’elle « détecte, signale et supprime » les contenus pédocriminels, la société explique pourquoi elle a renoncé à son projet décrié de surveillance du cloud chiffré.
Dans un geste suffisamment rare pour être noté, soulignent Wired et le cryptographe
, Apple vient d’expliquer pourquoi la société avait finalement décidé, en décembre dernier, de mettre un terme à son controversé projet de détection des contenus à caractère pédopornographique (child sexual abuse material, ou CSAM) sur iCloud.
En réponse à un courrier de la Heat Initiative, une ONG qui lui demandait de « détecter, signaler et supprimer » les CSAM, Erik Neuenschwander, directeur de la protection de la vie privée des utilisateurs et de la sécurité des enfants chez Apple, explique en effet que « l’analyse des données iCloud privées de chaque utilisateur créerait de nouveaux vecteurs d’attaques que des pirates pourraient trouver et exploiter » :
« Cela pourrait nous amener sur une pente glissante avec des conséquences imprévues. La recherche d’un type de contenu ouvre la porte à la surveillance en masse et pourrait donner l’envie de rechercher tout type de contenu dans d’autres systèmes de messagerie chiffrée. Nous avons conclu qu’il n’était pas possible de la mettre en œuvre sans mettre en péril la sécurité et la vie privée de nos utilisateurs. »
| Apple entre renonciations, reports et grogne des employés | Pédopornographie : Apple s’explique, mais la colère et les craintes restent | Apple va chercher des contenus pédopornographiques dans les iPhone américainsErik Neuenschwander précise être parvenu à cette conclusion après avoir consulté de nombreux chercheurs en matière de sécurité et de protection de la vie privée, des groupes de défense des droits numériques et de la sécurité des enfants.
Lettre d’Apple à la Heat Initiative « S’ils ne le peuvent pas, personne ne le peut »La Heat Initiative s’était déclarée déçue qu’Apple abandonne son projet, arguant qu’« Apple est l’une des entreprises les plus prospères au monde et dispose d’une armée d’ingénieurs de classe mondiale » :
« Il est de leur responsabilité de concevoir un environnement sûr et respectueux de la vie privée qui permette de détecter les images et les vidéos d’abus sexuels d’enfants connus. Tant que les gens pourront partager et stocker dans iCloud une image connue d’un enfant en train de se faire violer, nous exigerons qu’ils fassent mieux. »
« La déclaration d’Apple sonne le glas de l’idée selon laquelle il est possible de scanner les communications de chacun ET de préserver la confidentialité », a
Meredith Whittaker, chercheuse spécialisée en éthique de l’intelligence artificielle et présidente de la Signal Foundation, qui chapeaute l’application éponyme :
« Apple possède plusieurs des meilleurs cryptographes + ingénieurs en génie logiciel au monde + $ infinis. S’ils ne le peuvent pas, personne ne le peut. (Ils ne le peuvent pas. Personne ne le peut.) »
Le manque d’intimité est aussi une menace pour la sécuritéLe New York Times n’en relève pas moins que Heat Initiative a réussi à lever 2 millions de dollars afin de lancer une « campagne publicitaire nationale » sur des sites web populaires auprès des décideurs politiques à Washington, tels que Politico, arguant que 90 % des États-Uniens estiment qu’Apple doit « détecter, signaler et supprimer » les CSAM.
Ce chiffre émane d’un sondage d’opinion (.pdf) effectué par le Bellwether Research auprès d’un échantillon représentatif de 2 041 adultes, en ligne. Bien que 79 % des répondants reconnaissent ne pas être familiers avec les technologies utilisées pour détecter les images et vidéos d’abus pédosexuels, 83 % pensent qu’il est possible d’identifier, signaler et supprimer les contenus pédopornographiques sur les plateformes tout en protégeant la vie privée des utilisateurs « en même temps », et 86 % approuvent le fait qu’ « Apple prenne des mesures pour mieux protéger les enfants contre les abus sexuels, même si cela implique de renoncer à une partie de ma propre vie privée ».
Ce qui fait
Joseph Menn, journaliste cyber du Washington Post, qui appelle les journalistes à ne pas tomber dans cette « simplification excessive », et à ne pas opposer sécurité et confidentialité, au motif que « le manque d’intimité est AUSSI une menace pour la sécurité » et que « la plupart des gens qui ne comprennent toujours pas cela ont tendance à ne pas vivre dans des pays autoritaires et n’ont jamais couru le risque d’être harcelés, peut-être parce qu’ils sont des hommes et ne sont pas célèbres. Mais une fois qu’une technologie est en panne pour certains, elle est en panne pour tous. »
Apple n’a fait que 234 signalements, Facebook 22 millions
La Heat Initiative a programmé sa campagne en prévision de la présentation annuelle de l’iPhone par Apple, le 12 septembre. La campagne est dirigée par Sarah Gardner, auparavant vice-présidente des affaires extérieures de Thorn (une organisation à but non lucratif fondée par Demi Moore et son ex-mari Ashton Kutcher pour lutter contre les abus sexuels commis sur des enfants en ligne) et qui précise que « l’objectif est de poursuivre les tactiques jusqu’à ce qu’Apple change sa politique ».
La Heat Initiative souligne qu’aux États-Unis, Apple n’a effectué que 160 signalements en 2021 (.pdf) au National Center for Missing and Exploited Children (NCMEC), alors que Google en a fait 875 783, et Facebook 22 millions :
« En 2022, la CyberTipline du NCMEC a reçu un nombre impressionnant de 32 millions de signalements, dont près de 90 % provenaient de quatre fournisseurs de services électroniques seulement : Facebook, Instagram, WhatsApp et Google. Ces géants de la technologie ont signalé et retiré plus de 29 millions d’images et de vidéos montrant des abus sexuels commis sur des enfants, ce qui montre l’impact considérable que peuvent avoir les entreprises qui s’engagent à protéger les enfants sur leurs plateformes.
En revanche, la contribution d’Apple n’a consisté qu’en 234 signalements, ce qui souligne la nécessité pour toutes les entreprises technologiques de s’engager activement à assurer la sécurité des enfants en ligne. »
Un groupe de deux douzaines d’investisseurs gérant près de 1 000 milliards de dollars d’actifs aurait également demandé à Apple de rendre public le nombre d’images abusives détectées sur ses appareils et ses services, rapporte le NYT :
« Deux investisseurs – Degroof Petercam, un gestionnaire d’actifs belge, et Christian Brothers Investment Services, une société d’investissement catholique – soumettront ce mois-ci une proposition d’actionnaire qui exigerait qu’Apple fournisse un rapport détaillé sur l’efficacité de ses outils de sécurité pour protéger les enfants. »
Le NYT relève cela dit que « ces signalements ne reflètent pas toujours des contenus réellement abusifs : certains parents ont vu leur compte Google suspendu et ont été signalés à la police pour des images de leurs enfants qui n’étaient pas de nature criminelle », comme nous l’avions d’ailleurs relaté.
| Accusés à tort de pédophilie pour des photos faites à la demande de médecins