Le système qui prévoit de scanner toutes les images transitant vers iCloud inquiète les acteurs du numérique, surtout parmi les concurrents de la marque à la pomme.
La nouvelle a fait quelques remous. Apple annonçait il y a quelques jours le déploiement d’un nouvel outil capable de détecter les images à caractère pédopornographique qui transitent vers iCloud. Concrètement, avant qu’un cliché ne soit stocké sur le cloud de la marque à la pomme, ce dernier sera scanné par Apple pour rechercher des correspondances avec le contenu recensé CSAM (Child Sexual Abuse Material). Si le contenu est identifié comme tel, un examinateur humain se chargera d’évaluer les risques, et le cas échéant, de transmettre l’information aux autorités compétentes.
Si la démarche est louable, elle n’a pas manqué de faire réagir les défenseurs de la vie privée. Le PDG d’Epic Games, qui est au cœur d’une vaste bataille judiciaire avec Apple, a fait part de son inquiétude sur Twitter.
I've tried hard to see this from Apple's point of view. But inescapably, this is government spyware installed by Apple based on a presumption of guilt. Though Apple wrote the code, its function is to scan personal data and report it to government.https://t.co/OrkfOSjvS1
— Tim Sweeney (@TimSweeneyEpic) August 7, 2021
“J’ai essayé de voir cela du point de vue d’Apple. Mais inéluctablement, il s’agit d’un logiciel espion gouvernemental installé par Apple sur la base d’une présomption de culpabilité. Bien qu’Apple ait écrit le code, sa fonction est d’analyser les données personnelles et de les signaler au gouvernement. C’est totalement différent d’un système de modération de contenu sur un forum public ou un réseau social. Avant que l’opérateur ne choisisse d’héberger les données publiquement, il peut les analyser pour déterminer tout ce qu’il ne veut pas héberger. Mais ce sont les données privées des gens.”
WhatsApp s’inquiète
Toujours sur Twitter, une autre entreprise du numérique a partagé ses réticences quant à la mise en place de l’outil. Will Cathcart, patron de WhatsApp chez Facebook, note qu’il pourrait être utilisé à des fins totalitaires par certains gouvernements. “Apple a construit et exploité un système de surveillance qui pourrait très facilement être utilisé pour analyser le contenu privé à la recherche de tout ce qu’ils ou un gouvernement décident de contrôler”. Il s’inquiète également de l’exploitation de ces informations en Chine ou dans d’autres pays, ainsi que par des sociétés de logiciels espions.
I read the information Apple put out yesterday and I'm concerned. I think this is the wrong approach and a setback for people's privacy all over the world.
People have asked if we'll adopt this system for WhatsApp. The answer is no.
— Will Cathcart (@wcathcart) August 6, 2021
Apple se félicite de cet accomplissement
Dans une note de service, obtenue par 9to5Mac, la firme de Cupertino adresse un message plutôt enthousiaste à ses équipes.
“Assurer la sécurité des enfants est une mission très importante. À la manière d’Apple, la poursuite de cet objectif a nécessité un engagement interfonctionnel profond, couvrant l’ingénierie, la juridique, le marketing produit et les relations publiques. Ce que nous avons annoncé aujourd’hui est le produit de cette incroyable collaboration, qui fournit des outils pour protéger les enfants, mais aussi pour maintenir l’engagement profond d’Apple envers la confidentialité des utilisateurs.”
La lettre mentionne également les retours positifs, ainsi que les inquiétudes partagées sur les réseaux sociaux. “Nous savons que certaines personnes ont mal compris et s’inquiètent des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités afin que les gens comprennent ce que nous avons construit.”
Reste à voir si Apple poursuivra sur sa lancée ou si les nombreuses réserves et inquiétudes partagées sur les réseaux sociaux enterreront définitivement le projet. Apple ne s’est pour l’instant pas exprimé publiquement sur cette controverse.
Source: appleinsider