Sur le plan technique, les nouveaux dispositifs de détection d’images pédopornographiques mis en place par Apple constituent une porte dérobée parfaite, directement embarquée sur le terminal. Ce qui n’est pas de bon augure.
C’est une véritable levée de boucliers qu’Apple vient de provoquer avec son annonce relative à la protection de l’enfance. Deux nouveaux outils de surveillance seront en effet mis en place prochainement dans les systèmes d’Apple. L’un analysera les photos envoyées ou reçues par un utilisateur mineur d’iMessage pour détecter des images pornographiques. L’autre analysera les photos sauvegardées sur iCloud pour détecter des images pédopornographiques. Dans les deux cas, cette analyse est faite en local sur le terminal, soi-disant pour préserver au maximum la confidentialité des données.
Mais pour les cryptographes et les militants des droits de l’Homme, ces nouveaux mécanismes franchissent une ligne rouge. « Peu importe ses bonnes intentions, Apple déploie une surveillance de masse dans le monde entier avec cela. Ne vous y trompez pas : s’ils peuvent rechercher du porno d’enfants aujourd’hui, ils peuvent rechercher n’importe quoi demain », alerte Edward Snowden sur Twitter.
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021
Même son de cloche chez l’association Electronic Frontier Foundation (EFF), qui estime qu’Apple « ouvre une backdoor sur votre vie privée » avec le risque qu’elle puisse être utilisée pour autre chose que la protection de l’enfance. « C’est une volte-face choquante pour les utilisateurs qui se sont appuyés sur le leadership de l’entreprise en matière de confidentialité et de sécurité », estime l’association.
Selon elle, iMessage ne peut plus être considérée comme une messagerie sécurisée « où personne d’autre que l’utilisateur et ses destinataires ne peut lire les messages ou analyser leur contenu pour en déduire de quoi ils parlent ». En effet, la détection des images pornographiques se fait directement dans l’application, avant le chiffrement et l’envoi des messages, par le biais d’un modèle d’apprentissage automatique. Autrement dit, il y a un robot qui regarde toutes les images qui passent et qui sonne l’alerte s’il trouve quelque chose qui ne lui plaît pas.
Certes, Apple ne pourra pas voir directement ce qui est échangé, mais il n’y a plus de confidentialité totale sur la communication. Un tel système présente par ailleurs le risque qu’il soit un jour élargi à d’autres cibles. Au-delà des mineurs, pourquoi ne pas regarder si des images sont échangées entre adultes ? Et pourquoi ne pas analyser les textes pour détecter des criminels ou des opposants politiques ? Tout est possible, mais rien n’est transparent, car le modèle d’intelligence artificielle est une propriété privée d’Apple qui ne peut pas être audité. C’est une boîte noire à laquelle il faut faire confiance.
Une surveillance impossible à détecter
Mais peut-on faire confiance à une firme américaine qui est soumise dans de nombreux pays à des lois sur la surveillance ? Rappelons que la loi américaine Patriot Act permet aux agences fédérales de siphonner en secret les données des clients des géants high-tech américains et ces derniers n’ont pas le droit d’en faire état. Dès lors, il serait facile pour les forces de l’ordre de surveiller des personnes partout dans le monde. Il suffirait de diffuser un modèle d’apprentissage automatique différent sur leurs terminaux. Même pas besoin de modifier le système d’exploitation ou l’application. Pour l’utilisateur, c’est impossible à détecter.
Quant à l’outil de détection d’images pédopornographiques, il ouvre la porte au flicage de n’importe quelles données stockées dans iCloud. Il suffirait de modifier la liste des indicateurs sur laquelle s’appuie ce dispositif. On peut d’ailleurs se demander pourquoi Apple se donne tant de mal à créer un système d’analyse local alors que les données iCloud ne sont pas chiffrées de bout en bout et que ce traitement pourrait donc se faire au niveau de leurs serveurs.
Donnant-donnant
Selon Riana Pfefferkorn, chercheuse au Stanford Internet Observatory, c’est probablement parce que la firme de Cupertino prévoit à terme de chiffrer des données d’iCloud de bout en bout, ce qui risque de froisser les forces de l’ordre qui peuvent accéder à ces données pour leurs enquêtes. Avec cette analyse en local, en revanche, il serait possible « de préserver cette capacité de surveillance », estime-t-elle à l’occasion d’une discussion Zoom avec trois autres experts en cybersécurité. Dans un tel scénario, Apple pourrait donc se présenter comme le grand protecteur des données personnelles tout en gardant un accès pour les policiers. Donnant-donnant.