Apple dans la controverse, la traduction de la lettre à Tim Cook
--
Cher Monsieur Cook :
Les organisations soussignées engagées en faveur des droits civils, droits de l’homme et droits numériques autour du monde vous écrivent pour exhorter Apple à abandonner ce qu’Il prévoit et qu’il a annoncé le 5 août 2021. La construction de capacités de surveillance dans les iPhones, iPads et autres produits Apple.
Bien que ces capacités sont destinées à protéger les enfants et réduire la propagation de matériel d’abus sexuels (CSAM), nous craignons qu’ils ne soient utilisé pour censurer les discours protégés, menacer la vie privée et la sécurité des personnes dans le monde. Ceci aura aussi des conséquences désastreuses pour de nombreux enfants.
Apple a annoncé le déploiement d’un apprentissage automatique, un algorithme destiné à numériser les images dans son service de messagerie, iMessage, afin de détecter du matériel sexuellement explicite envoyé ou reçu à partir de personnes identifiés comme des enfants sur les comptes familiaux.
Cette surveillance sera intégrée directement aux dispositifs Apple. Lorsque l’algorithme détectera une image sexuellement explicite, il avertira l’utilisateur que l’image peut être sensible. Il envoie également un avis à l’organisateur d’un compte famille chaque fois qu’un utilisateur moins de 13 ans choisit d’envoyer ou de recevoir l’image.
L’algorithmes conçus pour détecter du matériel sexuellement explicites est notoirement peu fiable. Il est enclin à signaler par erreur l’art, les informations sur la santé, les ressources éducatives et d’autres images.
Les droits des enfants d’envoyer et de recevoir ces informations sont protégés par la Convention des Nations Unies relative aux droits de l’enfant. De plus, le système qu’Apple a développé suppose que les comptes « parent » et « enfant » concernés appartiennent en réalité à un adulte qui est le parent d’un enfant, et que les individus ont une relation saine.
Ce n’est peut-être pas toujours l’affaire; un adulte violent peut être l’organisateur dele compte et les conséquences de la notification parentale pourrait menacer la sécurité de l’enfant et son bien-être. Les jeunes LGBTQ+ avec des parents antipathiques sont particulièrement à risque.
À la suite de ce changement, iMessages ne fournira plus d’identité confidentielle et la vie privée à ces utilisateurs par le biais d’un système de messagerie chiffré de bout en bout dans lequel l’expéditeur et les destinataires prévus ont accès aux informations envoyées. Une fois cette porte dérobée, la fonctionnalité est intégrée, les gouvernements pourraient obliger Apple pour étendre la notification à d’ autres comptes, et pour détecter les images qui sont répréhensibles pour raisons autres que le fait d’être sexuellement explicite.
Apple a également annoncé qu’il intégrerait le système de base de donnée CSAM fournie par le Centre National pour les enfants disparus et exploités aux États-Unis et dans d’autres organisations de sécurité de l’enfance. Il analysera cette base de données avec toutes les photos que ses utilisateurs téléchargent sur iCloud.
Lorsqu’un seuil prédéfini de correspondances est atteint , le compte sera signaler aux autorités. De nombreux utilisateurs télécharge régulièrement les photos qu’ils prennent sur iCloud. Pour ces utilisateurs, la surveillance des images n’est pas quelque chose qu’ils peuvent retirer ; il sera intégré à leur iPhone ou un autre appareil Apple, et dans leur compte iCloud
Une fois cette fonctionnalité intégrée aux produits Apple ,l’entreprise et ses concurrents seront confrontés une pression énorme — et potentiellement des exigences légales des gouvernements du monde entier
pour numériser des photos non seulement pour CSAM, mais aussi pour d’ autres types qu’un gouvernement trouve répréhensibles.
Ces images peuvent être des violations des droits de l’homme, des protestations, des’ mages étiqueté comme contenu « terroriste » ou extrémiste violent ,voire des images peu flatteuses des politiciens qui feront pression sur l’ entreprise pour qu’elle scanne pour eux tous les appareils Apple.
Et cette pression pourrait s’étendre à toutes les images stockées sur l’appareil, pas seulement celles téléchargées vers iCloud. Ainsi, Apple aura posé le Fondation pour la censure, la surveillance et la persécution sur une base mondiale.
Nous soutenons les efforts pour protéger les enfants et restons fermes contre la prolifération des CSAM. Mais les changements annoncés par Apple mettent les enfants et ses autres utilisateurs à risque à la fois maintenant et dans le futur. Nous exhortons Apple à abandonner ces changements et de réaffirmer l’ engagement de l’entreprise pour protéger ses utilisateurs avec un cryptage de bout en bout. Nous exhortons également Apple à consulter plus régulièrement les groupes de la société civile et avec les communautés vulnérables sur les impacts disproportionné par les évolutions de ses produits et services.
Source : https://fr.scribd.com/embeds/520814082/content
Largement publicisé par Edward Snowden