Une nouvelle action en justice vise Apple concernant sa décision d’abandonner un système de détection de contenus pédopornographiques sur iCloud Photos. Cette plainte, déposée par une victime de 27 ans, accuse l’entreprise de ne pas avoir mis en œuvre les mesures nécessaires pour lutter contre la propagation de ces contenus illégaux, forçant ainsi les victimes à revivre leur traumatisme.
Un projet controversé abandonné par Apple
En 2021, Apple avait annoncé un système utilisant des signatures numériques pour détecter les contenus pédopornographiques connus dans les bibliothèques iCloud des utilisateurs. Cependant, face aux critiques de défenseurs de la vie privée craignant que ce système puisse ouvrir la voie à une surveillance gouvernementale, Apple a finalement renoncé à déployer cette technologie.
La plaignante affirme qu’Apple a manqué à ses responsabilités en n’implémentant pas ce système ou d’autres mesures pour détecter et limiter la circulation de ces contenus abusifs. Elle reçoit encore presque quotidiennement des notifications concernant des personnes inculpées pour possession d’images d’abus la concernant.
Des implications potentiellement importantes
Selon l’avocat James Marsh, impliqué dans cette affaire, jusqu’à 2 680 victimes pourraient potentiellement prétendre à une indemnisation dans le cadre de cette action en justice. Cette plainte s’ajoute à une autre déposée en août par une fillette de 9 ans et son tuteur, accusant également Apple de ne pas avoir pris les mesures nécessaires pour lutter contre les contenus pédopornographiques sur iCloud.
Face à ces accusations, Apple affirme travailler activement à l’élaboration de solutions pour combattre ces crimes, tout en préservant la sécurité et la confidentialité de l’ensemble de ses utilisateurs. L’issue de cette affaire pourrait avoir des répercussions importantes sur la manière dont les géants de la technologie abordent la délicate question de la détection des contenus illégaux tout en respectant la vie privée de leurs utilisateurs.