PUBBLICITÀ
Apple

Il gruppo per i diritti digitali chiede ad Apple di abbandonare il progetto CSAM

L'EFF, gruppo per i diritti digitali, chiede a Apple di non implementare negli aggiornamenti futuri le funzionalità per limitare la diffusione di materiale pedopornografico.

La Electronic Frontier Foundation si è definita “soddisfatta” della decisione di Apple di posticipare il lancio delle sue controverse funzionalità di sicurezza dei bambini, ma ora vuole che la società abbandoni completamente il progetto.

Venerdì Apple ha dichiarato che posticiperà il lancio delle funzionalità pianificate per “prendere più tempo per apportare miglioramenti”, a seguito del feedback negativo di una vasta gamma di individui e organizzazioni, tra cui ricerche sulla sicurezza, gruppi politici e persino alcuni dipendenti della società stessa.

Le funzionalità pianificate includono la scansione delle librerie di foto di iCloud degli utenti per verificare la presenza di materiale pedopornografico (CSAM), per avvertire i bambini e i loro genitori quando ricevono o inviano foto sessualmente esplicite.

Adesso, l’EFF si è detto “contento che Apple stia ora ascoltando le preoccupazioni” degli utenti, ma “la società deve andare oltre il semplice ascolto e abbandonare completamente i suoi piani per inserire una backdoor nella sua crittografia. ”

La dichiarazione del gruppo per i diritti digitali ha ribadito le sue precedenti critiche sulle funzionalità previste, che ha definito “una diminuzione della privacy per tutti gli utenti di iCloud Photos‌‌, non un miglioramento”, e ha avvertito che la mossa di Apple di scansionare i messaggi e le librerie iCloud‌‌ potrebbe essere legalmente richiesto dai governi autoritari per includere materiali aggiuntivi.

Ha anche evidenziato una serie di petizioni che sono state organizzate in opposizione alle funzionalità sopracitate:

Le risposte ai piani di Apple sono state schiaccianti: oltre 90 organizzazioni in tutto il mondo hanno esortato l’azienda a non implementarle, per paura che avrebbero portato alla censura della parola protetta, minacciato la privacy e la sicurezza delle persone in tutto il mondo e perché potrebbero avere conseguenze disastrose per molti bambini. Questa settimana, la petizione di EFF ha raggiunto 25.000 firme. Questo si aggiunge ad altre petizioni di gruppi come Fight for the Future e OpenMedia, per un totale di oltre 50.000 firme. L’enorme coalizione che si è espressa continuerà a chiedere che i telefoni degli utenti, sia i loro messaggi che le loro foto, siano protetti e che l’azienda mantenga la sua promessa di fornire una vera privacy ai suoi utenti.

La suite di funzioni per la sicurezza dei bambini doveva originariamente debuttare negli Stati Uniti attraverso un aggiornamento futuro di iOS 15, iPadOS 15, watchOS 8 e macOS Monterey. Non è chiaro quando Apple abbia intenzione di implementare le funzionalità “di fondamentale importanza” o come intenda “migliorarle” alla luce di così tante critiche, ma la società sembra ancora determinata a procedere su questa strada.

Cosa ne pensate?

Utilizziamo Link di Affiliazione Amazon che generano commissioni. Cosa significa?

Se hai trovato interessante questo articolo, condividilo e fallo leggere anche ai tuoi amici:

Lascia un commento

Back to top button