- Apple vorrebbe installare sui suoi dispositivi dei codici corrispondenti a delle foto di materiale pedopornografico, una sorta di impronta digitale di questo materiale fornito da alcune organizzazioni che si occupano della tutela dei minori.
- Il problema è che questa tecnologia lascia spazio ad usi diversi, potenzialmente molto pericolosi per i diritti fondamentali perché i codici identificativi sono installati sul telefono. Infatti in molti, da Edward Snowden agli attivisti per la privacy, sono insorti, e Apple ha dovuto rivedere i suoi piani.
- Nel 2015 quando l’Fbi chiese ad Apple di creare una backdoor l’azienda si oppose. Come è cambiata Apple?
Sono giorni caldi a Cupertino e non solo per la presentazione del nuovo iPhone 13. Lunedì Apple ha reso disponibile un nuovo urgente aggiornamento per risolvere una falla importante nella sicurezza di tutti i suoi device (iPhone, iPad, Mac) scoperta da alcuni ricercatori del Citizen Lab secondo i quali sarebbe stata usata da NSO Group, azienda israeliana che fornisce ufficialmente a soli governi e forze dell’ordine spyware come Pegasus per intercettare le comunicazioni dei device della mela, ritenuti più difficili da hackerare. Tuttavia, secondo quanto rivelato dal Guardian e altre testate nel Pegasus Project, Pegasus sarebbe stato usato anche per spiare attivisti dei diritti umani e giornalisti.
Questa è solo l’ultima notizia in ordine di tempo ad appannare la reputazione di paladina della privacy che Apple si è costruita negli anni. L’azienda della mela ha passato un agosto rovente per aver messo in dubbio quel primato.
Breccia nella privacy
Un mese fa infatti Apple ha annunciato che con il prossimo lancio di iOS15 avrebbe installato sia un sistema per riconoscere il materiale pedopornografico presente nella nostra libreria fotografica di iCloud, che uno per riconoscere le foto di nudo scambiate su iMessage tra i minori.
Le critiche di esperti di cyber sicurezza, accademici e società civile sono state tali da far fare un passo indietro ad Apple mettendo nel freezer il progetto per il momento. Non sono bastate le interviste chiarificatrici come quella di metà agosto al Wall Street Journal di Craig Federighi, Apple Software Chief e papabile successore di Tim Cook. Oltre 90 organizzazioni che tutelano la privacy e i diritti fondamentali online hanno inviato una lettera ad Apple per chiedere ad Apple di bloccare il progetto. Non è mancato tra i critici anche Edward Snowden, ex consulente informatico diventato attivista dopo aver rivelato nel 2013 il modo in cui Nsa e Cia spiavano americani e capi di stato. Lo stop momentaneo è poi arrivato il 3 settembre con un avviso in cima alla pagina che descrive il progetto.
Di cosa si tratta
Per tutelare i minori l’aggiornamento avrebbe introdotto tre novità. Avrebbe scansionato le foto inviate tramite iMessage, il servizio di messaggistica di Apple, per verificare la presenza o meno di foto di nudo scambiate tra utenti minori di 18 anni. Se trovata, l’avrebbe oscurata avvisando il minore del rischio di voler vedere comunque una foto contenente nudo. In caso di minore di meno di 12 anni, lo avrebbe anche avvisato che una volta vista la foto, sarebbe stato avvisato il genitore che gestisce il piano Apple Family.
La seconda è che in caso l’utente chiedesse a Siri, l’assistente intelligente di Apple, foto di violenze su minori, un banner lo avrebbe avvertito che si trattava di materiale illegale e lo avrebbe indirizzato verso un centro d’assistenza.
La terza novità è quella che più fa discutere gli esperti di cybersicurezza. Apple vorrebbe installare sui suoi dispositivi dei codici corrispondenti a delle foto di materiale pedopornografico, una sorta di impronta digitale di questo materiale fornito da alcune organizzazioni che si occupano della tutela dei minori. Non inserirebbe quindi queste foto nel telefono, ma solo l’elenco dei loro codici identificativi. Nel solo caso in cui l’utente usasse il suo servizio iCloud per conservare le foto online, allora Apple potrebbe verificare se esiste una corrispondenza tra le foto della propria libreria, a sua volta trasformate in codici, e quei codici installati sul telefono. In caso ne trovi più di trenta, un addetto avrebbe il compito di vedere effettivamente quelle foto per verificare non ci siano errori di valutazione del software. In caso di conferma dell’addetto, l’account sarebbe bloccato e l’utente sarebbe segnalato alle forze dell’ordine.
I rischi
Apple ha deciso di annunciare il progetto quando ha pensato di aver trovato la soluzione ad un dilemma che sembra irrisolvibile: come tutelare la privacy degli utenti e al contempo consentire a forze dell’ordine e aziende di individuare contenuti pedopornografici o comunque pericolosi per i minori. Se è vero che ormai lo standard è quello dei messaggi cifrati in quasi tutte le applicazioni di messaggistica, questo non vale per il cloud che resta in chiaro, benché molti non lo sappiano. Apple dice dunque che dove gli altri scandagliano con gli algoritmi le foto sui loro cloud, l’azienda della mela avrebbe trovato il modo di farlo senza “guardare” le foto, ma solo confrontandone i codici identificativi.
Il problema è che questa tecnologia lascia spazio ad usi diversi, potenzialmente molto pericolosi per i diritti fondamentali perché i codici identificativi sono installati sul telefono. Per un’azienda il cui mercato cinese costituisce una quota significativa delle vendite, cosa succederà quando il governo cinese chiederà ad Apple di usare quella tecnologia per cercare meme critici di Xi Jinping o foto di proteste? Joseph Cox di Vice US lo ha chiesto in conferenza stampa ad Apple senza ricevere una risposta. Il caso della Cina è emblematico sia perché lì l’azienda ha già concesso molte eccezioni, come quella di conservare i dati di iCloud degli utenti cinesi su server cinesi non cifrati, accessibili direttamente dal Governo, sia perché le big tech locali già scansionano quotidianamente i social network e le chat alla ricerca di materiale compromettente, rendendo questo scenario niente affatto improbabile. Così come potrebbe accadere in altri paesi dove l’omosessualità è un reato che un governo o addirittura una legge richieda a Cupertino di cercare foto di uomini o donne che si baciano e di segnalarle alle autorità. Se in passato Apple ha potuto opporre l’impossibilità tecnologica di rispettare l’ordine, oggi abbiamo solo la sua parola che non lo farà. Quando nel 2015 l’Fbi chiese ad Apple di creare una backdoor per sbloccare l’iPhone di uno dei terroristi morto nella sparatoria di San Bernardino, Apple si oppose affermando che creare una backdoor avrebbe messo a rischio la sicurezza di tutti i suoi device. Da oggi quel muro dettato dalla difficoltà tecnica è crollato e dove la legge di uno stato chiederà di verificare la presenza di certo materiale non potranno più opporsi se non lasciando il paese.
Una novità aggirabile
Questa novità sarebbe comunque facilmente aggirabile scambiando le foto compromettenti su WhatsApp, Telegram, Signal, per evitare il controllo di iMessage, ed escludendo quelle foto dall'upload su iCloud. Ad ogni modo non si può cantar vittoria neanche con il momentaneo passo indietro di Apple. Il risultato tangibile è che questa tecnologia esiste ed è pronta per l’uso. Si è creato dunque un precedente pericoloso per cui con una nuova legge gli stati potrebbero ordinare ad Apple di fare la ricerca non più su iCloud ma sul telefono e anche allora Apple non potrebbe far più nulla. Urge tenere alta la guardia dunque.
© Riproduzione riservata