• Sab. Giu 25th, 2022

Apple Philosophy

Capire è la maniera più potente di possedere.

Apple contro gli abusi sui minori: ecco perché non devi temere per la tua privacy

Ago 16, 2021

Apple è fortemente determinata a combattere gli abusi sui minori e le prime conseguenze di questa nuova ed importante battaglia si materializzeranno entro la fine dell’anno con il rilascio di iOs 15, watchOs 8, iPadOs 15 e macOs Monterey. Le caratteristiche che permetteranno ad Apple di scandagliare la nostra attività alla ricerca di materiale o comportanti sospetti per quanto riguarda gli abusi sui minori, non saranno disattivabili. Il cambiamento non riguarderà le versioni precedenti dei sistemi operativi.

AirPods di seconda generazione ad un prezzo mai visto: sul negozio ufficiale Apple su Amazon!

Le tecniche principali che verranno implementate sono tre, vediamole nel dettaglio:

1) Modifiche all’app Ricerca di Apple e Siri.

Se un utente cercherà argomenti relativi all’abuso sessuale su minori, Apple lo indirizzerà alle risorse per segnalare il contenuto o ottenere un aiuto psicologico per affrontare questo tipo di attrazione. Con questa misura Apple dimostra di comprendere come la pedofila sia chiaramente un disturbo psicologico serio che può essere mitigato con una terapia adeguata. Dando la possibilità agli utenti di segnalare il contenuto, inoltre, si dà l’opportunità alle forze dell’ordine di prendere provvedimenti come il sequestro, la chiusura del sito e l’individuazione dei responsabili. Spesso, infatti, accade che chi si imbatte per caso in immagini pedopornografiche preso dal disgusto chiuda immediatamente pa pagina del browser senza copiare l’indirizzo del sito che le ha pubblicate: questo rende impossibile attuare le azioni di contrasto descritte in precedenza.

2) Inserimento di un’opzione di controllo genitori per i messaggi.

I nuovi strumenti di comunicazione consentiranno ai genitori di svolgere un ruolo più informato nell’aiutare i propri figli nella comunicazione online. L’app Messaggi utilizzerà l’apprendimento automatico sul dispositivo per avvisare sui contenuti sensibili, mantenendo le comunicazioni private illeggibili da Apple.

Con questa funzionalità si potrà impedire la visualizzazione delle immagini sessualmente esplicite ai minori di 18 anni. In particolare, se una persona di età inferiore a 12 anni visualizza o invia questo tipo di immagini viene inviato un avviso ai genitori.

3) Apple introdurrà un sistema che esegue la scansione delle immagini presenti in iCloud Photos per trovare materiale pedopornografico.

La scansione avverrà in due fasi. Nella prima si confrontano l’hash delle foto (vedi più avanti cos’è la funzione di hash) su iCloud con gli hash contenuti in specifici database dove vengono raccolti tutti gli hash delle fotografie e dei filmati a carattere pedopornografico noti. La seconda fase consiste nel verificare i risultati positivi emersi dalle procedure di ricerca automatica a cura degli addetti Apple. in pratica, qualora dal controllo automatico degli hash fossero rinvenute corrispondenze tra le immagini presenti nel Cloud e quelle contenute nell’elenco dei materiali pedopornografici noti, le immagini illegali verrebbero immediatamente segnalate ai moderatori Apple, che potranno decidere di trasmetterle al National Center for Missing and Exploited Children (Ncmec) che a sua volta le lavorerà e le passerà alle forze dell’ordine che hanno competenza sul particolare tipo di reato compiuto.


Approfondimento: la funzione di Hash

La funzione di hash restituisce una stringa di caratteri esadecimali per ogni contenuto sottoposto all’algoritmo di calcolo e dà risultati diversi per file diversi. Due file dati in input alla funzione di hash danno lo stesso risultato solo se sono identici per dimensioni e contenuto. Due file che differissero per un solo bit, sottoposti all’algoritmo di calcolo della funzione di hash darebbero luogo a due risultati completamente differenti.

L’NCMEC

Il National Center for Missing & Exploited Children (NCMEC) è un’organizzazione privata senza scopo di lucro fondata nel 1984 dal Congresso degli Stati Uniti. Nel settembre 2013, la Camera dei rappresentanti degli Stati Uniti, il Senato degli Stati Uniti e il Presidente degli Stati Uniti hanno nuovamente autorizzato lo stanziamento di 40 milioni di dollari in finanziamenti per il National Center for Missing & Exploited Children come parte del Missing Children’s Assistance Reauthorization Act del 2013. L’attuale presidente dell’organizzazione è Patty Wetterling, sostenitrice della sicurezza dei bambini, madre di Jacob Wetterling. NCMEC gestisce i casi di bambini scomparsi o sfruttati dall’infanzia ai giovani adulti fino all’età di 20 anni.

Apple, fortunatamente, non è la sola multinazionale a segnalare i contenuti pedopornografici all’NCMEC. Google, ad esempio lo fa da sempre. Alla pagina https://transparencyreport.google.com/child-sexual-abuse-material/reporting?hl=it

si può leggere:

“Iniziative di Google per contrastare il materiale pedopornografico online

Google si impegna a contrastare il materiale pedopornografico online. Il materiale pedopornografico è illegale e i nostri Termini di servizio vietano l’uso di qualsiasi piattaforma o servizio di Google per archiviare o condividere questi contenuti ripugnanti. I team Google lavorano giorno e notte per identificare, rimuovere e segnalare questi contenuti ricorrendo a una combinazione di strumenti di rilevamento automatico leader del settore e revisori qualificati specializzati. Riceviamo segnalazioni anche da terze parti e dai nostri utenti, che completano il nostro costante lavoro. Segnaliamo il materiale pedopornografico al National Center for Missing and Exploited Children (NCMEC), il portale e centro segnalazioni completo degli Stati Uniti dedicato ai problemi legati allo sfruttamento minorile. Il NCMEC potrebbe inviare le segnalazioni alle autorità incaricate dell’applicazione della legge di tutto il mondo.”

Seguono una serie di dati inerenti il numero di segnalazioni, il numero di account disattivati, il numero di url rimossi dall’indice della ricerca di google ed il numero di hash aggiunti al data base del NCMEC.

Anche Microsoft collabora con NCMEC; alla sua pagina

 

https://www.microsoft.com/en-us/corporate-responsibility/digital-safety-content-report?activetab=pivot_1:primaryr3

Si legge “Microsoft removes content that contains apparent CSEAI (child sexual exploitation and abuse imagery). As a US-based company, Microsoft reports all apparent CSEAI to the National Center for Missing and Exploited Children (NCMEC) via the CyberTipline, as required by US law. During the period of July – December 2020, Microsoft submitted 63,813 reports to NCMEC. We suspend the account(s) associated with the content we have reported to NCMEC for CSEAI or child sexual grooming violations.”

L’italianissima Polizia Postale e delle Comunicazioni ha rapporti stretti con NCMEC. A volte le attività investigative scaturiscono proprio dalla segnalazione pervenuta dalle autorità americane, attraverso il National Center for Missing Exploited Children (NCMEC), che in più di un occasione ha fornito al Servizio Polizia Postale e delle Comunicazioni informazioni in merito alla presenza di file di natura pedopornografica caricati da un utente italiano su servizi di cloud storage e backup offerto da aziende statunitensi.

Conclusioni

La sicurezza, in questo caso quella dei nostri bambini, passa sempre dalla cessione di qualche nostra informazione agli enti preposti a garantirla. Le nostre immagini saranno scandagliate automaticamente visionate da un essere umano solo se il calcolo dell’hash le connoterà come pedopornografiche, a quel punto, se i fatti dovessero essere confermati partirebbe la segnalazione. Come nel caso di immuni, un app fortemente incompresa, viaggerebbero solo codici, le stringhe derivanti dal calcolo dell’hash, e si passerebbe all’intervento umano solo in caso di effettiva presenza tra le foto sul cloud di immagini pedopornografiche.

È ancora poco, si dovrebbero controllare anche i dati della navigazione, i siti visitati, e il contenuto della corrispondenza. Farlo come si farà per le foto, in maniera automatica, senza coinvolgere persone fino al rilevamento di qualcosa che non va.

Attualmente le potenzialità offerte della rete avvantaggiano pedofili, terroristi e truffatori che operano nel più totale anonimato, fortemente tutelati dalle leggi sulla privacy. È giunto il momento di operare un’inversione di tendenza. Chi grida all’attentato alla propria sfera privata non ha assolutamente cognizione di quanti dati alle multinazionali semplicemente con la sua iscrizione ai social e utilizzando i programmi di messaggistica istantanea come whatsapp e telegram, società che in alcuni casi non comunicano dati alle forze dell’ordine ma li tengono ben stretti per le loro attività.

SUPPORTA Apple Philosophy a costo zero

Oggi ti abbiamo aggiornato sulle nuove tecniche che Apple metterà in campo per la protezione dei minori, con onestà intellettuale, verificando le informazioni con molta cura.  Fare questo lavoro richiede tempo, una competenza che va continuamente aggiornata  e passione. Non scriviamo su ApplePhilosophy per denaro, ma ci farebbe piacere se tu ci volessi supportare  senza spendere un centesimo.

Se stai per fare un acquisto su Amazon e desideri supportare Applephilosophy, clicca sul banner qui sotto o compra attraverso i nostri link. Per ogni acquisto che farai Amazon ci riconoscerà una piccolissima percentuale per il semplice fatto che per fare l’acquisto sei partito da ApplePhilosophy. Ovviamente NON spenderai un centesimo di più di quanto avresti speso per gli stessi acquisti andando direttamente su Amazon.

Rispondi