Questo guest blog è di John Carr, una delle principali autorità mondiali sull'uso di Internet da parte dei bambini e dei giovani e delle nuove tecnologie associate. In esso espone il probabile (devastante) impatto della proposta di Facebook di crittografare le sue piattaforme e quindi privare le agenzie di protezione dei minori della possibilità di rilevare e rimuovere materiale pedopornografico in futuro.

Abbiamo pubblicato altri blog di John su Verifica dell'età, Tappatura, e il Alleanza globale WeProtect.

Mercoledì scorso il National Center for Missing and Exploited Children (NCMEC) degli Stati Uniti ha pubblicato i suoi numeri per il 2020. 16.9 milioni di segnalazioni ricevute nel 2019 sono cresciute a 21.7 milioni nel 2020. È un aumento di oltre il 25%. Le piattaforme di messaggistica rimangono la principale fonte.

21.4 milioni dei rapporti 2020 provenivano direttamente dalle stesse aziende online, il saldo da membri del pubblico. Quest'ultimo rappresenta un aumento di tre volte rispetto al 2019. Sorprendentemente, c'è stato un aumento su base annua di quasi il 100% nelle segnalazioni di allettamento online. Una conseguenza dei blocchi su larga scala in tutto il mondo? Probabilmente.

I 21.7 milioni di rapporti, tra le altre cose, contenevano 31,654,163 file video e 33,690,561 file contenenti immagini fisse. Un singolo report può fare riferimento a più di un elemento.

Pertanto, all'interno del numero totale di segnalazioni c'è un'enorme attenzione sul trattamento di immagini illegali di un tipo o dell'altro, ma le 120,590 "altri file"  mostrati nel grafico del NCMEC rappresentano anche gravi minacce per i bambini.

Con 2,725,518 rapporti, l'India, ancora una volta, è in testa alla lista dei paesi. Seguono Filippine, Pakistan e Algeria, molto indietro ma comunque tutte sopra la soglia del milione.

Buone notizie o cattive notizie? 

Le persone contrarie alla scansione proattiva per abusi sessuali su minori sulle piattaforme di messaggistica a volte puntano a questi numeri e dicono che, poiché aumentano sempre, questo dimostra che la scansione non è un deterrente utile. Alcuni dicono che dovremmo persino chiamare la politica "Un fallimento".

Poiché i criminali si rifiutano fermamente di completare i rendimenti annuali dichiarando fedelmente ciò che hanno fatto l'anno scorso mentre delineano i loro piani per i prossimi 12 mesi, non abbiamo mai saputo e non possiamo mai sapere quanto csam è, è stato o è probabile che sia là fuori, quanti tentativi sono stati o saranno fatti per coinvolgere i minori online in modo sessualmente abusivo. I nuovi numeri di NCMEC potrebbero quindi semplicemente dirci che stiamo migliorando nel rilevamento. Quello che sicuramente non fanno è fornire un mandato per abbandonare quest'area di lotta alla criminalità, abbandonando le vittime, dichiarando la vittoria per i pedofili e l'intrattabilità dello spazio online.

Strumenti migliori

Gli strumenti che abbiamo a disposizione ora sono semplicemente migliori di una volta e vengono utilizzati in modo più ampio ed energico. E ovviamente ci sono più utenti Internet quest'anno rispetto allo scorso anno. Una parte dell'incremento è destinata a essere attribuibile esclusivamente a questo tipo di crescita organica. Ci si può aspettare che ciò continui per un po 'di tempo poiché la disponibilità di Wi-Fi e banda larga si espande e sempre più persone nel mondo sono online.

In ogni area della criminalità, individuare e affrontare i comportamenti criminali dopo l'evento è o dovrebbe sempre essere solo una parte di una strategia più ampia in cui è sempre preferibile la prevenzione attraverso l'educazione e la sensibilizzazione. Ma l'idea che dovresti rifiutarti di cercare di mitigare gli effetti del comportamento criminale ovunque e ogni volta che puoi è sia senza cuore che un insulto per i bambini vittime. Le azioni parlano più forte delle parole e nessuna azione parla ancora più forte.

Nel frattempo nell'UE

La settimana precedente NCMEC statistiche pubblicate che mostravano le segnalazioni ricevute dagli Stati membri dell'UE giù del 51% da dicembre 2020. Questa era la data in cui è entrato in vigore il Codice europeo delle comunicazioni elettroniche.

Contrapposto a un globale globale salire nella segnalazione il timore deve quindi essere quello di riportare una percentuale cadere nei rapporti degli Stati membri dell'UE, i bambini europei potrebbero stare anche peggio dei bambini in altre parti del mondo. Commissario Johansson sottolineato nell'UE 663 rapporti al giorno sono non essendo fatto che altrimenti sarebbe stato. Ciò sarebbe vero se il livello di rendicontazione fosse rimasto costante. Evidentemente non è così, il che significa che il numero reale di segnalazioni di assenti sarà probabilmente a nord di 663.

E ancora il Parlamento europeo paralizza il processo di riforma.

Facebook sulle manovre

Ricordiamo lo scorso dicembre quando il nuovo codice è entrato in vigore. Facebook, una società notoriamente litigiosa e combattiva, ha deciso che avrebbe rotto i ranghi con i leader del settore interrompendo la scansione per abusi sessuali su minori. Facebook avrebbe potuto combatterlo o, come i suoi colleghi, ignorarlo. Non l'hanno fatto neanche loro.

I cinici hanno suggerito che la decisione dell'azienda di ribaltarsi come un cucciolo di cane obbediente è stata ispirata dal desiderio di aprire la strada alla loro ambizione dichiarata a lungo di introdurre una crittografia forte su Messenger e Instagram Direct. Se non esiste un modo legale per scansionare le piattaforme di messaggistica, indipendentemente dal fatto che le piattaforme siano crittografate o meno, quasi cessa di avere importanza.

La decisione di Facebook di dicembre sembrava certamente legittimare l'opposizione di gruppi che sono sempre stati contrari alla scansione di contenuti e comportamenti che minacciano i bambini.

La sfrontatezza del business più abusivo della privacy nella storia del Pianeta Terra che esegue un voltafaccia completo, e farlo a spese dei bambini e dei cittadini rispettosi della legge in generale, ti toglie il fiato. Nessuna parola calda può lavarlo via.

Tieni quel pensiero per un momento.

Una questione di tempismo?

Facebook ha recentemente condotto una ricerca sulle attività di abuso sessuale sui minori sulle proprie piattaforme. I risultati sono appena stati pubblicato in un blog.

C'erano due studi separati. Entrambi sollevano dubbi o mettono in dubbio il valore della scansione proattiva per proteggere i bambini.

Questa è una rottura radicale con il passato di Facebook. Sono orgogliosi e ripetutamente soliti dichiarare il loro impegno per la scansione proattiva di contenuti e attività che minacciano i bambini. In effetti, a loro merito, hanno continuato a cercare segni di persone che potrebbero essere vittime di autolesionismo e suicidio. Anche se il modo in cui lo confrontano con ciò che stanno facendo in relazione agli abusi sessuali su minori mi sfugge momentaneamente.

Chi potrebbe essere contrario alla ricerca? Non me. Ma gli stessi cinici a cui ho fatto riferimento prima non hanno tardato a far notare che la tempistica del rilascio di questa ricerca fa venire da chiedersi se sia stata fatta con il più puro dei motivi. Le persone che hanno effettivamente svolto il lavoro o che hanno deciso quando pubblicare si sono soffermate a chiedersi se fossero state manipolate?

Una sorpresa

Il primo dei due studi ha rilevato che in ottobre e novembre 2020 il 90% di tutti i contenuti trovati sulla loro piattaforma e segnalati a NCMEC riguardava materiale identico o molto simile al materiale segnalato in precedenza.

Quelli di noi che hanno lavorato nel campo per molto tempo potrebbero essere sorpresi che fosse appena il 90%. Avevo sempre pensato che la percentuale di ripetizioni sarebbe stata negli anni '90 molto alti. Alte percentuali mostrano che gli strumenti proattivi stanno facendo il loro lavoro. Questo è il motivo per cui il loro uso continuato è così importante, in particolare per le vittime raffigurate nelle immagini. Il fatto che un'immagine venga ripetuta sottolinea e ingrandisce solo il danno arrecato al bambino. Sicuramente non lo diminuisce.

Le vittime possono e devono affermare loro diritto legale alla privacy e alla dignità umana. Vogliono che ogni istanza dell'immagine scompaia, non importa quante volte o dove appaia.

Pubblicare un numero come "Oltre il 90%" senza spiegare questo tipo di contesto si rischia di portare un osservatore male informato, ad esempio qualcuno che ha fretta con molte carte da leggere, a chiedersi di cosa si tratta?

Nota nel rapporto di NCMEC si riferiscono ad aver ricevuto segnalazioni di 10.4 milioni unico immagini. Questo li distingue specificamente dalle ripetizioni. Sono state le ripetizioni che ci viene chiesto di credere rappresentino il 90% del carico utile nella ricerca di Facebook.

Impressioni più potenzialmente fuorvianti

Nello stesso blog e riferendosi allo stesso studio Facebook continua a dirci “solo sei "i video erano responsabili più di metà" di tutte le segnalazioni che hanno fatto a NCMEC. Oltre ad essere lasciato a speculare su quanti video compongono l'altra metà, la domanda ovvia è "E il tuo punto?"  

La mia ipotesi è che ciò che rimarrà nelle menti delle persone impegnate è "sei".  Sei e il 90%. Numeri dei titoli. Fai attenzione che vengano ripetuti da, beh sai da chi.

Il secondo studio

Prendendo un periodo di tempo diverso (perché?), Luglio-agosto, 2020 e gennaio 2021, e una coorte diversa, molto più piccola (solo 150 account) ci viene detto delle persone che hanno caricato csam che è stato segnalato a NCMEC 75% lo ha fatto senza apparente "intento malizioso".  Al contrario, la ricerca suggerisce che le persone che hanno commesso il reato di caricare csam abbiano agito in base a un file "Senso di indignazione" o perché pensavano che fosse divertente. 75%. Questo è un altro numero del titolo che rimarrà e verrà ripetuto.

Forse c'è un documento da qualche parte che spiega come Facebook ha concluso che non c'era "intento malizioso". Non riesco a trovarlo. Ma non è difficile elaborare l'effetto netto delle varie manovre tempestive egoistiche di Facebook.

Il pubblico di riferimento è costituito da politici e giornalisti

Al momento Facebook vuole che le persone - e con questo intendo principalmente politici e giornalisti - in Europa, negli Stati Uniti e altrove, inizino a pensare che il problema degli abusi sessuali sui minori online sia diverso e molto più piccolo di quanto avrebbero potuto credere in precedenza e che è sostanzialmente dovuto all'idiozia umana (scusabile?).

Eppure la verità inalterabile è che le immagini devono essere sparite. Questo è l'inizio e la fine di tutto. Se abbiamo i mezzi per sbarazzarci delle immagini illegali di dolore e umiliazione dei bambini, perché non dovremmo? Perché invece dovremmo nasconderli deliberatamente? Il denaro è l'unica risposta che riesco a trovare e non è abbastanza buono.

Poveri sostituti

Nella terza parte dello stesso blog Facebook ci racconta altre cose che intende fare. Affronteranno l'apparente mancanza di buon gusto delle persone negli scherzi o la loro stupidità.

Finora sono usciti con due pop-up. Bravo. Facebook dovrebbe comunque metterli fuori. Nessuno dei due riesce a compensare i loro piani sulla crittografia. In qualsiasi altro ambito della vita, se un gruppo di persone si unisse per nascondere le prove di crimini, la mia ipotesi è che sarebbero arrestati e accusati di cospirazione per ostacolare il corso della giustizia.

I numeri di Facebook nel 2020

I risultati della ricerca di Facebook sono usciti in mezzo alla fila nell'UE. Erano proprio contro la pubblicazione dei nuovi numeri di NCMEC.

Nel 2019 NCMEC ha ricevuto 16,836,694 segnalazioni di cui 15,884,511 (94%) provenivano da piattaforme di proprietà di Facebook. Nel 2020 dei 21.7 milioni, 20,307,216 provenivano dalle varie piattaforme di Facebook (93%).

Sebbene io sia estremamente critico nei confronti di Facebook, non dovremmo dimenticare due importanti qualificazioni. Sono di gran lunga la più grande piattaforma nello spazio dei social media. E sappiamo così tanto su di loro solo perché i dati sono disponibili. Questo perché le loro due principali app di messaggistica, Messenger e Instagram Direct, non sono (ancora) crittografate.

Devi quindi chiederti cosa sta succedendo su altre piattaforme di messaggistica che stanno già crittografando i loro servizi e quindi non possono produrre quasi nessun dato. In realtà, non dobbiamo meravigliarci più di tanto.

Uno sguardo dietro una porta criptata

Venerdì scorso The Times  rivelato nel 2020 la polizia britannica ha ricevuto 24,000 segnalazioni da Facebook e Instagram. Ma solo 308 da WhatsApp. WhatsApp è già crittografato.

Con  44.8 milioni di utenti il Regno Unito ha il terzo maggior numero di clienti Facebook al mondo, dietro India e Stati Uniti. Instagram ha 24 milioni di utenti nel Regno Unito. Ovviamente, è probabile che ci sia una grande sovrapposizione con Facebook e le sue app Messenger e Instagram. WhatsApp ha 27.6 milioni di utenti nel Regno Unito.

Impossibile dire quale sia il numero di WhatsApp "avrebbe dovuto essere" - troppi imponderabili- ma il rapporto di 308: 24,000 sembra un po 'fuori posto. Semmai ti aspetteresti che il traffico di immagini illegali sia maggiore su WhatsApp proprio perché è già criptato. Pensaci.