Ogni volta che un captcha code vi chiede di indicare in quali immagini sono presenti delle biciclette o un gatto, non state solo dimostrando di non essere dei bot, ma state prima di tutto addestrando un’intelligenza artificiale (per la precisione, un algoritmo di image recognition) a riconoscere una bicicletta o un gatto in tutte le sue forme, colori e posizioni.

I sistemi di machine learning hanno bisogno di centinaia di migliaia di dati (e altrettanti tentativi) per imparare a fare tutto ciò che oggi va sotto il nome di intelligenza artificiale.
Vi sarà sicuramente capitato di vedere la (e magari partecipare alla) 10 years challenge, in cui si confrontano le proprie foto di oggi con quelle scattate una decina di anni fa.
Visto così, si tratta di un innocuo giochino tipicamente da social network, giusto? Come sottolineato dalla scrittrice Kate O’Neill, questa visione ingenua poteva andare bene una decina di anni fa, oggi invece dovrebbe venire spontaneo domandarsi come verranno utilizzati tutti questi dati e se serviranno ad addestrare un algoritmo a riconoscere come cambiano le persone con il progredire dell’età.

Il tweet in questione,
potrebbe sembrare un po’ paranoico: perché mai dovremmo vedere tutto ciò che avviene su Facebook come potenzialmente pericoloso? In fondo, la 10 years challenge è solo un passatempo divertente.

Un po’ come quei quiz in cui, dopo aver risposto ad alcune domande, ci viene detto che personalità abbiamo o a quale personaggio storico assomigliamo. Il problema è che quiz di questo tipo sono esattamente quelli sfruttati, per fare solo un esempio, da Cambridge Analytica per mettere a punto uno dei più inquietanti sistemi di propaganda elettorale mai visti (e che potrebbero aver contribuito alla vittoria di Donald Trump). Il punto, quindi, è proprio che oggi non possiamo più permetterci l’ingenuità con cui per lungo tempo ci siamo approcciati ai giochini da social come la 10 years challenge. Sarebbe il caso di valutare sempre quale sia l’utilizzo che può essere fatto dei dati che diamo in pasto alle piattaforme (e ai loro algoritmi) e quali potrebbero essere le potenziali implicazioni tecnologiche e sociali.

Ovviamente, come sottolinea la stessa O’Neill, Facebook possiede già una marea di nostre immagini personali. Ma è evidente che facogitare centinaia di migliaia di foto in cui noi stessi mettiamo a confronto come siamo oggi rispetto a dieci anni fa può, come minimo, semplificare notevolmente il lavoro all’algoritmo del social network, offrendogli delle immagini già perfettamente etichettate e databili con assoluta precisione. Tutto questo potrebbe permettere all’algoritmo di imparare come uomini e donne cambiano nel corso del tempo e anche a riconoscere la stessa persona nonostante lo scorrere degli anni.

“In poche parole”, scrive O’Neill, “grazie a questo meme oggi è possibile costruire un database molto ampio di fotografie, attentamente etichettate, che mostrano le persone com’erano dieci anni fa e come sono oggi”. Detto questo, potrebbe anche essere che la 10 years challenge sia realmente nata in modo del tutto spontaneo e che nessuno la stia utilizzando per scopi ignoti.

Ma sarebbe un atteggiamento davvero ingenuo, soprattutto considerando quanto si stiano diffondendo gli algoritmi di face recognition che, un domani, ci permetteranno di pagare usando il nostro volto, di riconoscerci all'interno di un negozio (automatizzando tutto il processo di acquisto e mostrando sconti pensati appositamente per noi).

“Questa tecnologia”, scrive sempre O’Neill, “potrebbe aiutare a ritrovare i bambini scomparsi. (…) Se i bambini sono stati smarriti da tempo, potrebbero avere un aspetto molto diverso rispetto alle loro ultime foto; quindi un algoritmo affidabile, in grado di riconoscere come si cambia con l’età, potrebbe essere estremamente utile”.

I timori relativi a queste tecnologie, insomma, sono sempre gli stessi: da una parte possono facilitare il lavoro delle forze dell’ordine, dall’altra rischiano di precipitarci in una società in cui tutti siamo costantemente sorvegliati. La 10 years challenge, da questo punto di vista, potrebbe contribuire ad addestrare questi sistemi e a renderli sempre più efficienti. Potrebbe anche non essere così, ma il punto è un altro: in un’epoca in cui l’intelligenza artificiale è sempre più pervasiva, in cui i nostri dati sono vengono sfruttati in modo improprio dai colossi della Silicon Valley e in cui il timore della sorveglianza di massa si fa sempre più largo, dovremmo prestare molta più attenzione ai possibili utilizzi di quelli che a prima vista sembrano solo innocui giochini. O il caso Cambridge Analytica non ci ha insegnato proprio nulla?