Sicurezza e Privacy
Su Google se cerchi la parola “idiot” compare la foto di Donald Trump
di L.Tre.
Img Description

Un gruppo di attivisti britannic0 è riuscito a “ingannare” l’algoritmo del motore di ricerca e ogni volta che viene inserita la parola “idiot” viene restituita sotto foto una serie di scermate con l’immagine del presidente degli Stati Uniti Donald Trump. Questo in realtà accadeva venerdì, se provate però a inserire Idiot funziona ancora adesso, almeno una decina dei primi risultati ritraggono il predsidente degli Stati Uniti.

Come hanno fatto? La tecnica è nota. Gli hacker avrebbero utilizzato Reddit come esca per il posizionamento e l'abbinamento delle keyword “idiot” e “Trump” ricevendo decine di migliaia di “upvote”. L'upvote è un forte indice di posizionamento per Google. In un secondo momento sono state associate le due parole a diversi articoli pubblicati online. Attraverso una tecnica chiamata “Google Bombing” sono stati così pubblicati un grande numero di post e immagini nelle quali la figura sia il nome di Donald Trump che la parola “idiot”.

Perché resiste fino ad oggi. L'associazione è stata così forte da condizionare l'algoritmo del motore di ricerca, nonostante gli sforzi del colosso di Mountain View di sorvegliarlo. Il motivo per cui l’abbinamento resiste è dovuto al fatto che la copertura mediatica che la notizia sta ottenendo non fa altro che aumentare questa associazione tra i due termini.

I precedenti.
Non è la prima volta che questa mossa viene messa in pratica. Una operazione simile era avvenuta anche con Michelle Obama. In quel caso, cercando il suo nome, su Google apparivano immagini dove Michelle era rappresentata con sembianze di una scimmia.  In quell’occasioneGoogle si scusò, ribadendo che : «Le opinioni espresse dai siti non sono in alcun avallate da noi».

Disorientare l’intelligenza artificiale. Non è solo l’algoritmo di Google a rischio hacking. Anche l’intelligenza artificiale può essere ingannata. A lanciare l'allarme, riferisce la rivista Science sul suo sito, è la conferenza internazionale sull'apprendimento automatico, Icml (International Conference on Machine Learning). E' emerso, ad esempio, che è sufficiente alterare leggermente un'immagine, un oggetto o un suono per prendersi gioco del più sofisticato dei sistemi di intelligenza artificiale, fino a disorientarlo. I rischi per la sicurezza non sono difficili da immaginare, considerando che ai sistemi di apprendimento automatico cominciano a essere affidati compiti delicati, che prevedono un'interazione diretta con l'uomo, come guidare un'auto autonoma.
Fra i primi gruppi di ricerca che si sono attivati per mettere a punto delle contromisure c'è quello del Massachusetts Institute of Technology (Mit) coordinato da Anish Athalye. «Abbiamo bisogno di ripensare completamente la nostra concezione di apprendimento automatico per renderlo più sicuro», ha rilevato all’Ansa, Aleksander Madry, del Mit.

Hai raggiunto il limite di 10 articoli gratuiti disponibili questo mese.
Abbonati a Il Sole 24 Ore Mobile per avere accedere illimitatamente a tutti i contenuti del sito mobile
Inserisci il tuo numero di cellulare per attivare l'offerta o, se sei già abbonato, per continuare a leggere.
Altre informazioni