Prima di collegarsi a determinati servizi online, spesso gli utenti devono spuntare la casella “Non sono un robot” e completare dei test con delle immagini, come attraversamenti pedonali, autobus, semafori e altre scene di vita quotidiana. Si tratta dei famosi reCAPTCHA, ampiamente utilizzati dai siti web per difendersi dagli attacchi automatizzati di bot e software malevoli.
Gli utenti devono riconoscere e selezionare specifici elementi all’interno di immagini reCAPTCHA casuali, in modo da dimostrare di non essere dei programmi automatizzati, ma persone reali. Questi test basati sul riconoscimento di pattern, apparentemente semplici per un utente umano, hanno lo scopo di bloccare l’accesso ai bot, almeno fino ad oggi.
I reCAPTCHA non sono un ostacolo all’intelligenza artificiale
In teoria, non è possibile utilizzare l’intelligenza artificiale per aggirare questi controlli. Naturalmente esistono modi subdoli per farlo e i malintenzionati non sono da meno. Ma mentre pensavamo di essere al sicuro con i test basati sulle immagini, un gruppo di ricercatori ha dimostrato che l’AI può facilmente superarli il 100% delle volte. Per farlo, hanno addestrato una macchina con il modello di riconoscimento degli oggetti YOLO (You Only Look Once). Sono state utilizzate 14.000 immagini di traffico stradale.
“Questa scoperta solleva dubbi sull’affidabilità dei reCAPTCHA basati sulle immagini come metodo definitivo per distinguere gli esseri umani dai robot. I nostri risultati indicano che gli attuali meccanismi di captcha non sono immuni ai rapidi progressi dell’intelligenza artificiale“, spiegano gli scienziati. Tuttavia, esiste una nuova versione dei CAPTCHA, i reCAPTCHA v3, che sembrerebbe più efficace.
I reCAPTCHAv3 implementati da Google sono più sicuri
La nuova tecnologia reCAPTCHA v3 di Google non richiede all’utente di completare test o selezionare immagini. Questa versione analizza una serie di indicatori sullo sfondo per determinare autonomamente se l’accesso al sito proviene da un essere umano o da un programma automatizzato. Il sistema assegna un punteggio in base al rischio stimato di accesso da bot, senza alcuna azione richiesta all’utente. Non è un metodo infallibile, ma ha il merito di proporre un metodo che l’intelligenza artificiale non può (ancora) superare.
Il problema è che questo sistema deve essere implementato su larga scala dai web host, cosa che oggi è ben lungi dall’essere possibile. Nel frattempo, gli autori ribadiscono “la necessità che le tecnologie CAPTCHA si evolvano in modo proattivo, rimanendo un passo avanti rispetto ai rapidi miglioramenti dell’AI“.