ChatGPT Search, il motore di ricerca AI lanciato questo mese da OpenAI, non è così infallibile come sembra. Secondo una ricerca del quotidiano britannico The Guardian, può essere facilmente ingannato e indotto a generare riassunti completamente fuorvianti.
ChatGPT Search può essere manipolato
L’idea di base di ChatGPT Search è quella di rendere la navigazione più veloce, ad esempio riassumendo le recensioni di un prodotto su una pagina web. Ma il The Guardian ha scoperto che, inserendo del testo nascosto in siti web creati ad hoc, possono far sì che ChatGPT ignori le recensioni negative e generi riassunti “totalmente positivi“. Non solo: con lo stesso metodo, possono anche fargli sputare fuori codice malevolo.
Gli attacchi basati su testo nascosto sono un rischio ben noto per i grandi modelli linguistici, ma questa sembra essere la prima volta che vengono dimostrati su un prodotto di ricerca live basato sull’intelligenza artificiale. Google, leader indiscusso del settore, ha più esperienza nel gestire problemi simili, fa notare The Guardian.
OpenAI: “Ci stiamo lavorando”
Contattata da TechCrunch, OpenAI non ha commentato nello specifico questo incidente, ma ha dichiarato di utilizzare vari metodi per bloccare i siti web malevoli e di essere costantemente al lavoro per migliorare. Insomma, anche l’intelligenza artificiale più sofisticata può cadere vittima di trucchetti piuttosto banali.
Un promemoria importante per tutti noi: non dobbiamo mai dare per scontata l’affidabilità di ciò che leggiamo online, nemmeno se a scriverlo è un chatbot super intelligente. Del resto, anche i motori di ricerca tradizionali non sono immuni da manipolazioni e inganni.
La differenza è che, con l’AI, il rischio di essere tratti in inganno è ancora più alto. E francamente, è un po’ inquietante pensare che basti un po’ di testo nascosto per far dire a ChatGPT tutto e il contrario di tutto. Speriamo che OpenAI trovi presto una soluzione, altrimenti la credibilità del suo nuovo motore di ricerca potrebbe essere compromessa sul nascere.