Entro il 2028, la US Air Force potrà contare su una flotta di F-16 controllati dall’IA. La previsione è quella di arrivare a realizzarne oltre 1.000 unità, che potranno poi essere impiegate in ambito bellico. Sarà l’ennesimo step di un progetto di ricerca e sviluppo avviato ormai anni fa e che, di recente, ha visto gli algoritmi impegnati in una simulazione contro un pilota in carne e ossa.
Air Force in guerra con gli F-16 guidati dall’IA
Il promo test è già andato in scena presso la Edwards Air Force Base, in California. A bordo dell’aereo da guerra, appositamente configurato e ribattezzato Vista, controllato esclusivamente dall’intelligenza artificiale, c’era anche Frank Kendall, segretario dell’aeronautica statunitense. Questa la sua dichiarazione, affidata ad Associated Press dopo l’atterraggio, in riferimento ai potenziali rischi legati a queste nuove tecnologia.
Non averle, è un rischio per la sicurezza. A questo punto, dobbiamo averle.
L’impiego dell’IA nel contesto militare è da lungo tempo un tema discusso, fin dalle polemiche sul Project Maven di Google. Di recente, però, è diventato di dominio pubblico, complice l’interesse nei confronti dell’intelligenza artificiale legato alla crescita di servizi come ChatGPT.
Sappiamo, ad esempio, che l’offensiva di Israele a Gaza ha fatto uso di un sistema chiamato Lavender. È stato impiegato nel processo di valutazione degli obiettivi da colpire, per velocizzare le operazioni. Quanto trapelato fa riferimento a un range considerato accettabile di vittime collaterali, compreso tra 15 e 20, per ogni bombardamento deciso anche sulla base dei suggerimenti forniti dall’IA.
Ancora, in un incontro dell’autunno scorso avvenuto tra Microsoft e i vertici del Dipartimento della Difesa degli Stati Uniti, la software house ha illustrato come sfruttare le potenzialità di DALL·E e ChatGPT in ambito bellico.
Secondo il Comitato internazionale della Croce Rossa, i rischi sono elevati e concreti.
Ci sono preoccupazioni serie e diffuse in merito al delegare le decisioni di vita o morte a sensori e software. Le armi autonome sono un’immediata causa di timore e richiedono una risposta politica internazionale urgente.