Immaginiamo di caricare una foto su un social network e che un algoritmo sia in grado di interpretare le emozioni delle persone ritratte. Fantascienza? Non più, almeno secondo Google. Il colosso di Mountain View ha appena svelato PaliGemma 2, una nuova famiglia di modelli AI con i superpoteri…
Cos’è PaliGemma 2 e come funziona
PaliGemma 2 si basa sui modelli aperti Gemma 2 di Google e utilizza tecniche avanzate di computer vision e linguaggio naturale per analizzare le immagini e generare descrizioni dettagliate. Ma la vera novità è che PaliGemma 2 sarebbe in grado di identificare le emozioni delle persone nelle foto. Cosa significa? Che potrebbe dirci se qualcuno in una foto è felice, triste, arrabbiato o sorpreso.
Attenzione però: il riconoscimento delle emozioni non è una funzionalità automatica, ma richiede un “fine-tuning” specifico dei modelli. Google non è entrata nei dettagli tecnici, ma possiamo immaginare che sia necessario un addestramento mirato su dataset di immagini annotate con le emozioni.
PaliGemma 2, perché preoccupa gli esperti
Se da un lato le potenzialità di PaliGemma 2 sono indubbiamente affascinanti, dall’altro sollevano non poche perplessità tra gli addetti ai lavori. Secondo molti, difficilmente un’AI sarà mai in grado di cogliere le sfumature delle emozioni umane.
Il rischio, secondo gli esperti, è che modelli come PaliGemma 2 finiscano per perpetuare bias e stereotipi. Non è un caso che diversi studi abbiano evidenziato come i sistemi di riconoscimento delle emozioni tendano ad attribuire emozioni più negative ai volti delle persone di colore.
Ciò che preoccupa di più gli esperti è che modelli come PaliGemma 2, essendo aperti e liberamente accessibili, possano essere utilizzati in modo improprio o addirittura dannoso. “Pensiamo alle implicazioni di usare una presunta identificazione emotiva, magari basata su presupposti pseudo-scientifici, per discriminare ulteriormente le minoranze in contesti come le forze dell’ordine o le assunzioni“, ha ammonito Heidy Khlaaf dell’AI Now Institute.
Quali garanzie offre Google?
Dal canto suo, Big G assicura di aver condotto “test approfonditi” per valutare e mitigare i bias demografici in PaliGemma 2. I risultati sembrerebbero incoraggianti, con “bassi livelli di tossicità e volgarità” rispetto ai benchmark di settore. Tuttavia, l’azienda non ha fornito dettagli esaustivi sulla metodologia adottata, né ha reso noti tutti i benchmark utilizzati per il testing. Insomma, per molti persistono diverse zone d’ombra.
Una tecnologia potente ma controversa
Di fronte a queste critiche, Google si è trincerata dietro un “no comment”, ribadendo genericamente il proprio impegno per un’intelligenza artificiale etica e responsabile. Una risposta che, francamente, sa di già sentito e che non rassicura più di tanto.
Intendiamoci: le potenzialità di PaliGemma 2 e dei modelli di riconoscimento delle emozioni sono innegabili e affascinanti. Ma è altrettanto vero che siamo di fronte a una tecnologia dirompente e per certi versi controversa, che solleva interrogativi non banali sul piano etico e sociale.
La comunità scientifica e gli enti regolatori saranno chiamati a trovare il giusto equilibrio tra innovazione e tutela dei diritti. Perché un conto è usare l’AI per taggare automaticamente le nostre foto delle vacanze, un altro è affidarle il compito di interpretare la nostra sfera emotiva più intima e privata. Senza contare i rischi di sorveglianza e profilazione di massa.