ChatGPT è un modello linguistico AI (Llm) dalle capacità davvero impressionanti. Può svolgere, infatti, numerosi compiti complessi come tradurre, scrivere testi creativi come canzoni o poesie, rispondere a domande articolate fornendo informazioni dettagliate, e persino generare codice in diversi linguaggi di programmazione.
Grazie a queste abilità, ChatGPT è diventato rapidamente uno strumento molto popolare con un’ampia gamma di utilizzi, dalla creazione di chatbot e assistenti virtuali, alla generazione automatica di contenuti per il web, fino al supporto per sviluppatori software e molto altro. Tuttavia, nonostante i notevoli progressi, il chatbot di OpenAI presenta ancora alcuni importanti limiti che è bene tenere presente.
Quali sono i limiti di ChatGPT
Ad alcuni, ChatGPT potrà sembrare anche una sorta di bacchetta magica, ma nella realtà dei fatti le cose stanno diversamente. Questo strumento presenta diversi limiti, che è importante considerare per un utilizzo responsabile, oltre che etico, di questa tecnologia.
ChatGPT, come tutti i chatbot AI, fatica a comprendere contesti e conversazioni complesse che richiedono memoria e ragionamento a lungo termine. Inoltre, può fornire informazioni inventate (le famose allucinazioni) per mascherare le proprie lacune, essendo addestrato su dataset limitati. Senza considerare la mancanza di reale creatività e coscienza originale. Ecco i 10 punti deboli di ChatGPT:
1. Manca di buon senso
Sebbene ChatGPT sia in grado di generare risposte simili a quelle umane e abbia accesso a una grande quantità di informazioni, è sprovvisto di buon senso e il modello non ha nemmeno le conoscenze di base che abbiamo noi. Ad esempio, se si chiede al chatbot “Quanti anni ha mia sorella?“, non avendo informazioni sul contesto e sulla situazione personale dell’utente, può solo tentare di dare una risposta vaga o inventata, non possedendo la capacità umana di discernere che la domanda presuppone una conoscenza specifica che l’AI non ha.
Questo limite talvolta induce ChatGPT a fornire risposte insensate o imprecise a determinate domande o situazioni che richiederebbero invece capacità umane come buon senso, intuizione e comprensione del contesto che vanno al di là delle sue attuali capacità computazionali. Tenere presente questa mancanza di “senso comune” può aiutare a interpretare in modo critico le risposte del chatbot e a riconoscere quando non è in grado di rispondere in modo sensato.
2. Manca di intelligenza emotiva
Anche se ChatGPT può generare risposte che sembrano empatiche, in realtà non possiede una vera intelligenza emotiva. Come promemoria, l’intelligenza emotiva è la capacità di riconoscere, comprendere e gestire le proprie emozioni e quelle degli altri.
Il termine è stato coniato per la prima volta nel 1990 dagli psicologi Peter Salovey e John D. Mayer, ma è stato grazie al lavoro dello psicologo e giornalista scientifico Daniel Goleman che è diventato ampiamente popolare. Goleman ha ampliato la definizione di intelligenza emotiva, sostenendo che è altrettanto importante, se non di più, del quoziente intellettivo per il successo nella vita.
Ad esempio, se un utente condivide con ChatGPT di aver appena subito la perdita di una persona cara, il modello può generare una risposta che esprime compassione e solidarietà, ma si tratta solo di parole generate artificialmente, non di una reale comprensione emotiva umana.
ChatGPT non è in grado di percepire gli stati emotivi sottili o le sfumature del linguaggio che comunicano emozioni. Non può provare empatia o modulare le risposte in base a un’effettiva comprensione del dolore e del trauma emotivo che le persone provano in situazioni difficili. Il modello produce semplicemente risposte pre-generate che sembrano appropriate, ma senza un’autentica consapevolezza emotiva.
3. Non ha senso dell’humor
ChatGPT ha difficoltà a comprendere il contesto, in particolare il sarcasmo e l’umorismo. Ad esempio, se un utente chiede in tono sarcastico “Questo treno è davvero in orario oggi, vero?“, riferendosi ironicamente a un ritardo, il chatbot potrebbe non comprendere l’intento sarcastico della domanda e rispondere in modo letterale, come “Mi dispiace, non ho informazioni sull’orario effettivo di questo treno per poter confermare se è in ritardo o meno“.
In modo simile, se un utente fa una battuta o usa l’umorismo, ChatGPT fatica a cogliere questi segnali sociali e interpersonali che sono invece naturali per gli esseri umani (o almeno, per alcuni… sigh!). Manca della capacità umana di inferire il significato implicito e il contesto dietro messaggi sarcastici o scherzosi.
4. Fa fatica a generare contenuti lunghi e strutturati
Al momento, ChatGPT ha qualche problema a generare contenuti lunghi e ben strutturati. Per esempio, se gli viene richiesto di scrivere un saggio di diverse pagine su un argomento complesso, con una struttura chiara fatta di introduzione, tesi, argomentazioni e conclusione, il modello potrebbe avere difficoltà a organizzare coerentemente contenuti così estesi.
Il chatbot potrebbe essere in grado di generare singoli paragrafi ben scritti e pertinenti. Tuttavia, ha difficoltà a collegare questi paragrafi in una narrazione coerente e coesa che si sviluppi in modo organico per diverse pagine. Il rischio è che il saggio risulti disorganizzato, ripetitivo o peggio ancora, privo di una struttura logica. Perciò al momento il chatbot di OpenAI è più indicato per generare brevi blocchi di testo, mentre la produzione di contenuti estesi e ben strutturati rimane ancora una sfida.
5. Non sa gestire più attività contemporaneamente
ChatGPT funziona meglio quando gli si assegna un singolo compito alla volta, piuttosto che più incarichi contemporaneamente. Ad esempio, se si chiede di fornire sia un riassunto di un testo che una lista di keyword rilevanti nello stesso momento, potrebbe generare una risposta confusa combinando in modo disorganico i due compiti.
Mentre l’intelligenza umana è in grado di passare agevolmente da un’attività all’altra dando la priorità in base al contesto, il chatbot fatica a gestire richieste multiple simultanee. Il modello finisce per mescolare le risposte senza distinguere quale compito sia più rilevante, con un conseguente calo di qualità e accuratezza nella produzione finale. Assegnando un singolo obiettivo alla volta, infatti, si ottengono risultati migliori.
6. A volte può dare risposte distorte
ChatGPT è addestrato su grandi quantità di testi scritti da esseri umani, i quali possono talvolta contenere, anche inconsapevolmente, pregiudizi e stereotipi. Di conseguenza, il modello può assorbire questi bias e generare risposte inappropriate.
Ad esempio, se gli viene chiesto di descrivere una certa professione, il chatbot potrebbe involontariamente fare affidamento su stereotipi di genere, razziali o di altro tipo presenti nei dati di addestramento. Ciò può portare il modello a fornire descrizioni limitanti o offensive di specifici gruppi demografici.
7. Possiede una conoscenza limitata
ChatGPT non possiede l’intera gamma di conoscenze ed esperienze del mondo reale che ha un essere umano. Ad esempio, se si pongono domande molto specifiche su un argomento di nicchia, come la biologia marina o la storia medievale, il chatbot potrebbe non avere sufficienti informazioni per produrre una risposta accurata.
Inoltre, poiché è stato addestrato su dati limitati al 2021, ChatGPT non è aggiornato su eventi, scoperte o sviluppi recenti in qualsiasi campo. Perciò non sarebbe in grado di rispondere a domande che richiedono una conoscenza approfondita al passo con gli ultimi avvenimenti.
8. Può essere impreciso, anche a livello grammaticale
ChatGPT ha attualmente una capacità limitata di rilevare errori di battitura, grammaticali o di ortografia nel testo utilizzato come input. Ad esempio, se l’utente inserisce una domanda con un errore di ortografia come “Quali sono gli strrumenti utilazati dai geologi?“, il chatbot può non rendersene conto e rispondere come se la parola “strrumenti” fosse corretta.
Inoltre, ChatGPT potrebbe fornire risposte tecnicamente ben formulate ma imprecise o irrilevanti rispetto al contesto o all’ambito di conoscenza. Per esempio, se gli si chiede di spiegare un concetto legale complesso, potrebbe generare una spiegazione eloquente ma contenutisticamente inaccurata o fuorviante.
Dato che l’accuratezza e la precisione sono fattori discriminanti quando si ha a che fare con informazioni tecniche o specialistiche, è importante verificare sempre l’esattezza e la pertinenza delle risposte fornite dal chatbot prima di fare affidamento su di esse.
9. Richiede la messa a punto
ChatGPT è stato addestrato come modello generale, non ottimizzato per casi d’uso estremamente specifici. Ad esempio, se si volesse utilizzarlo per rispondere a domande molto tecniche su un argomento di nicchia come l’ingegneria aerospaziale, il chatbot potrebbe non essere sufficientemente accurato.
In questi casi, per ottenere prestazioni ottimali, può essere necessario “mettere a punto” il chatbot addestrandolo ulteriormente su dataset di testi specializzati sull’argomento. Questo processo richiede tempo, competenze tecniche e risorse per ottimizzare il modello in modo mirato. Senza questa ulteriore messa a punto, l’utilizzo di ChatGPT per task molto specifici al di fuori del suo addestramento originale può portare risultati insoddisfacenti.