OpenAI ha annunciato diverse novità per GPT-3.5-turbo e GPT-4. I due modelli IA supportano ora la funzionalità “function calling” che consente agli sviluppatori di gestire meglio i dati strutturati e creare chatbot che utilizzano tool esterni per rispondere alle richieste. Sono stati inoltre ridotti i costi per l’uso di GPT-3.5-turbo.
Novità per GPT-3.5-turbo e GPT-4
GPT-3.5-turbo è il modello accessibile a tutti tramite ChatGPT, mentre GPT-4 è riservato agli abbonati Plus (ma è disponibile con Bing Chat). Grazie al supporto per function calling, gli sviluppatori possono descrivere funzioni che i modelli utilizzeranno per rispondere a richieste più complesse.
È possibile, ad esempio, creare chatbot che chiamano tool esterni (plugin inclusi), convertire il linguaggio naturale in chiamate API o estrarre dati da un database tramite query. La funzionalità consente inoltre di ottenere output in formato JSON. La novità è inclusa nei modelli GPT-3.5-turbo-0613 e GPT-4-0613 (per usare le API di quest’ultimo è necessaria l’iscrizione alla lista di attesa).
OpenAI ha inoltre annunciato versioni dei due modelli con una “context window” più ampia. Il termine si riferisce alla memoria a breve termine, ovvero alla lunghezza del testo che viene considerato per fornire una risposta. GPT-3.5-turbo-16K e GPT-4-32K hanno una context window di 16.000 e 32.000 token, rispettivamente.
L’azienda californiana ha infine ridotto del 25% il prezzo dei token di GPT-3.5-turbo, il modello più utilizzato. Gli sviluppatori pagheranno ora 0,0015 dollari per 1.000 token di input e 0,002 dollari per 1.000 token di output. L’uso del modello GPT-3.5-turbo-16K costerà invece 0,003 dollari per 1.000 token di input e 0,004 dollari per 1.000 token di output.