Hume AI, una startup di New York e laboratorio di ricerca sull’AI, è in prima linea nello sviluppo di interazioni vocali emotive. L’azienda ha integrato la sua interfaccia vocale empatica (EVI) con i modelli AI Claude di Anthropic. L’obiettivo di questa collaborazione è migliorare la comunicazione uomo-computer, permettendo ai sistemi di AI di comprendere e rispondere alle sfumature emotive del linguaggio umano.
Interazioni vocali più simili a quelle umane rispetto a ChatGPT con Claude di Anthropic
EVI 2 di Hume AI introduce un’innovativa architettura di modelli AI vocali in grado di sostenere conversazioni rapide e fluenti. Questo sistema comprende il tono di voce dell’utente e può generare qualsiasi tono desiderato, emulando un’ampia gamma di personalità, accenti e stili di conversazione. EVI 2 offre agli sviluppatori flessibilità nella creazione di applicazioni che richiedono interazioni vocali emotivamente intelligenti.
EVI elabora l’input audio in tempo reale e genera risposte che riflettono la comprensione delle espressioni vocali. Analizzando il tono, il ritmo e il timbro del discorso, EVI determina i momenti appropriati per intervenire e produce un linguaggio empatico con un tono adeguato. Questa capacità è merito del modello di linguaggio empatico (eLLM) di Hume, che guida la generazione del linguaggio e del parlato.
L’integrazione con i modelli Claude di Anthropic
L’integrazione dei modelli Claude di Anthropic, in particolare Claude 3.5 Sonnet, migliora le prestazioni di EVI. Riconosciuto per le sue capacità di ragionamento avanzate, Claude 3.5 Sonnet può eseguire complessi compiti cognitivi come l’analisi di varie immagini, la traduzione in tempo reale tra più lingue e l’assistenza al debug e alla coding. Inoltre, recentemente ha acquisito una nuova funzionalità, che gli permette di controllare il computer (“Computer Use“) e di svolgere azioni simili a quelle umane, come cliccare i pulsanti, muovere il mouse e scrivere testo.