OpenAI ha in serbo una sorpresa per i suoi clienti business: ChatGPT Connectors. La nuova funzionalità, permetterà di collegare il chatbot a Slack e Google Drive. L’obiettivo? Rendere ChatGPT uno strumento indispensabile per le aziende, capace di attingere a informazioni interne per rispondere alle domande dei dipendenti.
ChatGPT si integra con Drive e Slack
La beta di ChatGPT Connectors partirà presto per un gruppo selezionato di utenti ChatGPT Team. Slack e Google Drive sono solo le prime tappe di un percorso che porterà ChatGPT a integrarsi con molte altre piattaforme aziendali, come Microsoft SharePoint e Box.
Ma come funziona esattamente ChatGPT Connectors? In parole povere, OpenAI sincronizzerà una copia crittografata dei file e delle conversazioni aziendali sui propri server, creando un indice di ricerca personalizzato per ogni azienda. Quando un dipendente farà una domanda a ChatGPT, una versione custom di GPT-4o scandaglierà l’intero indice aziendale cercando informazioni pertinenti.
Invece di perdere ore a cercare quel report trimestrale o a scorrere quella discussione importante su Slack avvenuta mesi fa, si potrà semplicemente chiedere a ChatGPT e ottenere la risposta in pochi secondi.
La privacy prima di tutto (o quasi)
Naturalmente, quando si parla di dati aziendali, la privacy è sempre una preoccupazione. Ma OpenAI assicura che ChatGPT Connectors rispetterà pienamente i permessi di Slack e Google Drive. In altre parole, i dipendenti non potranno accedere a informazioni che già non vedono su queste piattaforme.
Inoltre, gli amministratori avranno il controllo totale su quali canali Slack e file Google Drive sincronizzare con ChatGPT. Quindi, se ci sono conversazioni o documenti troppo sensibili, basterà lasciarli fuori dall’indice.
Certo, c’è un piccolo prezzo da pagare per questa comodità: le aziende che vorranno partecipare alla beta di ChatGPT Connectors dovranno fornire a OpenAI un campione di 100 documenti, fogli di calcolo, presentazioni e/o conversazioni Slack. OpenAI promette che non li userà direttamente per addestrare i suoi modelli, ma potrebbero finire nel tritacarne della generazione di dati sintetici. Un compromesso accettabile?