Google vuole un'IA responsabile: ecco le sue idee

Google vuole un'IA responsabile: ecco le sue idee

Google spinge sull'IA Bard e sulla ricerca nel settore, ma con un occhio di riguardo: l'ultima idea è un'agenda condivisa per una "IA responsabile".
Google vuole un'IA responsabile: ecco le sue idee
Google spinge sull'IA Bard e sulla ricerca nel settore, ma con un occhio di riguardo: l'ultima idea è un'agenda condivisa per una "IA responsabile".

Il boom delle intelligenze artificiali visto in questi mesi, complice la trasformazione di ChatGPT in un fenomeno mainstream, sta costringendo ricercatori e colossi della tecnologia ad agire per rimanere al passo con il trend del momento e con l’evoluzione del mondo tech in toto. L’aumento degli investimenti nella ricerca e sviluppo di nuove soluzioni, però, deve avvenire parallelamente all’analisi delle caratteristiche di un’IA responsabile, il cui progresso avviene per aiutare l’essere umano e non per compromettere la sua esistenza, e anche Google lo sa.

Proprio per questa ragione, la società di proprietà di Alphabet ha rilasciato un nuovo comunicato per proporre un’agenda condivisa per il progresso responsabile dell’intelligenza artificiale. Ecco le idee del gigante di Sundar Pichai.

Google per lo sviluppo responsabile delle IA

Proprio mentre Google monitora il test anticipato dell’IA Bard, il President of Global Affairs presso Google & Alphabet, Kent Walker, pubblica sul blog The Keyword una riflessione molto interessante sulle possibilità delle IA e sui problemi da risolvere per un utilizzo positivo.

Cosa significa, anzitutto, “IA responsabile”? L’aggettivo viene spesso associato all’evitare i rischi; tuttavia, in realtà si tratta della mitigazione accompagnata dall’affrontare le sfide sociali e scientifiche, incorporando importanti valori come l’accuratezza, la privacy, l’equità e la trasparenza. In breve, come scrive Walker, un’IA è responsabile quando “i probabili benefici complessivi superano sostanzialmente i rischi e gli svantaggi prevedibili”.

Google Bard IA Chatbot

Per raggiungere questo traguardo serve una collaborazione tra cittadini, educatori, accademici, società civile e governi per plasmare lo sviluppo e l’uso dell’IA gestendo i rischi, valutando attentamente proposte per nuove ricerche e applicazioni sull’IA, soppesando i pregi e i difetti degli strumenti di intelligenza artificiale.

Per lavorare al meglio è necessario cooperare, procedere con cautela in un esercizio collaborativo che richiede di portare sul tavolo più prospettive al fine di raggiungere il giusto equilibrio. Il confronto su complesse questioni di ricerca con esperti multidisciplinari è cruciale ma, ancora più fondamentale, è seguire queste cinque linee guida:

  1. Basarsi sulla normativa esistente, riconoscendo molte normative legate alla privacy, alla sicurezza o ad altri scopi pubblici
  2. Adottare un framework proporzionato e basato sul rischio incentrato sulle applicazioni, riconoscendo che l’IA è una tecnologia multiuso che richiede approcci personalizzati e responsabilità differenziata tra sviluppatori, installatori e utenti
  3. Promuovere un approccio interoperabile agli standard e alla governance dell’IA, riconoscendo la necessità di un allineamento internazionale
  4. Garantire la parità nelle aspettative tra i sistemi non IA e IA, riconoscendo che anche i sistemi IA imperfetti possono migliorare i processi esistenti
  5. Promuovere la trasparenza che facilita la responsabilità, responsabilizzando gli utenti e creando fiducia.

Queste sono le basi per la creazione di un’IA responsabile secondo Google. Quale sarà, allora, il futuro? Per la Grande G, si parla di un avvenire promettente, per il quale serve tuttavia molta prudenza.

Fonte: Google
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
29 mar 2023
Link copiato negli appunti