Un gruppo di aziende leader nel campo dell’intelligenza artificiale ha deciso di collaborare per promuovere lo sviluppo di AI sicure e affidabili. Google, OpenAI, Microsoft, Amazon, Nvidia, Intel e altri importanti attori del settore hanno dato vita alla Coalition for Secure AI (CoSAI), un’iniziativa che mira a condividere informazioni e buone pratiche per la creazione di sistemi AI “sicuri da progettare“.
I colossi tech uniscono le forze per definire gli standard sulla sicurezza dell’AI
L’obiettivo principale della Coalition for Secure AI (CoSAI) è affrontare la mancanza attuale di standard e approcci condivisi sulla sicurezza dell’intelligenza artificiale. Attraverso la collaborazione, i membri di CoSAI intendono fornire a tutte le organizzazioni l’accesso a metodologie, framework e strumenti open-source per lo sviluppo di AI affidabili e sicure.
La nascita di CoSAI rappresenta un passo significativo verso la definizione di pratiche e linee guida comuni per garantire l’affidabilità delle tecnologie di intelligenza artificiale. L’obiettivo è superare l’attuale frammentazione e favorire l’adozione su larga scala di standard condivisi di sicurezza.
Una collaborazione ad ampio respiro
Oltre ai nomi già citati, la coalizione include anche altre importanti aziende come IBM, PayPal, Cisco e Anthropic. CoSAI opererà all’interno dell’Organization for the Advancement of Structured Information Standards (OASIS), un gruppo no-profit che promuove lo sviluppo di standard aperti.
L’attività di CoSAI si concentrerà inizialmente su tre obiettivi principali: sviluppare le migliori pratiche per la sicurezza dell’AI, affrontare le sfide specifiche dell’AI e mettere in sicurezza le applicazioni basate sull’intelligenza artificiale. Questa collaborazione mira a fornire alle organizzazioni, grandi e piccole, gli strumenti necessari per integrare l’AI in modo sicuro e responsabile, sfruttandone i vantaggi e mitigandone i rischi.
Le buone intenzioni di CoSAI
Secondo Heather Adkins di Google, l’intelligenza artificiale offre grandi benefici ma presenta anche rischi derivanti da un uso improprio. Esiste il pericolo che soggetti malintenzionati sfruttino l’AI per scopi dannosi. Per questo è fondamentale sviluppare l’AI in modo etico e sicuro, minimizzandone i potenziali impatti negativi. La nascita di CoSAI va vista come un passo in questa direzione.
Attraverso le risorse e le conoscenze condivise nella coalizione, si vuole consentire lo sviluppo e l’impiego di sistemi di intelligenza artificiale in modo responsabile, minimizzando i potenziali impatti negativi. CoSAI ambisce a definire standard e linee guida per un’AI affidabile e solida contro gli abusi, fornendo al tempo stesso gli strumenti necessari per sfruttarne appieno le enormi possibilità in modo sicuro ed etico.