Coalition for Secure AI, le big tech si alleano per un'AI sicura

Coalition for Secure AI, le big tech si alleano per un'AI sicura

Google, Microsoft, Amazon e altre big tech hanno formato la Coalition for Secure AI per promuovere lo sviluppo dell'intelligenza artificiale sicura.
Coalition for Secure AI, le big tech si alleano per un'AI sicura
Google, Microsoft, Amazon e altre big tech hanno formato la Coalition for Secure AI per promuovere lo sviluppo dell'intelligenza artificiale sicura.

Un gruppo di aziende leader nel campo dell’intelligenza artificiale ha deciso di collaborare per promuovere lo sviluppo di AI sicure e affidabili. Google, OpenAI, Microsoft, Amazon, Nvidia, Intel e altri importanti attori del settore hanno dato vita alla Coalition for Secure AI (CoSAI), un’iniziativa che mira a condividere informazioni e buone pratiche per la creazione di sistemi AIsicuri da progettare“.

I colossi tech uniscono le forze per definire gli standard sulla sicurezza dell’AI

L’obiettivo principale della Coalition for Secure AI (CoSAI) è affrontare la mancanza attuale di standard e approcci condivisi sulla sicurezza dell’intelligenza artificiale. Attraverso la collaborazione, i membri di CoSAI intendono fornire a tutte le organizzazioni l’accesso a metodologie, framework e strumenti open-source per lo sviluppo di AI affidabili e sicure.

La nascita di CoSAI rappresenta un passo significativo verso la definizione di pratiche e linee guida comuni per garantire l’affidabilità delle tecnologie di intelligenza artificiale. L’obiettivo è superare l’attuale frammentazione e favorire l’adozione su larga scala di standard condivisi di sicurezza.

Una collaborazione ad ampio respiro

Oltre ai nomi già citati, la coalizione include anche altre importanti aziende come IBM, PayPal, Cisco e Anthropic. CoSAI opererà all’interno dell’Organization for the Advancement of Structured Information Standards (OASIS), un gruppo no-profit che promuove lo sviluppo di standard aperti.

L’attività di CoSAI si concentrerà inizialmente su tre obiettivi principali: sviluppare le migliori pratiche per la sicurezza dell’AI, affrontare le sfide specifiche dell’AI e mettere in sicurezza le applicazioni basate sull’intelligenza artificiale. Questa collaborazione mira a fornire alle organizzazioni, grandi e piccole, gli strumenti necessari per integrare l’AI in modo sicuro e responsabile, sfruttandone i vantaggi e mitigandone i rischi.

Le buone intenzioni di CoSAI

Secondo Heather Adkins di Google, l’intelligenza artificiale offre grandi benefici ma presenta anche rischi derivanti da un uso improprio. Esiste il pericolo che soggetti malintenzionati sfruttino l’AI per scopi dannosi. Per questo è fondamentale sviluppare l’AI in modo etico e sicuro, minimizzandone i potenziali impatti negativi. La nascita di CoSAI va vista come un passo in questa direzione.

Attraverso le risorse e le conoscenze condivise nella coalizione, si vuole consentire lo sviluppo e l’impiego di sistemi di intelligenza artificiale in modo responsabile, minimizzando i potenziali impatti negativi. CoSAI ambisce a definire standard e linee guida per un’AI affidabile e solida contro gli abusi, fornendo al tempo stesso gli strumenti necessari per sfruttarne appieno le enormi possibilità in modo sicuro ed etico.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
19 lug 2024
Link copiato negli appunti