image cover media

Intelligenza Artificiale Sicura - Un Consorzio per la Sicurezza dell'IA: La Chiamata del NIST agli Alleati

3.9K visualizzazioni

Il 2 novembre 2023, il National Institute of Standards and Technology (NIST) degli Stati Uniti ha lanciato un appello alla collaborazione, invitando a partecipare a un consorzio che supporterà lo sviluppo di metodi innovativi per valutare i sistemi di intelligenza artificiale (IA). Questo annuncio giunge in un momento cruciale, poiché l'IA continua a crescere rapidamente ed è essenziale garantire la sua sicurezza e affidabilità.

Il Consorzio per la Sicurezza dell'IA

Il consorzio rappresenta un elemento chiave dell'Iniziativa per la Sicurezza dell'IA degli Stati Uniti, guidata dal NIST. Questa iniziativa è stata annunciata durante il Summit sulla Sicurezza dell'IA del Regno Unito del 2023, in cui ha partecipato la Segretaria di Commercio degli Stati Uniti, Gina Raimondo. Il consorzio è parte integrante della risposta del NIST all'Ordine Esecutivo sulla Sviluppo e Uso Sicuro, Sicuro e Affidabile dell'IA. Questo ordine incarica il NIST di svolgere diverse responsabilità, tra cui lo sviluppo di una risorsa complementare al Quadro di Gestione del Rischio dell'IA del NIST. Questa risorsa ha l'obiettivo di chiarire questioni fondamentali, tra cui l'audit delle capacità dell'IA, l'autenticazione dei contenuti creati da esseri umani, il marchio d'acqua sui contenuti generati dall'IA e la creazione di ambienti di test per i sistemi di IA.

Promuovere la Sicurezza e l'Affidabilità dell'IA

L'obiettivo del Consorzio per la Sicurezza dell'IA del NIST è favorire una stretta collaborazione tra agenzie governative, aziende e comunità coinvolte. Laurie E. Locascio, Sottosegretario di Commercio per gli Standard e la Tecnologia e Direttore del NIST, ha sottolineato l'importanza di sviluppare modi per testare ed valutare i sistemi di IA in modo da beneficiare del loro potenziale, garantendo al contempo la sicurezza e la privacy.

La Fondazione per un'IA Affidabile

L'U.S. AI Safety Institute sfrutterà il lavoro già in corso da parte del NIST e di altri soggetti per creare la base di sistemi di IA affidabili. Questo sostiene l'uso del Quadro di Gestione del Rischio dell'IA del NIST, rilasciato nel gennaio 2023. Il framework offre una risorsa volontaria per aiutare le organizzazioni a gestire i rischi dei loro sistemi di IA, rendendoli più affidabili e responsabili. L'istituto mira a migliorare in modo misurabile la capacità delle organizzazioni di valutare e convalidare i sistemi di IA, come dettagliato nella Roadmap del Quadro di Gestione del Rischio dell'IA.

Ricerca Collaborativa per una Sicurezza Equa

La ricerca collaborativa dell'istituto rafforzerà le base scientifiche della misurazione dell'IA, consentendo a innovazioni straordinarie nell'intelligenza artificiale di beneficiare di tutte le persone in modo sicuro ed equo. Elham Tabassi, coordinatrice federale degli standard per l'IA del NIST, è membro del Task Force Nazionale per la Ricerca sull'IA ed è entusiasta del potenziale di questo sforzo.

Un Invito alla Collaborazione

Il NIST, noto per la sua lunga esperienza di collaborazione con il settore pubblico e privato e per il suo impegno verso soluzioni basate su misurazioni e standard, sta cercando collaboratori provenienti da tutta la società per unirsi al consorzio. Il consorzio fungerà da spazio per un dialogo informato e lo scambio di informazioni e conoscenze. Sarà uno strumento per sostenere la ricerca e lo sviluppo collaborativo attraverso progetti condivisi e promuoverà la valutazione e la verifica di sistemi di prova e prototipi per orientare gli sforzi futuri di misurazione dell'IA.

Partecipazione Aperta a Tutte le Organizzazioni

La partecipazione al consorzio è aperta a tutte le organizzazioni interessate alla sicurezza dell'IA che possono contribuire attraverso l'expertise, i prodotti, i dati e i modelli. Jacob Taylor, Senior Advisor del NIST per le tecnologie critiche ed emergenti, ha sottolineato l'importanza del coinvolgimento delle parti interessate sia nel settore tecnico che in quello applicativo. L'obiettivo è che l'U.S. AI Safety Institute sia altamente interattivo per seguire l'evoluzione rapida della tecnologia e garantire che l'approccio alla sicurezza della comunità si adatti di conseguenza.

Invito alla Collaborazione e alla Partecipazione

In particolare, il NIST sta cercando risposte da tutte le organizzazioni con competenze e capacità pertinenti per stipulare un accordo di ricerca e sviluppo collaborativo (CRADA) nel consorzio al fine di supportare e dimostrare percorsi per rendere sicuri e affidabili i sistemi di IA. I membri sono invitati a contribuire con:

  • Competenze in una o più delle aree specifiche, tra cui la metrologia dell'IA, l'IA responsabile, la progettazione e lo sviluppo dei sistemi di IA, l'interazione tra l'IA e gli esseri umani, metodologie socio-tecniche, spiegabilità e interpretazione dell'IA ed analisi economica.
  • Modelli, dati e/o prodotti per supportare e dimostrare percorsi per rendere sicuri e affidabili i sistemi di IA attraverso il Quadro di Gestione del Rischio dell'IA.
  • Supporto infrastrutturale per i progetti del consorzio.
  • Spazio e gestione di ricercatori, workshop e conferenze ospitati dal consorzio.

Scadenza per la Partecipazione

Le organizzazioni interessate e con le capacità tecniche pertinenti dovrebbero presentare una lettera di interesse entro il 2 dicembre 2023. Ulteriori dettagli sulla richiesta del NIST sono disponibili nel Federal Register. Il NIST ha pianificato di organizzare un workshop il 17 novembre 2023 per coloro che desiderano saperne di più sul consorzio e partecipare al dialogo sulla sicurezza dell'IA.

Collaborazione a Livello Nazionale ed Internazionale

L'U.S. AI Safety Institute collaborerà con altre agenzie governative degli Stati Uniti per valutare le capacità, i limiti, i rischi e gli impatti dell'IA e coordinare la creazione di ambienti di prova. L'istituto lavorerà anche con organizzazioni nei paesi alleati e partner per condividere le migliori pratiche, allineare la valutazione delle capacità e offrire orientamenti e benchmark per garantire una crescita responsabile dell'IA in tutto il mondo.

Questo appello alla collaborazione è un passo significativo verso un futuro in cui l'IA è sicura, affidabile e all'avanguardia, garantendo che le tecnologie emergenti possano beneficiare appieno l'umanità. Unisciti all'Instituto per la Sicurezza dell'IA e fai parte di questa eccitante iniziativa per un futuro migliore e più sicuro.

#AI #SicurezzaIA #Collaborazione #TecnologieEmergenti #Innovazione