Nuove linee guida sulla sicurezza dell’intelligenza artificiale pubblicate da NCSC, CISA e altre agenzie internazionali
Le linee guida per lo sviluppo di sistemi di intelligenza artificiale sicuri sono state redatte per aiutare gli sviluppatori a garantire che la sicurezza sia integrata nel cuore dei nuovi modelli di intelligenza artificiale.
Il National Cyber Security Centre del Regno Unito, la Cybersecurity and Infrastructure Security Agency degli Stati Uniti e agenzie internazionali di altri 16 paesi hanno pubblicato nuove linee guida sulla sicurezza dei sistemi di intelligenza artificiale.
Le linee guida per lo sviluppo sicuro di sistemi di intelligenza artificiale sono progettate per guidare gli sviluppatori in particolare attraverso la progettazione, lo sviluppo, l’implementazione e il funzionamento dei sistemi di intelligenza artificiale e garantire che la sicurezza rimanga una componente fondamentale durante tutto il loro ciclo di vita. Tuttavia, anche altre parti interessate nei progetti di intelligenza artificiale dovrebbero trovare utili queste informazioni.
Queste linee guida sono state pubblicate subito dopo che i leader mondiali si sono impegnati a favore dello sviluppo sicuro e responsabile dell’intelligenza artificiale in occasione dell’AI Safety Summit di inizio novembre.
In sintesi: linee guida per lo sviluppo di sistemi di IA sicuri
Le Linee guida per lo sviluppo di sistemi di intelligenza artificiale sicuri stabiliscono raccomandazioni per garantire che i modelli di intelligenza artificiale – siano essi costruiti da zero o basati su modelli esistenti o API di altre società – “funzionino come previsto, siano disponibili quando necessario e funzionino senza rivelare dati sensibili a parti non autorizzate. “
La chiave di tutto ciò è l’approccio “secure by default” sostenuto da NCSC, CISA, National Institute of Standards and Technology e varie altre agenzie internazionali di sicurezza informatica nei quadri esistenti. I principi di questi quadri includono:
- Assumersi la proprietà dei risultati di sicurezza per i clienti.
- Abbracciare trasparenza e responsabilità radicali.
- Costruire la struttura organizzativa e la leadership in modo che la “sicurezza fin dalla progettazione” sia una delle massime priorità aziendali.
Secondo l’NCSC, un totale di 21 agenzie e ministeri provenienti da un totale di 18 paesi hanno confermato che approveranno e co-sigilleranno le nuove linee guida. Ciò include l’Agenzia per la sicurezza nazionale e il Federal Bureau of Investigations negli Stati Uniti, nonché il Centro canadese per la sicurezza informatica, l’Agenzia per la sicurezza informatica francese, l’Ufficio federale per la sicurezza informatica della Germania, l’Agenzia per la sicurezza informatica di Singapore e il Centro nazionale per gli incidenti del Giappone. Preparazione e strategia per la sicurezza informatica.
Lindy Cameron, amministratore delegato dell’NCSC, ha dichiarato in un comunicato stampa : “Sappiamo che l’intelligenza artificiale si sta sviluppando a un ritmo fenomenale e c’è bisogno di un’azione internazionale concertata, tra governi e industria, per tenere il passo. ”.
Garantire le quattro fasi chiave del ciclo di vita dello sviluppo dell’IA
Le linee guida per lo sviluppo sicuro di sistemi di IA sono strutturate in quattro sezioni, ciascuna corrispondente a diverse fasi del ciclo di vita dello sviluppo di un sistema di IA: progettazione sicura, sviluppo sicuro, implementazione sicura e funzionamento e manutenzione sicuri.
- La progettazione sicura offre indicazioni specifiche per la fase di progettazione del ciclo di vita di sviluppo del sistema di intelligenza artificiale. Sottolinea l’importanza di riconoscere i rischi e di condurre una modellazione delle minacce, oltre a considerare vari argomenti e compromessi nella progettazione di sistemi e modelli.
- Lo sviluppo sicuro copre la fase di sviluppo del ciclo di vita del sistema di intelligenza artificiale. Le raccomandazioni includono la garanzia della sicurezza della catena di approvvigionamento, il mantenimento di una documentazione approfondita e la gestione efficace delle risorse e del debito tecnico.
- L’implementazione sicura affronta la fase di implementazione dei sistemi di IA. Le linee guida in questo caso riguardano la salvaguardia dell’infrastruttura e dei modelli da compromissioni, minacce o perdite, la definizione di processi per la gestione degli incidenti e l’adozione di principi di rilascio responsabile.
- Il funzionamento e la manutenzione sicuri contengono indicazioni sulla fase di funzionamento e manutenzione successiva alla distribuzione dei modelli di intelligenza artificiale. Copre aspetti quali la registrazione e il monitoraggio efficaci, la gestione degli aggiornamenti e la condivisione responsabile delle informazioni.
Linee guida per tutti i sistemi di IA
Le linee guida sono applicabili a tutti i tipi di sistemi di intelligenza artificiale e non solo ai modelli “di frontiera” che sono stati ampiamente discussi durante l’AI Safety Summit ospitato nel Regno Unito l’1 e il 2 novembre 2023. Le linee guida sono applicabili anche a tutti i professionisti che lavorano dentro e intorno all’intelligenza artificiale, inclusi sviluppatori, data scientist, manager, decisori e altri “proprietari del rischio” dell’IA.
“Abbiamo rivolto le linee guida principalmente ai fornitori di sistemi di intelligenza artificiale che utilizzano modelli ospitati da un’organizzazione (o utilizzano API esterne), ma invitiamo tutte le parti interessate… a leggere queste linee guida per aiutarli a prendere decisioni informate sulla progettazione, sviluppo , l’implementazione e il funzionamento dei loro sistemi di intelligenza artificiale”, ha affermato l’NCSC .
Risultati dell’AI Safety Summit
Durante l’AI Safety Summit, tenutosi presso il sito storico di Bletchley Park nel Buckinghamshire, in Inghilterra, i rappresentanti di 28 paesi hanno firmato la Dichiarazione di Bletchley sulla sicurezza dell’IA , che sottolinea l’importanza di progettare e implementare sistemi di intelligenza artificiale in modo sicuro e responsabile, con un’enfasi sulla collaborazione. e trasparenza.
La dichiarazione riconosce la necessità di affrontare i rischi associati ai modelli di IA all’avanguardia, in particolare in settori come la sicurezza informatica e la biotecnologia, e sostiene una maggiore collaborazione internazionale per garantire un uso sicuro, etico e vantaggioso dell’IA.
Michelle Donelan, segretaria britannica per la scienza e la tecnologia, ha affermato che le linee guida appena pubblicate “metteranno la sicurezza informatica al centro dello sviluppo dell’intelligenza artificiale” dall’inizio alla distribuzione.
Reazioni a queste linee guida sull’intelligenza artificiale da parte del settore della sicurezza informatica
La pubblicazione delle linee guida sull’intelligenza artificiale è stata accolta con favore da esperti e analisti di cybersecurity.
Toby Lewis, responsabile globale dell’analisi delle minacce presso Darktrace, ha definito la guida “un progetto gradito” per sistemi di intelligenza artificiale sicuri e affidabili.
Commentando via e-mail, Lewis ha affermato: “Sono lieto di vedere che le linee guida sottolineano la necessità che i fornitori di intelligenza artificiale proteggano i propri dati e modelli dagli aggressori e che gli utenti di intelligenza artificiale applichino la giusta intelligenza artificiale per il compito giusto. Coloro che sviluppano l’intelligenza artificiale dovrebbero andare oltre e creare fiducia accompagnando gli utenti nel percorso che spiega come la loro intelligenza artificiale raggiunge le risposte. Con sicurezza e fiducia, realizzeremo i vantaggi dell’intelligenza artificiale più velocemente e per più persone”.
Georges Anidjar, vicepresidente per l’Europa meridionale di Informatica, ha affermato che la pubblicazione delle linee guida segna “un passo significativo verso l’affrontare le sfide della sicurezza informatica inerenti a questo campo in rapida evoluzione”.
BlogInnovazione.it