L'obiettivo principale del protocollo di sicurezza è assistere gli sviluppatori nell'implementazione di sistemi che siano sicuri sin dalla fase di progettazione, valutando la sicurezza dell'IA lungo l'intero ciclo di vita
Le autorità responsabili della cibersicurezza nel Regno Unito e negli Stati Uniti hanno unito le forze per creare un insieme di linee guida comunu volte a garantire la sicurezza nello sviluppo dell'intelligenza artificiale (IA). Le misure mirano a mitigare le minacce legate alla crescente diffusione di questa tecnologia dirompente. In un comunicato stampa congiunto, il National Cyber Security Centre del Regno Unito e l'agenzia per la sicurezza cibernetica e dell'infrastruttura degli Stati Uniti hanno annunciato che il protocollo è stato guidato dalla prima nazione e rappresenta il primo accordo globale di questo tipo. Le linee guida, adottate finora da ben 18 paesi, sono il risultato di una collaborazione con 21 ministeri internazionali e si concentrano su un approccio olistico alla sicurezza dell'IA. L'obiettivo principale di questo protocollo di sicurezza è assistere gli sviluppatori nell'implementazione di sistemi che siano sicuri sin dalla fase di progettazione, valutando la sicurezza dell'IA lungo l'intero ciclo di vita, dalla sua fase iniziale di sviluppo fino alle fasi di distribuzione e aggiornamento.
Il governo ha sottolineato che questa iniziativa contribuirà a garantire che la cibersicurezza sia una condizione essenziale per i sistemi di IA e che sia parte integrante del processo di sviluppo dall'inizio fino alla fine. In altre parole, la sicurezza non sarà più una considerazione secondaria, ma un requisito fondamentale. Le linee guida stabiliscono quattro aree chiave di valutazione: la sicurezza della progettazione, dello sviluppo, dell'implementazione e delle fasi di "funzionamento e manutenzione". Il Regno Unito, con la sua competenza nel campo della cibersicurezza, si è impegnato a dare la massima priorità alla trasparenza e alla responsabilità, con l'obiettivo di creare un'infrastruttura di IA sicura e, di conseguenza, di rendere gli strumenti di IA più sicuri per gli utenti.