cerca CERCA
Sabato 23 Novembre 2024
Aggiornato: 16:37
10 ultim'ora BREAKING NEWS

ChatGpt, l'intelligenza artificiale di OpenAi è "a rischio medio"

Gli esperti hanno esaminato rischi come la possibilità che GPT-4o potesse creare cloni non autorizzati della voce di qualcuno, contenuti erotici e violenti, o segmenti di audio protetto da copyright

ChatGpt, l'intelligenza artificiale di OpenAi è
09 agosto 2024 | 08.38
LETTURA: 2 minuti

OpenAI ha pubblicato la sua scheda di sistema di GPT-4o, un documento che illustra le misure di sicurezza e le valutazioni dei rischi effettuate dall'azienda prima del rilascio del suo ultimo modello di intelligenza artificiale. GPT-4o è stato lanciato pubblicamente nel maggio di quest'anno. Prima della sua uscita, OpenAI ha coinvolto un gruppo esterno di esperti di sicurezza, noti come red teamer, per individuare eventuali vulnerabilità nel modello, una pratica abbastanza comune nel settore. Gli esperti hanno esaminato rischi come la possibilità che GPT-4o potesse creare cloni non autorizzati della voce di qualcuno, contenuti erotici e violenti, o segmenti di audio protetto da copyright. Ora, i risultati di queste valutazioni sono stati resi pubblici.

Secondo il quadro di valutazione di OpenAI, i ricercatori hanno classificato GPT-4o come a "rischio medio". Il livello complessivo di rischio è stato determinato dal più alto grado di rischio tra quattro categorie principali: sicurezza informatica, minacce biologiche, persuasione e autonomia del modello. Tutte queste categorie sono state valutate a basso rischio, eccetto la persuasione, dove è stato riscontrato che alcuni campioni di testo prodotti da GPT-4o potevano influenzare le opinioni dei lettori più efficacemente dei testi scritti da esseri umani, anche se nel complesso i campioni del modello non erano più persuasivi.

Ci sono state molte richieste affinché OpenAI sia più trasparente, non solo riguardo ai dati di addestramento del modello, ma anche sui test di sicurezza. In California, dove hanno sede OpenAI e molti altri laboratori di intelligenza artificiale, il senatore statale Scott Wiener sta cercando di far approvare una legge per regolare i modelli di linguaggio di grandi dimensioni, inclusi vincoli che renderebbero le aziende legalmente responsabili se la loro IA viene utilizzata in modi dannosi. Se la legge sarà approvata, i modelli IA di OpenAI dovranno conformarsi alle valutazioni del rischio imposte dallo stato prima di essere resi disponibili al pubblico.

Riproduzione riservata
© Copyright Adnkronos
Tag
Vedi anche


SEGUICI SUI SOCIAL



threads whatsapp linkedin twitter youtube facebook instagram
ora in
Prima pagina
articoli
in Evidenza