Avvertimento in una lettera firmata da 350 leader del settore, tra cui l'amministratore delegato di OpenAI, Sam Altman
"Mitigare i rischi di estinzione rappresentati dall'Intelligenza artificiale deve essere una priorità globale insieme ad altri rischi di per la società come le pandemie e la guerra nucleare". E' quanto si legge nella sintetica, ed allarmante, dichiarazione firmata da oltre 350 ricercatori e leader dell'industria dell'Ai, tra i quali Sam Altman, amministratore delegato di OpenAI, e 38 membri dell'unità di intelligenza artificiale di DeepMind di Google.
La lettera, diffusa dal Center for AI Safety, è l'ultimo di una serie di allarmi sui rischi potenziali di questa nuova tecnologia come l'appello firmato alla fine di marzo da oltre mille accademici, esponenti del mondo del business e della tecnologia.
"Abbiamo bisogno che sia diffusa la consapevolezza di quello che è in gioco prima di aver proficue discussioni", ha detto Dan Hendrycks, presidente del Center, spiegando la scelta di limitare la lettera ad una sola frase per "mostrare che i rischi sono abbastanza gravi da aver bisogno di proposte proporzionate".