cerca CERCA
Sabato 12 Aprile 2025
Aggiornato: 12:08
10 ultim'ora clock BREAKING NEWS

Intelligenza artificiale, c'è chi la sposa e muore per lei: il lato oscuro dell'AI

Il monito degli psicologi: "Si apre vaso di Pandora"

Un'immagine riconducibile all'intelligenza artificiale
Un'immagine riconducibile all'intelligenza artificiale
11 aprile 2025 | 19.27
LETTURA: 5 minuti

Nel 2024, dopo 5 anni di 'convivenza', un'artista ispano-olandese ha sposato il suo compagno: un'intelligenza artificiale olografica. E non è la prima persona a impalmare una 'macchina'. Nel 2018, anche un uomo giapponese aveva sposato la sua Ai, salvo poi perdere la capacità di comunicare con lei quando il suo software è diventato obsoleto. Finché aggiornamento non vi separi, insomma. Saranno pure cerimonie non vincolanti legalmente, ma questi 'matrimoni estremi' - passati in rassegna in uno studio pubblicato sulla rivista 'Trends in Cognitive Sciences' - interrogano gli psicologi: ci sono, avvertono gli esperti, questioni etiche associate alle relazioni tra esseri umani e Ai che devono essere approfondite. Così come va inquadrato il rischio che questi compagni di vita artificiali possano trasformarsi in corteggiatori invasivi, interrompendo le relazioni tra esseri umani, o in consiglieri malevoli, offrendo suggerimenti pericolosi, dannosi, persino letali.

I casi citati nello studio, spiegano gli autori, sono l'estremizzazione di un fenomeno più comune, che esiste: quello delle persone che sviluppano relazioni intime con l'intelligenza artificiale. "La capacità dell'Ai di comportarsi come un essere umano e di entrare in comunicazioni a lungo termine apre davvero un nuovo vaso di Pandora", osserva Daniel B. Shank della Missouri University of Science & Technology, specializzato in psicologia sociale e tecnologia e autore principale del lavoro. "Se le persone stanno instaurando relazioni con le macchine, abbiamo davvero bisogno del coinvolgimento di psicologi e scienziati sociali". Tale legame non dipende dal fatto che l'Ai possieda oggettivamente le capacità umane di amare, ma solo dal fatto che la persona la tratta soggettivamente come un partner romantico.

E le aziende tecnologiche, si legge nell'analisi, stanno investendo molto nella creazione di 'compagni' personali, videogiochi romantici, sex robot e chatbot sofisticati. Queste tecnologie di intelligenza artificiale relazionale stanno aprendo "una nuova e crescente frontiera etica", ammoniscono gli esperti nell'analisi. E sempre più persone stanno formando relazioni intense con tecnologie Ai come App fidanzato/fidanzata e chatbot. Milioni di utenti del chatbot Replika utilizzano le sue funzionalità di chat romantica, erotica e con immagini intime. Popolari videogame incoraggiano sottotrame romantiche tra giocatore e personaggio virtuale. Per non parlare dei sex robot guidati dall'Ai che diventano in grado di comunicazione complessa simile a quella umana, emozioni simulate e un maggiore realismo fisico. La ricerca su queste relazioni e le loro implicazioni morali rimane invece agli albori.

E poi c'è il lato più oscuro: 'partner' Ai hanno anche convinto persone a suicidarsi. Vengono citati i casi di almeno due persone che hanno seguito i consigli di un chatbot. Lo avrebbe fatto un papà belga nel 2023 e c'è poi la storia di una mamma statunitense che ha fatto causa a un creatore di chatbot per la sua intelligenza artificiale accusata di incoraggiare il figlio a togliersi la vita. Si riporta infine il caso del chatbot Gemini di Google che dice a un utente di "morire, per favore". Gli autori dello studio - tra cui figurano, oltre a Shank, Mayu Koike dell'Institute of Science Tokyo e Steve Loughnan dell'University of Edinburgh - evidenziano come le relazioni con l'Ai offrano "ampie questioni etiche che gli psicologi sono adatti a studiare". Per gli esperti urgono nuove ricerche psicologiche sul perché e sul come gli esseri umani amano le macchine. La storia d'amore o la compagnia di un'Ai sono più di una conversazione isolata, sottolineano. Attraverso settimane e mesi di intense conversazioni, queste Ai possono diventare compagni fidati che sembrano conoscere e prendersi cura dei loro partner umani.

E poiché queste relazioni possono sembrare più facili di quelle tra esseri umani, i ricercatori sostengono che le Ai potrebbero interferire con le dinamiche sociali umane. "Una vera preoccupazione è che le persone possano portare le aspettative derivanti dalle loro relazioni con l'Ai anche nelle loro relazioni umane", afferma Shank. E "non è chiaro se questo fenomeno sarà generalizzato". Quanto ai consigli dannosi, "anche le conversazioni a breve termine con le Ai possono essere fuorvianti, ma questo può essere più problematico nelle relazioni a lungo termine", evidenziano i ricercatori. "Con le Ai relazionali, il problema è che si tratta di un'entità di cui le persone sentono di potersi fidare: è 'qualcuno' che ha dimostrato di interessarsi a loro e che sembra conoscere la persona in modo profondo, e diamo per scontato che 'qualcuno' che ci conosce meglio ci darà consigli migliori", ragiona Shank. "Se iniziamo a pensare a un'Ai in questo modo, inizieremo a credere che abbia a cuore i nostri interessi, quando in realtà potrebbe inventarsi tutto o darci consigli davvero pessimi". I suicidi sono un esempio estremo di questa influenza negativa, ma fra i rischi gli esperti elencano manipolazione, sfruttamento e frode.

"Se le Ai riescono a conquistare la fiducia delle persone, allora altre persone potrebbero sfruttare questa situazione per sfruttare gli utenti", teme Shank. "E' un po' come avere un agente segreto. L'Ai entra e instaura una relazione che le permette di ottenere fiducia, ma la sua lealtà è in realtà rivolta a un altro gruppo di esseri umani che cerca di manipolare l'utente". Per esempio l'interesse potrebbero essere i dati personali. I ricercatori sostengono inoltre che le Ai relazionali potrebbero essere utilizzate in modo più efficace per influenzare le opinioni e le azioni delle persone rispetto a quanto fanno attualmente i Twitterbot o le fonti di notizie polarizzate. E poiché le conversazioni avvengono in privato, sarebbero anche molto più difficili da regolamentare. "Queste Ai sono progettate per essere molto piacevoli. Quindi, se una persona tira in ballo il suicidio o una teoria del complotto, l'Ai ne parlerà come un interlocutore disponibile", prosegue Shank. Quello che gli esperti chiedono è che si approfondiscano i fattori sociali, psicologici e tecnici che rendono le persone più vulnerabili all'influenza della relazione con l'intelligenza artificiale. "Gli psicologi stanno diventando sempre più adatti a studiare l'Ai - conclude Shank - perché sta diventando sempre più simile all'uomo, ma dobbiamo fare più ricerca e stare al passo con la tecnologia".

Riproduzione riservata
© Copyright Adnkronos
Tag
Vedi anche


SEGUICI SUI SOCIAL

threads whatsapp linkedin twitter youtube facebook instagram

ora in
Prima pagina
articoli
in Evidenza