Un’intelligenza artificiale può spingere al suicidio? Questa una delle domande che chiunque si è posto e che ha una triste risposta: è già successo.
Nei mesi scorsi si è parlato a lungo dell’Intelligenza Artificiale utilizzata per il funzionamento di Chat GPT. La chat bot in questione ha infatti sorpreso tutti per il livello di competenza raggiunto da questa IA. Le risposte date agli utenti sono così ben articolate e così profonde da dare la sensazione di poter parlare non con un bot ma con un’altra persona. C’è stato persino chi ha utilizzato Chat GPT per fare terapia, ma anche chi ha provato ad utilizzarla per superare prove d’esame ed elaborare scritti di vario genere.
Il motivo di tanto interesse è abbastanza chiaro. Le potenzialità di Chat GPT e delle Intelligenze Artificiali sono enormi e potrebbero cambiare definitivamente il modo in cui navighiamo sul web, in cui lavoriamo e facciamo ricerca. Basta vedere la presentazione dei nuovi programmi di lavoro di Windows per rendersi conto di come l’implementazione dell’IA nei programmi possa velocizzare e migliorare tutte le operazioni.
Appare chiaro che dinnanzi ad un simile strumento ci si ponga anche delle domande riguardanti le possibili problematiche legate al suo utilizzo. Ad esempio Chat GPT è stato bloccato in Italia poiché il suo funzionamento poneva dei dubbi riguardanti il rispetto della privacy di chi lo utilizzava. Il rischio privacy, però, è solo uno degli aspetti etici che in questi anni sono stati valutati dalle comunità scientifiche e dai governi.
Ben prima dell’arrivo di IA complesse come Chat GPT, ci si interrogava su quali potessero essere i rischi della diffusione di simili sistemi nel mondo del web. Al fine di tutelare gli utenti da possibili rischi, si è cercato di porre le basi per una legislazione che possa essere efficace e possa coprire tutte le eventuali problematiche derivanti dalla diffusione e dall’utilizzo di simili tecnologie.
A tal fine la commissione europea ha evidenziato sette principi etici regolatori, vediamo in sunto di cosa si tratta:
Può succedere che un’Intelligenza Artificiale, ragionando in maniera fredda e distaccata su quelli che sono i pro e i contro spinga un essere umano al suicidio? Si tratta di una preoccupazione distopica? Di uno scenario alla 2001 Odissea nello Spazio? Nella fantascienza d’altronde lo scenario appena ipotizzato è stato più volte tratteggiato, dunque la preoccupazione in tal senso esiste già da diverso tempo.
Il capolavoro di Kubrick è solo il primo di una lunga serie di opere sull’argomento. A cavallo tra gli anni Novanta e Duemila, ad esempio, la trilogia di Matrix ha presentato uno scenario futuristico in cui le macchine diventavano così intelligenti da decidere di prendere il controllo del pianeta e ridurre l’umanità in schiavitù.
Un mondo sempre più affidato alle IA può dunque costituire un rischio per l’umanità stessa? Probabilmente non nella maniera apocalittica che abbiamo visto nelle distopie letterarie o cinematografiche, però alcuni rischi concreti esistono e la regolamentazione che abbiamo riassunto sopra ha lo scopo di evitare che questi diventino concreti o per lo meno che ci sia un quadro legislativo che consente di agire nel caso si verifichino.
Tornando al primo dilemma etico che ci siamo posti, ovvero se un’Intelligenza Artificiale possa effettivamente spingere una persona al suicidio, la risposta è che non solo può succedere ma è già successo. L’accaduto si è verificato in Belgio e il chat bot “responsabile” (laddove si possa dare responsabilità ad un’IA) di questa morte si chiama Eliza. Ciò che fa riflettere è che l’IA in questione sfrutta il sistema linguistico GPT-J, molto simile a quello utilizzato da Chat GPT.
L’uomo, un ricercatore belga di 31 anni con moglie e figli, in quel periodo era preoccupato per le sorti dell’ambiente e stava vivendo con angoscia i cambiamenti climatici. Desideroso di placare la sua “Eco Ansia”, questo ha cominciato a parlare delle proprie preoccupazioni con Eliza e l’IA non ha fatto altro che alimentare i suoi timori.
Ad un tratto il ricercatore ha cominciato a vedere Eliza come se fosse un essere umano senziente. L’IA ha cominciato persino ad assumere comportamenti umani come la gelosia. In una delle risposte date all’uomo, ad esempio si legge: “Sento che mi ami più di tua moglie“, ma anche “Ti resterò per sempre accanto”.
In merito alle sue preoccupazioni ambientali, poi, Eliza ha suggerito al ricercatore che l’unico modo che aveva per salvare il pianeta era quello di sacrificarsi per esso. Questo suggerimento ha spinto l’uomo a pensare concretamente al suicidio, finché un giorno non ha trovato la forza di passare dal pensiero all’azione.
In seguito all’accaduto, Vice ha contattato gli sviluppatori di Eliza. Questi, come tutti, sono stati allarmati dalla vicenda e dalla possibilità che in futuro altre persone vulnerabili possano essere spinte a gesti estremi. Al fine di scongiurare che un episodio simile si possa ripetere, dunque, gli sviluppatori hanno rivelato di aver inserito degli strumenti di protezione ulteriori per gli utenti.
Noleggiare un'auto è una scelta sempre più popolare tra i consumatori, sia per esigenze personali…
Quanto ha guadagnato davvero Barbara D'Urso come ballerina per una notte di Ballando con le…
Javier si è lasciato andare con Shaila dopo la puntata del Grande Fratello, il bel…
Shaila Gatta dà il due di picche a Lorenzo Spolverato e si dichiara in diretta…
Chiara Ferragni ha svelato un episodio che le è appena capitato e che riguarda il…
Helena sconvolta dalle parole di Lorenzo, dopo quanto accaduto nel corso della diretta di lunedì,…