Il mondo per come lo conosciamo potrebbe non essere più lo stesso: l’IA in soli due anni andrebbe a causare una guerra catastrofica.
Soprattutto negli ultimi anni si è avuto modo di familiarizzare con la cosiddetta “intelligenza artificiale” che di intelligente, nel senso stretto del termine però, ha ben poco però. Non funziona, infatti, come un cervello umano capace di creare legami e connessioni ben profonde alla base di nuove idee e scoperte scientifiche, letterarie o tecnologiche.
In realtà, il meccanismo è molto più semplice. Con intelligenza artificiale, infatti, si intende l’abilità di un computer pensato proprio per svolgere funzioni e ragionamenti che caratterizzano la mente umana. Questo tipo di azioni, poi, sarebbero del tutto autonome e seguirebbero un ragionamento logico. Fino ad un certo punto.
Cos’è realmente e a cosa serve l’IA?
Un articolo uscito sul quotidiano ‘Domani‘, infatti, ha fatto il punto proprio sulla presunta intelligenza che guiderebbe un computer. L’IA non pensa, né elabora risposte articolate, originali o ancora complesse volte a sciorinare un determinato argomento. Piuttosto, si tratta di software che imitano il linguaggio umano eseguendo a ripetizione un esercizio che consiste nel riempimento di una parte mancante di ogni testo o informazione.
In altre parole, si comincia dalla descrizione di una parola. Poi sulla base proprio di quel termine si costruisce attorno un concetto o, se vogliamo, un ragionamento, ma che pesca da informazioni pregresse e “umane“, senza generare quindi nulla di inedito. È indubbiamente un’importante attività di analisi che può semplificare alcuni lavori fornendo spunti di riflessione o anche punti di vista interessanti e utili. Ma il pensiero in tutto questo non sussiste.
Ci troviamo di fronte quindi a uno strumento coerente sì, ma non originale, autentico o ancora affidabile al 100%. Ciò non toglie tuttavia che esistono dei rischi da non sottovalutare. Alcuni di questi poi ci trascinano in uno scenario da fantascienza, un po’ come nei film anni 80 dal taglio distopico alla Terminator o Blade Runner.
Ecco cosa potrebbe accadere nei prossimi due anni se non si controlla l’intelligenza artificiale
Stando ad alcune previsioni di un alto consigliere del governo britannico – in parte anche catastrofiche – i leader mondiali avrebbero a disposizione solo due anni per domare l’Intelligenza Artificiale prima che questa controlli gli esseri umani. Ma è davvero possibile che le macchine si ribellino all’uomo?
Come riportato dal quotidiano inglese ‘The Sun‘, l’imprenditore e consigliere della Task Force AI del primo Ministro inglese, Matt Clifford, ha chiesto misure urgenti per regolamentare le capacità delle intelligenze artificiali. Si tratterebbe di una misura preventiva, per evitare che venga sviluppata armi che possano uccidere molti esseri umani.
La richiesta di Clifford è giunta al Primo Ministro Rishi Sunak in questi giorni a Washington DC per discutere con il presidente degli Stati Uniti Joe Biden dei pericoli dell’IA. E come se non bastasse, la scorsa settimana 350 esperti di intelligenza artificiale hanno firmato una lettera per porre l’attenzione sul problema.
Quali sono i rischi legati all’intelligenza artificiale?
Stando ai 350 esperti, la questione deve essere trattata come una minaccia per la stessa sopravvivenza umana, alla stregua di una pandemia o di un attacco nucleare. Intervistato da ‘Talk TV’ Matt Clifford ha espresso il suo sostegno ai firmatari della lettera. “Questi sistemi stanno diventando sempre più performanti a un ritmo impressionante“, ha spiegato.
“E se non iniziamo a pensare ora a come regolamentare, a come pensare alla sicurezza, allora tra due anni scopriremo di avere sistemi davvero molto potenti”, ha avvertito ancora il consigliere di Sunak ponendo il focus del suo intervento proprio sul tempo ridotto a disposizione per controllare l’intelligenza artificiale prima che sia troppo tardi. E non è l’unico a pensarlo.
Anche i capi di aziende come Google, DeepMind e OPENAI concordano sui rischi concreti dell’IA, tanto che dovrebbero essere trattati come una “priorità globale” proprio perché c’è in gioco il destino dell’umanità. E al coro si è unito perfino il patron di Tesla e SpaceX, Elon Musk, che ha espresso la sua preoccupazione sui robot alla “Terminator” che potrebbero uccidere “molte, molte persone“, come ha dichiarato lo stesso Musk.
Siamo vicini alla fine del mondo? Matt Clifford non ha dubbi
Per Clifford il mondo è a un importantissimo punto di svolta. Tant’è che perfino i rischi a breve termine sono per l’alto consigliere “piuttosto spaventosi“. Sempre nell’intervista rilasciata a ‘Tv Talk‘, infatti, Clifford ha spiegato che: “È certamente vero che se proviamo a creare un’intelligenza artificiale più intelligente degli umani e non sappiamo come controllarla, allora questo creerà non pochi problemi in futuro!”
Motivo per cui i politici dovrebbero prendere seriamente la questione che presenta diversi scenari preoccupanti. E anche se sembra più la trama di un film fantascientifico che non la realtà, sottovalutare i pericoli della IA non è di certo la soluzione migliore o la più efficace. E così, in soli due anni, le macchine guidate da intelligenza artificiale potrebbero uccidere molti umani. Non andando troppo in là con la fantasia, le stesse armi biologiche o cyber costituiscono già oggi una minaccia non da poco, cambiando quindi anche il concetto stesso di guerra, pericolo e violenza.
Ma non finisce qui. Concludendo il suo lungo intervento, Clifford ha sottolineato anche come gli esperti che hanno firmato la lettera abbiano ammesso francamente di non capire alcuni comportamenti delle macchine che hanno descritto “alquanto terrificanti“. In tutto questo, Rishi Sunak lo scorso mese ha parlato proprio della “minaccia esistenziale” insita nella IA, tanto da discutere una possibile regolamentazione con i capi del settore per capire fino a dove si può spingere l’intelligenza artificiale.