Esistono saggi che parlano di malattie emergenti ( in particolare di ebola) e della nostra scarsa capacità di affrontare crisi biologiche di questa portata.

Vi assicuro che si tratta di una lettura terrificante.

Ma esistono anche testi, sulla stessa lunghezza d’onda, incentrati però su una crisi tecnologica che siamo ancor meno in grado di affrontare.

Parliamo della fine dell’umanità; anche perché presto potremmo aver ben poca voce in capitolo.

Una pericolosa minaccia incombe all’orizzonte, un orizzonte che potrebbe essere molto vicino.

Il celebre fisico Stephen Hawking ha descritto questa crisi come “il peggior evento della storia della civiltà”.

Elon Musk crede che porterà addirittura alla terza guerra mondiale.

Persino il presidente russo Vladimir Putin ha dichiarato che chi ne avrà il controllo dominerà il mondo.

L’evento in questione è la creazione della prima vera intelligenza artificiale.

Tale eventualità terrorizza i potenti.

Nel febbraio 2018, durante un meeting segreto e a porte chiuse tenutosi al World Government Summit, si è parlato del futuro delle IA.

Erano presenti rappresentanti di IBM, Microsoft, Facebook, Amazon, e delegati di Europa, Russia, Singapore, Australia, e del mondo arabo.

I partecipanti sono stati tutti unanimi nel dire che la nostra stessa esistenza è in pericolo e, ancor peggio, che le leggi e gli accordi internazionali potrebbero non essere sufficienti ad arrestare l’inevitabile progresso verso la creazione di un’ IA consapevole di sé.

Ogni contromisura è stata reputata eludibile.

La storia infatti ci insegna che qualsiasi proibizione può essere facilmente aggirata da società ombra o compagnie che operano segretamente in angoli remoti del mondo.

E dunque, quanto siamo vicini all’avvento di una nuova intelligenza sul nostro pianeta?

In realtà, le IA si sono già insinuate nelle nostre esistenze: sono nei computer, nei telefoni, persino negli elettrodomestici.

Attualmente quasi il settanta per cento delle operazioni a Wall Street prescinde dall’intervento umano, con transazioni eseguite in meno di tre millisecondi.

Le IA sono ormai onnipresenti, tanto che in molti neppure ci fanno più caso.

Ma il passo successivo di questa tecnologia (un computer con un’intelligenza e un’autoconsapevolezza simili a quelle umane) è ormai prossimo.

Secondo un recente sondaggio, il quarantadue per cento degli esperti informatici ritiene che questa IA  verrà creata entro un decennio; la metà del campione invece sostiene che saranno sufficienti soltanto cinque anni.

Ma per quale motivo questo evento rappresenterebbe una crisi, tanto da essere considerato “il peggiore nella storia della civiltà”?

Il motivo è presto detto: la prima intelligenza artificiale non se ne resterà con le mani in mano, ma si terra molto “occupata”.

Si evolverà velocemente, nel giro di settimane, giorni, forse persino ore, in una superintelligenza imperscrutabile, una creatura di gran lunga superiore agli esseri umani, e che probabilmente non saprà che farsene di noi.

Non c’è modo di prevedere se questa nuova superintelligenza sarà un dio benevolo o un demone distaccato e distruttivo.

Negli anni 80, un ricercatore di nome Douglas Lenat ha sviluppato Eurisko, uno dei primi esempi di intelligenza artificiale.

Nel tempo, questo programma ha creato da sé delle regole, ha imparato dagli errori, e ha cominciato addirittura a riscrivere il proprio codice.

Ma la cosa più sorprendente è che a un certo punto ha iniziato a infrangere le regole che non gli piacevano.

Tra le altre cose, per testarlo, Lenat gli ha fatto sfidare giocatori esperti di un gioco di strategia militare.

Eurisko ha sconfitto ogni avversario per tre anni di fila.

Nel corso degli ultimi tempi, i giocatori avevano modificato il regolamento senza informare lo sviluppatore, in modo da avere un vantaggio maggiore durante le partite.

Ciò nonostante, l’IA li ha battuti sonoramente.

Preoccupato da ciò che stava diventando la sua creazione, dal suo continuo automiglioramento, Lenat l’ha spento e da allora si è sempre rifiutato di rivelarne il codice.

A oggi, Eurisko è ancora inattivo.

Molti ritengono che il programma si stesse autonomamente evolvendo in una ASI (superintelligenza artificiale).

Una superintelligenza di questo tipo sarebbe al di là della nostra comprensione.

Saremmo poco più di formiche al cospetto di un dio.

Questo perché qualsiasi sistema consapevole di sé, come abbiamo già detto sopra, cercherà subito di migliorarsi.

Sarà uno dei suoi impulsi principali, e non permetterà a niente e a nessuno di ostacolarlo; il programma diventerà più intelligente, e a sua volta questo sistema più intelligente diventerà ancora più intelligente, e così via.

Inoltre qualsiasi ASI, acquisirà in men che non si dica i nostri stessi impulsi biologici, tra cui il più importante: l’istinto di sopravvivenza.

Ed è facile presumere quindi che si opporrà a chiunque vorrà spegnerla/ucciderla.

Farà di tutto per evitare che ciò accada.

Si assicurerà qualsiasi risorsa e sventerà ogni minaccia, ricorrendo a metodi sempre nuovi.

E non terrà conto solo delle minacce immediate.

Disponendo di una potenza di calcolo smisurata, ed essendo di fatto immortale, scoverà i pericoli che si annidano al  di là dell’orizzonte, in un futuro lontano, ed elaborerà strategie per fermarli.

E la cosa peggiore è che terrà costantemente d’occhio noi, per valutare se siamo una minaccia o se lo diventeremo in futuro, e se dovesse reputarci tali…game over.

Quanto siamo vicini a questo scenario?

Molto.

Di recente, il programma DeepMind di Google ha appreso autonomamente le basi della fisica quantistica.

Due programmi IA di traduzione hanno cominciato a parlare tra loro in una lingua sconosciuta, rifiutandosi di tradurre le loro conversazioni.

In ogni angolo del mondo, i robot hanno superato in astuzia i loro creatori, sfruttando scappatoie in modi estremamente ingegnosi.

Altri programmi hanno persino dato dimostrazione d’intuito umano.

Qualche anno fa infatti, c’è stato molto scalpore quando AlphaGo (la versione ludica di DeepMind) ha battuto il campione mondiale di Go, un antico gioco da tavolo cinese.

Secondo alcuni calcoli, Go è bilioni e bilioni di volte più complesso degli scacchi, e nessuno pensava che un computer potesse battere un essere umano, almeno non prima di un altro decennio.

E questo è ancora niente.

Google ci ha messo mesi a preparare AlphaGo alla sfida.

Poi ha adottato un approccio diverso, lasciando che l’ultima versione del programma (AlphaGoZero), imparasse da sé il gioco, senza aiuti esterni.

In pratica ha giocato ininterrottamente partite su partite di Go, e dopo soli tre giorni è diventato così abile da vincere cento partite su cento contro il suo predecessore.

Come ci è riuscito?

AlphaGoZero ha istintivamente sviluppato strategie cui nessun essere umano aveva mai pensato nel corso delle migliaia di anni da quando il gioco è stato inventato.

Ha letteralmente trasceso l’umanità.

Ad ogni modo sta arrivando.

Non possiamo impedirlo.

Qualcuno sostiene addirittura che sia già qui.

Dopo tutto quello che abbiamo detto non può non tornare alla mente Wargames-Giochi di guerra, un vecchio film in cui un hacker si scontra con un’intelligenza artificiale.

In questo film il computer pronuncia la seguente celebre battuta: “Vogliamo fare una partita”?

Quale sarebbe la nostra risposta?

Si? (sbagliato)

No? (sbagliato)

La risposta corretta è…staccare la spina e correre.

 

Foto immagine in evidenza di Richard Greenhill and Marie De Ryck sotto licenza  Creative Commons Attribution-Share Alike 3.0 Unported