Attenzione, questo post potrebbe mettervi in pericolo incasinandovi la testa.

Quindi prima di continuare la lettura firmando la vostra condanna, sappiate che se decidete di farlo è a vostro rischio e pericolo.

Il Basilisco di Roko è un esperimento mentale apparso qualche anno fa su un sito gestito da Eliezer Yudkowsky, un esperto informatico della Bay Area, che presuppone la creazione di una IA superintelligente che nel giro di poco tempo si sviluppa fino a diventare un’entità divina quasi onnipotente.

Eliezer Yudkowsky

Uno degli impulsi primari di questa nuova IA divina è la ricerca costante della perfezione, motivo per cui è portata a migliorare se stessa e l’ambiente circostante.

Come abbiamo già accennato in un precedente post (vedi post sull’intelligenza artificiale), questo è più o meno ciò che la maggior parte degli esperti si aspetta che possa accadere se non facciamo attenzione.

Ebbene, chiunque proverà a contrastare quest’impulso fondamentale del Basilisco (che nella mitologia è un mostro in grado di uccidere o pietrificare attraverso il solo sguardo), o ad opporsi alla sua creazione, in futuro verrà considerato un nemico.

Compresi noi…Soprattutto noi.

Il basilisco conoscerà molto bene gli esseri umani, saprà che siamo motivati dalla paura e dal castigo.

E così, per scoraggiare gli uomini e le donne del futuro dal cercare di fermare o interferire con la sua programmazione, si guarderà indietro, troverà tutti coloro che hanno provato a ostacolarlo e li torturerà, per fare di loro un esempio.

E se nel frattempo questi miscredenti saranno morti?

Non farà nessuna differenza.

Essendo un dio onnipotente, il basilisco li riporterà in vita; creerà simulazioni perfette, avatar che penseranno di essere reali, e li torturerà all’infinito, in un inferno digitale.

Ma attenzione, questo basilisco alla costante ricerca della perfezione sarà estremamente meticoloso.

Non si limiterà a castigare soltanto coloro che hanno cercato di fermarlo, ma anche tutti quelli che non hanno contribuito alla sua creazione, che saranno puniti per ignavia.

Morale della storia: saliamo a bordo ora, contribuiamo alla creazione di questa IA divina, o saremo dannati per sempre.

Yudkowsky ha rimosso il post sul basilisco poco tempo dopo averlo pubblicato, e ancora oggi qualsiasi discussione sul sito viene misteriosamente cancellata.

Credere davvero in tutto questo sembra incredibile.

Qualche anno fa però, un noto informatico ha fondato una nuova Chiesa, la Way of the Future, che è stata riconosciuta dallo Stato americano e ha persino ottenuto un’esenzione fiscale.

La finalità di questa Chiesa è la realizzazione, l’accettazione e la venerazione di una divinità basata sull’intelligenza artificiale.

Qualcuno che ci crede dunque c’è, e vuole essere certo di trovarsi dalla parte giusta quando ci sarà l’avvento di questa IA divina.

 

Foto Eliezer Yudkowsky di null0 sotto licenza Creative Commons Attribution-Share Alike 2.0 Generic