Tra i sostenitori della singularity si diffondono non di rado scenari apocalittici, in un approccio distopico che riguarda anche molte visioni del Transumanesimo.
Geoffrey Hinton, spesso definito il “padrino dell’IA”, ha avvertito che c’è una probabilità del 10-20% che l’IA possa contribuire all’estinzione umana nei prossimi 30 anni. L’argomentazione sta nella considerazione che in natura in quasi nessun caso un essere meno intelligente ne controlla uno più intelligente.
L’anarchico e terrorista Theodore Kaczynski ha diffuso la tesi che gli umani “saranno ridotti al livello di animali domestici” dopo che ci sarà stato un sufficiente progresso tecnologico.
Hugo de Garis afferma che l’Intelligenza Artificiale alla fine dominerà o distruggerà la razza umana, e dipinge addirittura questo scenario come desiderabile.
Uno dei rischi ragionevolmente seri della Singularity è che la profonda sperequazione tra i pochi possessori delle tecnologie super-umane e il resto della popolazione potrebbe causare la marginalizzazione e l’impoverimento dei più.
Visioni distopiche e positiviste si contrappongono.
Ovviamente i responsabili delle società protagoniste dello sviluppo dell’AI prospettano scenari opposti, molto più ottimistici, come dichiarato da Sam Altman, amministratore delegato di OpenAI, che immagina un futuro in cui l’AI aiuterà l’umanità a prendere decisioni più sagge: l’AI, afferma Altman, non impone scelte, ma offre la visione di prospettive con le relative conseguenze per favorire il ragionamento e il processo decisionale. I bambini del futuro cresceranno con un’AI più intelligente di loro, in un mondo in cui le tecnologie capiscono e aiutano attivamente, in un’era di abbondanza e rapidissimo cambiamento. Altman esprime la speranza che i nostri i figli guarderanno al nostro presente con pietà per un’epoca più limitata della loro.
Yann LeCun, responsabile scientifico di Meta, ritiene che l’IA abbia il potenziale non solo di prevenire l’estinzione dell’umanità, ma di salvarci, fornendo soluzioni ad alcune delle sfide globali, come il cambiamento climatico, le malattie e la gestione delle risorse del mondo.
Partendo dalle macro tipologie di rischi dell’AI che mergono dai principali analisti, è possibile classificare le minacce su scala apocalittica, cioè quelle minacce catastrofiche che possono causare drastici cambiamenti dell’ambiente o delle condizioni di vita dell’umanità stessa:
- Uso criminale: quando individui o gruppi utilizzano l’AI intenzionalmente per causare danni. In questo ambito un disastro globale potrebbe essere prodotto da azioni di cyberwar di regimi irresponsabili, o da azioni terroristiche potenziate dall’AI che sfuggono dal controllo.
- Divergenza: quando gli obiettivi dell’AI divergono da quelli umani. Un effetto apocalittico potrebbe derivare ad esempio da una ottimizzazione apparentemente razionale di un sistema, ad esempio per alimentare al massimo i data server, che consuma risorse energetiche o idriche su larga scala provocando un conflitto globale.
- Errori, cioè malfunzionamenti o decisioni non previste dovute a limiti tecnologici. Un rischio su scala globale potrebbe essere provocato da allucinazioni dell’AI in un sistema di controllo di attacco o difesa missilistica nucleare. Oppure dalla creazione di un microrganismo bionico con aspetti letali.
Nessuna di queste ipotesi prevede tuttavia l’avvento di una superintelligenza che aggredirebbe l’umanità per estinguerla.
L’uso criminale deriva da una volontà umana.
La divergenza e gli errori più che dall’intelligenza, deriverebbero dalla stupidità, sia umana che artificiale.
L’apocalisse non sembra quindi legata alla Singularity. L’esperto Luciano Floridi definisce nullo il rischio di estinzione dell’umanità da parte dell’intelligenza artificiale, in quanto l’uomo potrà sempre staccare la spina.
In realtà, nel momento in cui l’AI sarà pienamente integrata nel sistema di controllo IoT (Internet delle cose) dell’apparato tecnologico mondiale, che gestisce le comunicazioni, l’energia, gli armamenti, gli ospedali, i trasporti, le reti idriche, spegnerla non sarà così immediato.
Per questo motivo, ben prima che si prefiguri una Singularity, sarà bene assicurarsi che questi sistemi intelligenti siano eticamente ben impostati e affidabili.
Nella gestione degli armamenti nucleari, in particolare, non ci possiamo permettere errori, né umani né artificiali. Ben prima della Singularity.