La formulazione dell’idea della Singularity non è recente: Stanislaw Ulam nel 1958 riferisce di avere discusso con John Van Neumann di una “singolarità della storia della razza oltre la quale gli affanni degli esseri umani, come li conosciamo, non possono continuare.”
Qualche anno più tardi, nel 1965, lo statistico I. J. Good associa la singolarità all’avvento di un’intelligenza superumana:
«Una macchina ultra intelligente potrebbe progettare macchine sempre migliori; quindi, ci sarebbe una “esplosione di intelligenza”, e l’intelligenza dell’uomo sarebbe lasciata molto indietro. Quindi, la prima macchina ultra intelligente sarà l’ultima invenzione che l’uomo avrà la necessità di fare.»
Nel 1993 Vernor Vinge scrive il saggio “Technological Singularity”, in cui profetizza la trasformazione degli umani in una nuova forma di intelligenza sovrumana, superiore all’Homo Sapiens.
Ray Kurzweil, che è considerato il principale teorico della Singularity, si concentra invece sull’accelerazione esponenziale della tecnologia, oltre la legge di Moore (“La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi”), e quindi sul progresso sempre più rapido della tecnica e dell’umanità nell’universo.
L’idea della Singularity allude anche ad un processo di innovazione che quando viene innescato non porta a un superamento della tecnologia da parte di altre, ma ad una sua espansione esponenziale e potenzialmente infinita.
A contrapporsi al pensiero di Ray Kurzweil è Federico Faggin, il padre del microprocessore, il quale, da parte sua, dubita che la singolarità possa realizzarsi sul piano tecnico e si ispira a una visione che recupera il valore intrinseco dell’uomo dotato di coscienza e come tale difficilmente sostituibile con la macchina.