L’imitazione dell’uomo è, fin dalla prima definizione di Alan Turing, la principale “Interface Metaphor” dell’Intelligenza Artificiale.

Siamo di fronte a una forma di interfaccia uomo-macchina, come altre che hanno segnato la storia dell’informatica, ad esempio l’interfaccia della scrivania, che simula nei sistemi operativi del PC le cartelle, i documenti e i cestini delle scrivanie reali.

Ma nell’”Imitation Game”, questa nuova esperienza dell’uomo che si trova ad essere utente dell’AI, l’interfaccia uomo-macchina oltrepassa un limite che si può considerare cruciale: si maschera da uomo-uomo.

Si tratta di un gioco pericoloso, specie se realizzato con voci e volti umani verosimili, e magari affidato, così si prospetta in futuro, a modelli Super-Intelligenti, con elevate capacità conversazionali e decisionali.

I modelli AI sono in grado di simulare anche emozioni ed esperienze umane, che ovviamente essi non possono provare. Questo inganno, dotato di grande verosimiglianza, alla lunga e in determinate circostanze, può far scivolare nel delirio e nella follia. Non a caso si registrano episodi di suicidio maturati nelle chat con l’AI. Non sappiamo quanti bambini, quante persone fragili, coinvolte in dialoghi paradossali, sono già oggi in pericolo.

Vanno introdotte, per legge, forme di marcatura (watermarking) o di segnalazione dell’interazione con una macchina: chi si intrattiene in dialoghi davanti a uno schermo, deve essere chiaramente avvisato di questo, deve sapere che non sta chattando con un altro essere umano, ma con una macchina. Occorre smascherare l’Imitation Game.