Uno dei problemi più rilevanti e immediatamente percepibili dell’intelligenza artificiale generativa è il suo sistematico cadere in errore. La presenza di hallucination ( allucinazioni) è un grave limite che balza all’occhio a chi genera testi o immagini con l’intelligenza artificiale. Ma questa grave problematica è risolvibile? I più ritengono che si tratta di un difetto iniziale che verrà presto eliminato dall’evoluzione tecnologica. Ma gli esperti non la pensano in questo modo. Addirittura si sta riscontrando un aumento delle allucinazioni nei modelli di nuova generazione. Va anche considerato che i dati disponibili su Internet per addestrare i modelli sono stati ormai usati tutti, e quindi non si può più contare su un salto qualitativo dovuto all’immissione di nuovi rilevanti volumi informativi. Amr Awadallah, amministratore delegato di Vectara ed ex Google, afferma: “Nonostante gli sforzi, questi sistemi allucineranno sempre”. Le “allucinazioni” non sono probabilmente una imperfezione temporanea, ma esprimono un limite ontologico dell’AI generativa, dovuto alla sua natura statistica e alle modalità di addestramento dei modelli AI.
Un limite grave, che richiede attenti controlli delle persone sui risultati delle produzioni dell’AI generativa, con costi e rischi tali da renderla in mondi casi antieconomica. Una delle strategie per ridurre efficacemente le allucinazione è azzerare i riferimenti del modello ai dati globali, usati da chatBOT come ChatGPT o Deepseek, e addestrare l’AI su set di dati limitati e di alta qualità. Il successo di questo procedimento pone delle ombre sui progressi dell’AI generale, che rischia di essere sempre più soggetta ad allucinazioni, e depone a favore dello sviluppo di AI verticali, circoscritte e specializzate.