L’articolo chiarisce gli equivoci della AI che maggiormente distraggono chi ne fa uso dal reale rischio di una nuova, tecno-mistica “illusione”. (R. Colombo)
I Large Language Models simulano coerenza, ma non producono conoscenza: l'affidabilità è un limite strutturale e l'automazione non è possibile. «È un'illusione poter delegare senza supervisionare»...

W. Quattrociocchi, «L’AI non è davvero intelligente, è una questione di statistica. Le allucinazioni? Inevitabili, è una caratteristica intrinseca»

Corriere della Sera – 3 giugno 2025

L’articolo chiarisce gli equivoci della AI che maggiormente distraggono chi ne fa uso dal reale rischio di una nuova, tecno-mistica “illusione”. (R. Colombo)

I Large Language Models simulano coerenza, ma non producono conoscenza: l’affidabilità è un limite strutturale e l’automazione non è possibile. «È un’illusione poter delegare senza supervisionare»

C’è una premessa non detta, ma largamente accettata nel dibattito attuale sull’intelligenza artificiale: che i modelli generativi — in particolare i Large Language Models (LLM) — rappresentino una forma emergente di intelligenza, ancora imperfetta ma inevitabilmente destinata a migliorare. Questa narrazione ha un potente effetto: proietta nel futuro l’idea che presto potremo delegare interi processi cognitivi a sistemi artificiali, con impatti strutturali sul lavoro, sulla conoscenza e sulla società. Ma è proprio qui che si gioca l’equivoco. Perché non stiamo parlando di intelligenza. Stiamo parlando di linguaggio. 

Gli LLM non «capiscono»: fanno statistica

I LLM non «capiscono» il mondo: predicono la parola successiva in una sequenza, sulla base di correlazioni osservate in enormi corpus testuali. È un’operazione statistica, non epistemica. L’apparenza di intelligenza nasce dalla nostra propensione a riconoscere significato e intenzionalità in ciò che ha forma linguistica. Ma forma e verità sono cose diverse. Nel momento in cui interagiamo con un LLM, stiamo interrogando un sistema progettato per generare testi coerenti, non veri. Il problema delle cosiddette «allucinazioni» — ovvero quando il modello produce enunciati falsi, ma plausibili — non è un’anomalia da correggere. È un effetto collaterale inevitabile del modo in cui questi sistemi sono costruiti. Perché la verità, nei LLM, non ha statuto ontologico: ha statuto statistico. Ciò che conta non è la corrispondenza con il reale, ma la probabilità che una frase venga dopo un’altra in un dato contesto linguistico. In altri termini: un LLM non sa che cosa significa ciò che dice. E non ha modo di saperlo, perché non ha accesso al mondo, ma solo a pattern linguistici.  […] segue

Pubblicato su: https://www.corriere.it/tecnologia/25_giugno_03/l-ai-non-e-intelligente-e-una-questione-di-statistica-le-allucinazioni-inevitabili-e-una-caratteristica-intrinseca-9699a0b6-4952-4d69-bd8d-d4772bdb2xlk.shtml

Views: 119

Condividi