Corriere della Sera – 3 giugno 2025
L’articolo chiarisce gli equivoci della AI che maggiormente distraggono chi ne fa uso dal reale rischio di una nuova, tecno-mistica “illusione”. (R. Colombo)
I Large Language Models simulano coerenza, ma non producono conoscenza: l’affidabilità è un limite strutturale e l’automazione non è possibile. «È un’illusione poter delegare senza supervisionare»
C’è una premessa non detta, ma largamente accettata nel dibattito attuale sull’intelligenza artificiale: che i modelli generativi — in particolare i Large Language Models (LLM) — rappresentino una forma emergente di intelligenza, ancora imperfetta ma inevitabilmente destinata a migliorare. Questa narrazione ha un potente effetto: proietta nel futuro l’idea che presto potremo delegare interi processi cognitivi a sistemi artificiali, con impatti strutturali sul lavoro, sulla conoscenza e sulla società. Ma è proprio qui che si gioca l’equivoco. Perché non stiamo parlando di intelligenza. Stiamo parlando di linguaggio.
Gli LLM non «capiscono»: fanno statistica
I LLM non «capiscono» il mondo: predicono la parola successiva in una sequenza, sulla base di correlazioni osservate in enormi corpus testuali. È un’operazione statistica, non epistemica. L’apparenza di intelligenza nasce dalla nostra propensione a riconoscere significato e intenzionalità in ciò che ha forma linguistica. Ma forma e verità sono cose diverse. Nel momento in cui interagiamo con un LLM, stiamo interrogando un sistema progettato per generare testi coerenti, non veri. Il problema delle cosiddette «allucinazioni» — ovvero quando il modello produce enunciati falsi, ma plausibili — non è un’anomalia da correggere. È un effetto collaterale inevitabile del modo in cui questi sistemi sono costruiti. Perché la verità, nei LLM, non ha statuto ontologico: ha statuto statistico. Ciò che conta non è la corrispondenza con il reale, ma la probabilità che una frase venga dopo un’altra in un dato contesto linguistico. In altri termini: un LLM non sa che cosa significa ciò che dice. E non ha modo di saperlo, perché non ha accesso al mondo, ma solo a pattern linguistici. […] segue
Views: 119