Oristano 12 agosto 2025
Cari amici,
Come scrive il professor Walter
Quattrociocchi, docente Ordinario di Informatica all'università Sapienza di
Roma, “L'intelligenza artificiale non ragiona, calcola: il vero rischio sta
nel modo in cui cambia il nostro modo di conoscere. Agli studenti che usano l'A.I.
chiedo: Perché hai fatto questa scelta? E loro spesso non sanno più rispondere.
Questi sistemi sono, strutturalmente, oracoli probabilistici senza memoria né
responsabilità ma il loro pericolo principale è quello di deteriorare
l'intelligenza di noi esseri umani”.
I “Large Language
Models” (LLM), ovvero gli avveniristici sistemi di intelligenza
artificiale avanzati, progettati per comprendere, elaborare e generare testo in
linguaggio naturale, sono addestrati su enormi quantità di dati testuali,
permettendo loro di apprendere le complessità del linguaggio umano, come la
grammatica, il significato delle parole e il contesto. Questo li rende capaci
di svolgere una vasta gamma di compiti, tra cui traduzione, riassunto,
generazione di testo e risposta a domande, spesso con risultati che si
avvicinano alla comprensione e alla produzione umana.
A mio avviso questi LLM sono
paragonabili a quegli studenti dotati di una memora formidabile, capaci di
mandare a memoria tantissimi dati e ripeterli, ma, spesso, senza la concreta capacità di capirne il reale significato! La grande capacità di memorizzazione
dell’esistente, ovvero di quello che spazia nel web, in realtà, non essendo
frutto di ragionamento, non è qualcosa di molto affidabile. Ciò nonostante, la
convinzione pubblica corrente (tecnica, politica ed etica) considera questi dati
attendibili, tant’è che si scrivono linee guida, si evocano rischi sistemici,
si proiettano curve di crescita che culminano nella cosiddetta AGI (Intelligenza
Artificiale Generale), prevista da alcuni per il 2027.
Amici, nei sistemi
complessi, la traiettoria non è mai garantita, e l’affidabilità non si ottiene per somma! Non
basta aumentare i parametri del modello, la potenza di calcolo e la quantità di
dati per ottenere, ad un certo punto, qualcosa di vero, di reale e affidabile, in
quanto solo frutto di ipotesi. Quella prodotta da LLM è una narrativa
d’accumulo che non dà sicurezza, che non è certezza. Nei sistemi complessi, la
traiettoria non è mai garantita. Si arriva a fare ipotesi irreali, a prevedere
soglie critiche, a compilare feedback amplificati. L’affidabilità non si
ottiene per somma ma per analisi e ragionamento !
Si, amici, i modelli
attuali di A.I. non sono in grado di ragionare, di valutare: non verificano ma PREDICONO!
Stimano la fase successiva più probabile in base a testi scritti da altri.
L’output che se ne ricava è plausibile, ma non ragionato e controllato. Nei delicati
compiti aperti (come medicina, diritto, scienza), l’errore resta stabilmente molto
alto. Non è un bug, un errore di funzionamento, ma una caratteristica del
sistema. Le cosiddette hallucination, ovvero le risposte sbagliate ma dette con
sicurezza, non stanno scomparendo: si mascherano meglio, ma restano. E restano
perché il modello non conosce il ragionamento: si limita a sommare, calcolare!
Amici lettori, l’Intelligenza
Artificiale è un sistema numerico, che si auto-alimenta, che introita
tonnellate di dati compilati da altri, e rendiconta quello che trova: non sa,
non conosce, non ragiona: copia e somma, dando risultati ritenuti probabili, ma
non certi. La realtà purtroppo è una verità scomoda: è già difficile da
comprendere col ragionamento, immaginiamoci con l’A.I., che, incapace di
ragionare, non garantisce affidabilità. L’A.I. a mio avviso non raggiungerà mai
il livello del cervello umano.
Affermare che
l’Intelligenza Artificiale raggiungerà e supererà l’uomo, ovvero arrivare a
pensare che aumentando il volume dei dati questa tecnologia supererà le
capacità umane, fa cadere tutti in un equivoco alquanto profondo: trattare
l’intelligenza artificiale come una tecnologia “a soglia”, nel senso che basti
superare un certo numero di parametri o di potenza per far emergere, per forza,
una nuova qualità, è pura utopia! Nei sistemi complessi, l’aggiunta di risorse
non garantisce trasformazioni strutturali: Nessuna soglia garantisce la
metamorfosi.
Cari amici, pensare di
sostituire l’intelligenza umana con quella artificiale serve solo a dare l’illusione
della conoscenza. Perché un “Large Language Model”, un LLM, non comprende,
non capisce ciò che dice, anche se lo dice bene. A parità di ignoranza (qui
torno a quegli studenti mediocri ma di buona memoria prima citati), l’output
generato da un LLM, seppure risulti più fluido, articolato e persuasivo di
quello prodotto da un essere umano, è privo di reali competenze. Quanto
prodotto è di un’efficienza simulativa, non cognitiva! Credo che non solo oggi,
ma anche domani, l’A.I. potrà essere un ottimo supporto all’uomo, ma non
costituirà, mai, la sua sostituzione!
A domani.
Mario