Oristano 14 gennaio 2026
Cari amici,
Il sapere e la conoscenza,
sono alla base della vita dell’uomo. In passato, per i filosofi dell’antica
Grecia, la vera conoscenza, quella scientifica, era chiamata “Episteme (ἐπιστήμη)”,
e indicava la conoscenza certa, quella provata. Rappresentava il sapere vero,
dimostrabile, perno fondamentale della filosofia classica. Oggi, invece, ci stiamo ammalando di EPISTEMIA, nel senso che la conoscenza è solo un'illusione, una
sorta di specchio della realtà. Questo succede perché già da tempo
l’intelligenza umana non applica più quelle azioni di discernimento prima in
uso, delegando tutto ai modelli di Intelligenza Artificiale.
Una delega, in realtà, alquanto pericolosa, perché il problema insorge quando riceviamo la risposta.
Quanto la prendiamo per buona? Il problema sta proprio qui! È qui che si
colloca il bivio tra episteme ed epistemia, tra conoscenza e illusione. L’uomo
di oggi è, infatti, fortemente dipendente dal LIM (è il Machine Learning, un
ramo dell'IA), che si occupa del processo di apprendimento e quindi del “processo
di pensiero” dell'Intelligenza Artificiale. Il Machine Learning rappresenta la capacità,
la competenza della macchina ad ottenere conoscenza dai set di dati disponibili
e a categorizzarne il contenuto.
Nel mondo odierno,
dominato dalla tecnologia, i “Machine Learning” sono stati progettati per estrapolare
dai dati verifiche sostanziali, generando, poi, le risposte più adeguate, più
attese; risposte che vengono elaborate in modo che possano risultare plausibili
dal punto di vista linguistico. Il loro scopo, in fondo, è questo: “Restituire
un output che suoni bene”, a prescindere che sia vero o falso! La conseguenza è
che, se quel risultato non viene verificato da chi ha effettuato le richieste
all'Intelligenza Artificiale, spesso e volentieri succede un vero e proprio
patatrac.
Si, amici, il sistema di analisi
oggi in atto per verificare l’operato dell’A.I. è qualcosa che ricorda molto da
vicino l’antico confronto tra Socrate e i sofisti nell'Atene del quinto secolo.
Di questi sofisti uno degli esponenti di spicco era Gorgia, il quale sosteneva
che nulla esiste, e che, se anche esistesse, non sarebbe conoscibile; e se
anche fosse conoscibile, non sarebbe comunicabile. Ebbene, oggi l'A.I. fa un
po' il contrario, perché può comunicare tutto, pur senza conoscerlo! Alla fine,
però, l'esito risulta lo stesso: “Un esercizio di persuasione che si fonda
sulla capacità di costruire un discorso plausibile, seppure non vero”.
Un recente studio
italiano, pubblicato su PNAS e condotto da un team di ricerca guidato da Walter
Quattrociocchi, docente dell'università La Sapienza di Roma e al timone del
Center of data science and complexity for society, ha verificato, per la prima
volta in modo sistematico, come analizzano i dati sei modelli linguistici di
ultima generazione, tra cui ChatGPT di OpenAI, Gemini di Google o Llama di Meta,
per rilevarne l’affidabilità. Come si legge nella nota che annunciava la
pubblicazione del progetto, "il lavoro confronta le loro valutazioni con
quelle prodotte da esseri umani ed esperti del settore (NewsGuard, Mbfc),
utilizzando un protocollo identico per tutti: stessi criteri, stessi contenuti,
stessa procedura. Il focus non è sull’accuratezza del risultato finale, ma su
come il giudizio viene costruito”.
Le conclusioni dello
studio condotto dal team di Quattrociocchi non hanno solo identificato il
problema, ma hanno anche indicato la soluzione, che è: saperne di più dell'AI a
cui ci affidiamo. Per chiarire: delegare la navigazione solo se si conosce la
rotta, la destinazione, gli scogli che affiorano; oppure, se si hanno a
disposizione gli strumenti per comprendere se, quando circondati dalla nebbia,
si sta viaggiando nella giusta direzione. L'impiego dell'AI richiede di alzare
il nostro livello di conoscenza, di ampliarlo e di mantenerlo aggiornato. Da un
lato, rispetto alla capacità di utilizzare gli strumenti di intelligenza
artificiale, di saperne distinguere i risultati, i meccanismi di funzionamento
e quindi i punti di forza e quelli di debolezza, dall'altro, rispetto alle
materie su cui viene richiesto all'AI di sostituirci a noi.
Cari amici, credo che la
conclusione dell’indagine abbia dato un risultato scontato. L’Intelligenza
Artificiale è in grado di analizzare un immenso archivio di dati, ma
l’elaborazione possibile richiede un’intelligenza che le macchine non hanno e,
forse, non avranno mai! Lo spirito critico dell’uomo, che costantemente investe
sulla formazione, sulla nuova conoscenza, continua sempre ad allenare la mente,
portandola a non cadere nei tranelli di una conoscenza superficiale. L’Intelligenza
Artificiale è certamente un ottimo strumento di supporto all’uomo, ma non sarà
mai in grado di sostituirlo! Utilizziamola, perchè è di grande aiuto, ma restiamo
sempre inchiodati alle nostre insostituibili responsabilità.
A domani.
Mario






















































