mercoledì, gennaio 14, 2026

L'UOMO DI OGGI E L'INTELLIGENZA ARTIFICIALE. APPARE COME UN RITORNO ALL'EPISTEMIA DEL PASSATO, ANALOGO AL CONFRONTO TRA SOCRATE E I SOFISTI.


Oristano 14 gennaio 2026

Cari amici,

Il sapere e la conoscenza, sono alla base della vita dell’uomo. In passato, per i filosofi dell’antica Grecia, la vera conoscenza, quella scientifica, era chiamata “Episteme (ἐπιστήμη)”, e indicava la conoscenza certa, quella provata. Rappresentava il sapere vero, dimostrabile, perno fondamentale della filosofia classica. Oggi, invece, ci stiamo ammalando di EPISTEMIA, nel senso che la conoscenza è solo un'illusione, una sorta di specchio della realtà. Questo succede perché già da tempo l’intelligenza umana non applica più quelle azioni di discernimento prima in uso, delegando tutto ai modelli di Intelligenza Artificiale.

Una delega, in realtà, alquanto pericolosa, perché il problema insorge quando riceviamo la risposta. Quanto la prendiamo per buona? Il problema sta proprio qui! È qui che si colloca il bivio tra episteme ed epistemia, tra conoscenza e illusione. L’uomo di oggi è, infatti, fortemente dipendente dal LIM (è il Machine Learning, un ramo dell'IA), che si occupa del processo di apprendimento e quindi del “processo di pensiero” dell'Intelligenza Artificiale. Il Machine Learning rappresenta la capacità, la competenza della macchina ad ottenere conoscenza dai set di dati disponibili e a categorizzarne il contenuto.

Nel mondo odierno, dominato dalla tecnologia, i “Machine Learning” sono stati progettati per estrapolare dai dati verifiche sostanziali, generando, poi, le risposte più adeguate, più attese; risposte che vengono elaborate in modo che possano risultare plausibili dal punto di vista linguistico. Il loro scopo, in fondo, è questo: “Restituire un output che suoni bene”, a prescindere che sia vero o falso! La conseguenza è che, se quel risultato non viene verificato da chi ha effettuato le richieste all'Intelligenza Artificiale, spesso e volentieri succede un vero e proprio patatrac.

Si, amici, il sistema di analisi oggi in atto per verificare l’operato dell’A.I. è qualcosa che ricorda molto da vicino l’antico confronto tra Socrate e i sofisti nell'Atene del quinto secolo. Di questi sofisti uno degli esponenti di spicco era Gorgia, il quale sosteneva che nulla esiste, e che, se anche esistesse, non sarebbe conoscibile; e se anche fosse conoscibile, non sarebbe comunicabile. Ebbene, oggi l'A.I. fa un po' il contrario, perché può comunicare tutto, pur senza conoscerlo! Alla fine, però, l'esito risulta lo stesso: “Un esercizio di persuasione che si fonda sulla capacità di costruire un discorso plausibile, seppure non vero”.

Un recente studio italiano, pubblicato su PNAS e condotto da un team di ricerca guidato da Walter Quattrociocchi, docente dell'università La Sapienza di Roma e al timone del Center of data science and complexity for society, ha verificato, per la prima volta in modo sistematico, come analizzano i dati sei modelli linguistici di ultima generazione, tra cui ChatGPT di OpenAI, Gemini di Google o Llama di Meta, per rilevarne l’affidabilità. Come si legge nella nota che annunciava la pubblicazione del progetto, "il lavoro confronta le loro valutazioni con quelle prodotte da esseri umani ed esperti del settore (NewsGuard, Mbfc), utilizzando un protocollo identico per tutti: stessi criteri, stessi contenuti, stessa procedura. Il focus non è sull’accuratezza del risultato finale, ma su come il giudizio viene costruito”.

Le conclusioni dello studio condotto dal team di Quattrociocchi non hanno solo identificato il problema, ma hanno anche indicato la soluzione, che è: saperne di più dell'AI a cui ci affidiamo. Per chiarire: delegare la navigazione solo se si conosce la rotta, la destinazione, gli scogli che affiorano; oppure, se si hanno a disposizione gli strumenti per comprendere se, quando circondati dalla nebbia, si sta viaggiando nella giusta direzione. L'impiego dell'AI richiede di alzare il nostro livello di conoscenza, di ampliarlo e di mantenerlo aggiornato. Da un lato, rispetto alla capacità di utilizzare gli strumenti di intelligenza artificiale, di saperne distinguere i risultati, i meccanismi di funzionamento e quindi i punti di forza e quelli di debolezza, dall'altro, rispetto alle materie su cui viene richiesto all'AI di sostituirci a noi.

Cari amici, credo che la conclusione dell’indagine abbia dato un risultato scontato. L’Intelligenza Artificiale è in grado di analizzare un immenso archivio di dati, ma l’elaborazione possibile richiede un’intelligenza che le macchine non hanno e, forse, non avranno mai! Lo spirito critico dell’uomo, che costantemente investe sulla formazione, sulla nuova conoscenza, continua sempre ad allenare la mente, portandola a non cadere nei tranelli di una conoscenza superficiale. L’Intelligenza Artificiale è certamente un ottimo strumento di supporto all’uomo, ma non sarà mai in grado di sostituirlo! Utilizziamola, perchè è di grande aiuto, ma restiamo sempre inchiodati alle nostre insostituibili responsabilità.

A domani.

Mario

 

Nessun commento: