martedì, agosto 12, 2025

L'INTELLIGENZA ARTIFICIALE? SCRIVE BENE MA NON SA NULLA! PUÒ ESSERE PARAGONATA AD UNO STUDENTE MEDIOCRE, SEPPURE CON UNA GRANDE MEMORIA…


Oristano 12 agosto 2025

Cari amici,

Come scrive il professor Walter Quattrociocchi, docente Ordinario di Informatica all'università Sapienza di Roma, “L'intelligenza artificiale non ragiona, calcola: il vero rischio sta nel modo in cui cambia il nostro modo di conoscere. Agli studenti che usano l'A.I. chiedo: Perché hai fatto questa scelta? E loro spesso non sanno più rispondere. Questi sistemi sono, strutturalmente, oracoli probabilistici senza memoria né responsabilità ma il loro pericolo principale è quello di deteriorare l'intelligenza di noi esseri umani”.

I “Large Language Models” (LLM), ovvero gli avveniristici sistemi di intelligenza artificiale avanzati, progettati per comprendere, elaborare e generare testo in linguaggio naturale, sono addestrati su enormi quantità di dati testuali, permettendo loro di apprendere le complessità del linguaggio umano, come la grammatica, il significato delle parole e il contesto. Questo li rende capaci di svolgere una vasta gamma di compiti, tra cui traduzione, riassunto, generazione di testo e risposta a domande, spesso con risultati che si avvicinano alla comprensione e alla produzione umana.

A mio avviso questi LLM sono paragonabili a quegli studenti dotati di una memora formidabile, capaci di mandare a memoria tantissimi dati e ripeterli, ma, spesso, senza la concreta capacità di capirne il reale significato! La grande capacità di memorizzazione dell’esistente, ovvero di quello che spazia nel web, in realtà, non essendo frutto di ragionamento, non è qualcosa di molto affidabile. Ciò nonostante, la convinzione pubblica corrente (tecnica, politica ed etica) considera questi dati attendibili, tant’è che si scrivono linee guida, si evocano rischi sistemici, si proiettano curve di crescita che culminano nella cosiddetta AGI (Intelligenza Artificiale Generale), prevista da alcuni per il 2027.

Amici, nei sistemi complessi, la traiettoria non è mai garantita, e l’affidabilità non si ottiene per somma! Non basta aumentare i parametri del modello, la potenza di calcolo e la quantità di dati per ottenere, ad un certo punto, qualcosa di vero, di reale e affidabile, in quanto solo frutto di ipotesi. Quella prodotta da LLM è una narrativa d’accumulo che non dà sicurezza, che non è certezza. Nei sistemi complessi, la traiettoria non è mai garantita. Si arriva a fare ipotesi irreali, a prevedere soglie critiche, a compilare feedback amplificati. L’affidabilità non si ottiene per somma ma per analisi e ragionamento !

Si, amici, i modelli attuali di A.I. non sono in grado di ragionare, di valutare: non verificano ma PREDICONO! Stimano la fase successiva più probabile in base a testi scritti da altri. L’output che se ne ricava è plausibile, ma non ragionato e controllato. Nei delicati compiti aperti (come medicina, diritto, scienza), l’errore resta stabilmente molto alto. Non è un bug, un errore di funzionamento, ma una caratteristica del sistema. Le cosiddette hallucination, ovvero le risposte sbagliate ma dette con sicurezza, non stanno scomparendo: si mascherano meglio, ma restano. E restano perché il modello non conosce il ragionamento: si limita a sommare, calcolare!

Amici lettori, l’Intelligenza Artificiale è un sistema numerico, che si auto-alimenta, che introita tonnellate di dati compilati da altri, e rendiconta quello che trova: non sa, non conosce, non ragiona: copia e somma, dando risultati ritenuti probabili, ma non certi. La realtà purtroppo è una verità scomoda: è già difficile da comprendere col ragionamento, immaginiamoci con l’A.I., che, incapace di ragionare, non garantisce affidabilità. L’A.I. a mio avviso non raggiungerà mai il livello del cervello umano.

Affermare che l’Intelligenza Artificiale raggiungerà e supererà l’uomo, ovvero arrivare a pensare che aumentando il volume dei dati questa tecnologia supererà le capacità umane, fa cadere tutti in un equivoco alquanto profondo: trattare l’intelligenza artificiale come una tecnologia “a soglia”, nel senso che basti superare un certo numero di parametri o di potenza per far emergere, per forza, una nuova qualità, è pura utopia! Nei sistemi complessi, l’aggiunta di risorse non garantisce trasformazioni strutturali: Nessuna soglia garantisce la metamorfosi.

Cari amici, pensare di sostituire l’intelligenza umana con quella artificiale serve solo a dare l’illusione della conoscenza. Perché un “Large Language Model”, un LLM, non comprende, non capisce ciò che dice, anche se lo dice bene. A parità di ignoranza (qui torno a quegli studenti mediocri ma di buona memoria prima citati), l’output generato da un LLM, seppure risulti più fluido, articolato e persuasivo di quello prodotto da un essere umano, è privo di reali competenze. Quanto prodotto è di un’efficienza simulativa, non cognitiva! Credo che non solo oggi, ma anche domani, l’A.I. potrà essere un ottimo supporto all’uomo, ma non costituirà, mai, la sua sostituzione!

A domani.

Mario

Nessun commento: