Oristano 10 aprile 2026
Cari amici,
Che l’Intelligenza
Artificiale, da tanti di noi, venga vista come una novella “LAMPADA DI ALADINO”, è, purtroppo, un cruda realtà. La formazione scolastica attuale vede la gran parte
degli studenti utilizzare l'intelligenza artificiale (IA) nello studio, e
questo sta sollevando importanti interrogativi sul futuro delle capacità
cognitive umane, con l'evidente, crescente rischio di
"atrofia cognitiva" o "debito cognitivo"; il pericolo aumenta se l'uso dell’I.A.
non è limitato, ovvero equilibrato. Studi recenti indicano che, quando l'I.A.
viene utilizzata come “sostituto del pensiero” piuttosto che come “supporto”,
il cervello tende a ridurre il proprio impegno cognitivo.
Amici, questa crescente “Delega
cognitiva” data all’intelligenza artificiale solleva, però, una domanda cruciale: continuando
di questo passo, qual sarà, davvero, il prezzo nascosto da pagare per un totale
utilizzo dell'IA? Su questo serio problema ci sono già diversi studi che intendono
accertare "a quale prezzo" pagheremo questa forte delega in bianco data all'IA.
Già nel 2024 il Massachusetts Institute of Technology (MIT) pubblicò uno studio
in merito. I ricercatori osservarono l’attività cerebrale di 54 studenti
universitari, provenienti dal MIT e da atenei limitrofi, mentre scrivevano
brevi saggi. Alcuni utilizzavano ChatGPT come supporto, altri no.
Attraverso
l’elettroencefalogramma (EEG), una tecnica che misura l’attività elettrica del
cervello tramite elettrodi applicati sul cuoio capelluto, gli studiosi rilevarono
un dato significativo: chi si affidava all’IA mostrava una minore attivazione
delle reti neuronali associate all’elaborazione cognitiva profonda. Non solo: questi studenti faticavano di più a citare o ricordare parti del proprio
elaborato rispetto a chi aveva scritto senza assistenza artificiale. Secondo
gli autori, il risultato evidenzia “l’urgenza di indagare un possibile
indebolimento delle capacità di apprendimento” quando l’IA viene usata in modo
sostitutivo e non complementare.
Risultati simili sono emersi
da una ricerca congiunta della Carnegie Mellon University e di Microsoft,
pubblicata nello stesso periodo. In questo caso, il campione comprendeva 319
lavoratori del settore impiegatizio che utilizzavano strumenti di IA generativa
almeno una volta a settimana. Analizzando oltre 900 attività affidate all’IA –
dalla ricerca di insight nei dati alla verifica del rispetto di regole e
criteri – i ricercatori hanno osservato una correlazione chiara: quando le
persone erano convinte che l’IA “sapesse fare”, tendevano a controllare meno,
riflettere meno e intervenire meno. Lo studio è arrivato alla conclusione che, anche
se da un lato l’IA può aumentare l’efficienza, dall’altro rischia di favorire
una dipendenza a lungo termine, riducendo la capacità umana di risolvere
problemi in modo autonomo.
Il tema, in ambito scolastico, risulta particolarmente delicato. Un’indagine pubblicata nell’ottobre 2024 dalla
Oxford University Press ha coinvolto studenti delle scuole britanniche: sei su
dieci hanno dichiarato che l’uso dell’IA ha avuto un impatto negativo. Secondo la dottoressa Alexandra Tomescu,
specialista di IA generativa presso l’O.U.P. e coautrice dello studio, il 90%
degli studenti afferma che l’IA li ha aiutati a sviluppare almeno una
competenza, come la capacità di risolvere problemi, la creatività o la
revisione dei contenuti. Allo stesso tempo, circa un quarto degli intervistati riconosce
che l’IA rende “troppo facile” svolgere i compiti. “È una situazione complessa
e sfaccettata”, ha spiegato la Tomescu alla Bbc. “Molti studenti non chiedono
di usare meno l’IA, ma di essere guidati meglio su come usarla”.
Cari amici, il problema è
davvero serio e prima di dare ampia delega all’uso dell’I.A., bisognerebbe riflettere
con grande attenzione: ne va del futuro delle nostre capacità cognitive! Anche
il professor Wayne Holmes è convinto che non basti limitarsi ad un uso
“consapevole”; il dottor Wayne Holmes, docente all’University College London e
studioso dei rapporti tra I.A. ed educazione, invita alla prudenza. Secondo
lui, mancano ancora prove indipendenti su larga scala che dimostrino
l’efficacia e la sicurezza dell’IA nei processi educativi. La prudenza, a
pensarci bene, non è mai troppa!
A domani.
Mario







Nessun commento:
Posta un commento