Oristano 29 aprile 2021
Cari amici,
L’avanzare costante dell’Intelligenza
Artificiale appare inarrestabile. Inizialmente la parola “Algoritmo”
appariva quasi astrusa, mentre oggi riveste un ruolo sempre più importante
nella vita dell’uomo, in quanto ne guida le decisioni in ogni campo, condizionandone
comportamenti e modi di agire. L’integrazione tra intelligenza umana e
artificiale appare sempre più stretta, tanto da far presupporre che l’intelligenza
umana senza il supporto di quella artificiale sarebbe ormai obsoleta e incapace
di gestire la tecnologica vita moderna.
Gli studi su questo
delicato argomento sono sempre più numerosi e di recente un lungo articolo apparso
sulla rivista online britannica “UnHerd” (UnHerd è un sito di notizie
britannico, fondato dal giornalista e blogger Tim Montgomerie nel luglio
2017), ha provato a spiegare i rischi che si nascondono dietro questa crescente
evoluzione del rapporto tra macchina e uomo. L’intelligenza artificiale, scrive
Tim Montgomerie, è una presenza sempre più diffusa nella vita di tutti: gli
algoritmi sono parte della quotidianità, condizionano ragionamenti e
riflessioni, guidano le nostre decisioni, in alcuni casi ampliano il ventaglio
delle opzioni disponibili.
La rivista “UnHerd” riporta
anche una riflessione di Timandra Harkness, già
autrice del libro “Big Data. Does Size Matter?”, che conferma la necessità e
l’opportunità di delegare alle macchine una parte sempre maggiore delle nostre
decisioni, seppure la tecnologia, a cui sempre più ci affidiamo, presenti
ancora grandi imperfezioni. «Non è
insolito che gli algoritmi commettano errori sugli esseri umani – dice la Harkness
- a volte questi errori sono innocui, ma altre volte sono più problematici: uno
scambio di persona potrebbe mandare l’uomo sbagliato in prigione». L’esempio
fatto dalla Harkness non è casuale: è legato agli algoritmi per il
riconoscimento facciale, e sappiamo che spesso sbagliano, finendo per accusare
di un crimine la persona sbagliata.
Il problema, certamente
serio e di grande spessore, è costituito dal fatto che le macchine, seppure
considerate abbastanza intelligenti, non condividono i nostri valori. «Non seguono parametri come la “correttezza”,
e per loro non esiste il “non essere razzisti”. Più deleghiamo le nostre
decisioni alle macchine e più sarà necessario avere una tecnologia affinata,
sofisticata, capace di sobbarcarsi una mole di lavoro sempre maggiore, quindi con
un peso maggiore», scrive Timandra Harkness.
Harkness cita anche il
libro “The Alignment Problem”, di Brian Christian, un saggio che parte
da un grosso interrogativo: «Come possono le macchine apprendere i valori
umani?». Domanda che a sua volta ne sottende almeno altri due di interrogativi, probabilmente di
più. Intanto, bisogna chiedersi se le macchine siano davvero in grado di
imparare qualcosa, e poi ovviamente bisognerebbe tracciare i contorni
dell’oggetto in questione, quindi i valori umani («cosa sono?»). Ammesso che una
macchina risulta essere certamente più veloce di una mente umana
nell’elaborazione di tutte le informazioni disponibili, sarà in grado poi,
questa intelligenza artificiale, di fare discernimento costruttivo, avvero
applicare “l’apprendimento per imitazione”, quel processo naturale che l’uomo
possiede fin dall’infanzia?
Nell’articolo di Tim
Montgomerie si legge che l’Intelligenza Artificiale, utilizzando un metodo
chiamato “Inverse Reinforcement Learning”, può essere in grado persino di
dedurre ciò che un essere umano sta cercando di fare e superare il suo insegnante!
«Anche in compiti complessi come far volare un drone», si legge nell’articolo. Ma
siamo sicuri che per quanto super-perfezionati i robot saranno capaci di
prendere decisioni etiche, morali, altruistiche e quant’altro, quando anche noi
umani non siamo sempre sicuri di cosa sia giusto o sbagliato?
Una risposta parziale la
troviamo nel libro “The Alignment Problem”, dove l’autore, Brian Christian, dà una risposta
negativa sulla capacità dell’IA di acquisire capacità etiche e morali. L’approccio
basato sull’Effective Altruism, che individua la decisione giusta in
quella che massimizzerà il bene per le persone (ad esempio finanziare la lotta
contro la malaria è sempre tra le opzioni migliori possibili), non è semplice, in
quanto resta da capire cos’è il bene, cosa è buono, in generale. «Un’intelligenza
artificiale progettata per prendere decisioni utilitaristiche ottimali potrebbe
portare a risultati complessivamente migliori, ma potrebbe anche significare,
ad esempio, sacrificare vite innocenti per salvarne altre. E non sarebbe sempre
in linea con i nostri istinti morali».
Cari amici, a me un futuro
così concepito, dove l’intelligenza umana scende in secondo piano rispetto alla
sempre più invasiva intelligenza artificiale, mi preoccupa non poco, e a Voi?
A domani.
Mario
Nessun commento:
Posta un commento