giovedì, aprile 29, 2021

INTELLIGENZA UMANA E ARTIFICIALE: LE INCOGNITE DEL FUTURO RAPPORTO UOMO-MACCHINA. IL DILEMMA: L’I.A. ARRIVERÀ A CONCEPIRE SENTIMENTI UMANI, POSITIVI O NEGATIVI?


Oristano 29 aprile 2021

Cari amici,

L’avanzare costante dell’Intelligenza Artificiale appare inarrestabile. Inizialmente la parola “Algoritmo” appariva quasi astrusa, mentre oggi riveste un ruolo sempre più importante nella vita dell’uomo, in quanto ne guida le decisioni in ogni campo, condizionandone comportamenti e modi di agire. L’integrazione tra intelligenza umana e artificiale appare sempre più stretta, tanto da far presupporre che l’intelligenza umana senza il supporto di quella artificiale sarebbe ormai obsoleta e incapace di gestire la tecnologica vita moderna.

Gli studi su questo delicato argomento sono sempre più numerosi e di recente un lungo articolo apparso sulla rivista online britannica “UnHerd” (UnHerd è un sito di notizie britannico, fondato dal giornalista e blogger Tim Montgomerie nel luglio 2017), ha provato a spiegare i rischi che si nascondono dietro questa crescente evoluzione del rapporto tra macchina e uomo. L’intelligenza artificiale, scrive Tim Montgomerie, è una presenza sempre più diffusa nella vita di tutti: gli algoritmi sono parte della quotidianità, condizionano ragionamenti e riflessioni, guidano le nostre decisioni, in alcuni casi ampliano il ventaglio delle opzioni disponibili.

La rivista “UnHerd” riporta anche una riflessione di Timandra Harkness, già autrice del libro “Big Data. Does Size Matter?”, che conferma la necessità e l’opportunità di delegare alle macchine una parte sempre maggiore delle nostre decisioni, seppure la tecnologia, a cui sempre più ci affidiamo, presenti ancora grandi imperfezioni. «Non è insolito che gli algoritmi commettano errori sugli esseri umani – dice la Harkness - a volte questi errori sono innocui, ma altre volte sono più problematici: uno scambio di persona potrebbe mandare l’uomo sbagliato in prigione». L’esempio fatto dalla Harkness non è casuale: è legato agli algoritmi per il riconoscimento facciale, e sappiamo che spesso sbagliano, finendo per accusare di un crimine la persona sbagliata.

Il problema, certamente serio e di grande spessore, è costituito dal fatto che le macchine, seppure considerate abbastanza intelligenti, non condividono i nostri valori. «Non seguono parametri come la “correttezza”, e per loro non esiste il “non essere razzisti”. Più deleghiamo le nostre decisioni alle macchine e più sarà necessario avere una tecnologia affinata, sofisticata, capace di sobbarcarsi una mole di lavoro sempre maggiore, quindi con un peso maggiore», scrive Timandra Harkness.

Harkness cita anche il libro “The Alignment Problem”, di Brian Christian, un saggio che parte da un grosso interrogativo: «Come possono le macchine apprendere i valori umani?». Domanda che a sua volta ne sottende almeno altri due di interrogativi, probabilmente di più. Intanto, bisogna chiedersi se le macchine siano davvero in grado di imparare qualcosa, e poi ovviamente bisognerebbe tracciare i contorni dell’oggetto in questione, quindi i valori umani («cosa sono?»). Ammesso che una macchina risulta essere certamente più veloce di una mente umana nell’elaborazione di tutte le informazioni disponibili, sarà in grado poi, questa intelligenza artificiale, di fare discernimento costruttivo, avvero applicare “l’apprendimento per imitazione”, quel processo naturale che l’uomo possiede fin dall’infanzia?

Nell’articolo di Tim Montgomerie si legge che l’Intelligenza Artificiale, utilizzando un metodo chiamato “Inverse Reinforcement Learning”, può essere in grado persino di dedurre ciò che un essere umano sta cercando di fare e superare il suo insegnante! «Anche in compiti complessi come far volare un drone», si legge nell’articolo. Ma siamo sicuri che per quanto super-perfezionati i robot saranno capaci di prendere decisioni etiche, morali, altruistiche e quant’altro, quando anche noi umani non siamo sempre sicuri di cosa sia giusto o sbagliato?

Una risposta parziale la troviamo nel libro “The Alignment Problem”, dove l’autore, Brian Christian, dà una risposta negativa sulla capacità dell’IA di acquisire capacità etiche e morali. L’approccio basato sull’Effective Altruism, che individua la decisione giusta in quella che massimizzerà il bene per le persone (ad esempio finanziare la lotta contro la malaria è sempre tra le opzioni migliori possibili), non è semplice, in quanto resta da capire cos’è il bene, cosa è buono, in generale. «Un’intelligenza artificiale progettata per prendere decisioni utilitaristiche ottimali potrebbe portare a risultati complessivamente migliori, ma potrebbe anche significare, ad esempio, sacrificare vite innocenti per salvarne altre. E non sarebbe sempre in linea con i nostri istinti morali».

Cari amici, a me un futuro così concepito, dove l’intelligenza umana scende in secondo piano rispetto alla sempre più invasiva intelligenza artificiale, mi preoccupa non poco, e a Voi?

A domani.

Mario

Nessun commento: