Oristano 28 dicembre 2023
Cari amici,
Il recente caso che ha
riguardato il licenziamento di Samuel Harris Altman, l’informatico,
imprenditore e dirigente d'azienda statunitense, fondatore e primo CEO di
OpenAI, fa riflettere non poco su quanto l’evoluzione dell’intelligenza
artificiale possa essere pericolosa in futuro, se usata senza le giuste
precauzioni e quindi nel modo sbagliato. Alla base del licenziamento di Altman
da parte del Consiglio di amministrazione di OpenAI ci sarebbero, infatti, delle recentissime, pericolose scoperte che avrebbero potuto creare serie minacce all’umanità.
Il problema che ha
portato al licenziamento di Altman è sorto dopo che il CEO di OpenAI aveva
ricevuto un'importante comunicazione dai ricercatori dell’azienda. La comunicazione ricevuta da Altman era relativa ad una scoperta rivoluzionaria sull’intelligenza artificiale, che
poteva avere delle enormi implicazioni per il futuro (fonte Reuters). I
ricercatori avevano espresso ad Altman la loro preoccupazione per i possibili
rischi legati a questa innovativa, potente tecnologia, chiedendo al CEO di procedere con prudenza,
stabilendo anche delle linee guida chiare per il suo uso etico.
In una nota che ha fatto
il giro del mondo, il Consiglio di amministrazione di OpenAI ha affermato che l’incarico
ad Altman era stato revocato in quanto il CEO «non è stato sempre sincero nelle
sue comunicazioni con il Consiglio», per cui «(il Consiglio) non ha più fiducia
nelle sua abilità di proseguire a guidare OpenAI». Lo scossone veniva
completato con la nomina a interim di un nuovo CEO – Mira Murati, già Chief
Technology Officer. Il comunicato così terminava: «OpenAI è stata fondata come
organizzazione no-profit nel 2015 con la missione di garantire che
l'intelligenza generale artificiale porti benefici all'umanità».
Il licenziamento di Sam
Altman ha avuto subito una forte risonanza nel mondo, tanto che una settimana
dopo l’accaduto, la società OpenAI, alquanto preoccupata, ha fatto un passo indietro, dichiarato di aver raggiunto un accordo
di massima per il ritorno di Altman in azienda e la conseguente, necessaria formazione di un nuovo Consiglio
di amministrazione. Altman, dunque, è tornato a ricoprire per la quarta volta
il ruolo di CEO all’interno di OpenAI, società creatrice di ChatGPT e fortemente
impegnata nello sviluppo dell’Intelligenza Artificiale Generativa.
Amici, il problema dell’avanzare
dell’AI è indubbiamente serio, in quanto l’algoritmo di intelligenza
artificiale, chiamato OpenAI Q-star, rappresenta un ulteriore passo
avanti verso l’obiettivo dell’intelligenza artificiale generale (AGI),
un’ipotetica intelligenza artificiale in grado di eguagliare e anche superare
l’intelligenza umana nella maggior parte dei compiti di valore economico. I
ricercatori ritengono che la capacità di OpenAI Q-star di risolvere problemi
matematici, anche se inizialmente a livello di scuola elementare, indichi la forte possibilità che il
suo potenziale sia capace di sviluppare in futuro capacità di pensiero e ragionamento simili all’intelligenza
umana.
Un’intelligenza artificiale
così avanzata, secondo i ricercatori, diventerebbe fonte di potenziali pericoli e
preoccupazioni, circa la possibilità che essa possa rappresentare una seria
minaccia per l’umanità. Per questo motivo i ricercatori hanno sottolineato la
necessità di prendere in considerazione attentamente le possibili implicazioni
etiche di questa tecnologia, oltre all’importanza di sviluppare adeguate misure
di salvaguardia per impedirne un possibile, pericoloso uso improprio.
L’intelligenza
artificiale generale (AGI), nota anche come “Strong AI” è, come detto, un tipo molto
avanzato di AI, in grado di comprendere e ragionare allo stesso livello di un
essere umano! Un’intelligenza capace di svolgere qualsiasi compito
intellettuale dato da svolgere, ed eseguito, probabilmente, meglio e in un tempo
nettamente inferiore di un cervello umano, superando di gran lunga le nostre capacità in molte aree. Seppure
l’AGI non esista ancora, molti esperti ritengono che sia solo una questione di
tempo (anche breve) prima che venga raggiunta.
Amici, che i rischi ci
siano è fuori dubbio, ma, forse, non è il caso di essere così pessimisti.
OpenAI Q-star, con le dovute cautele e controlli, potrà essere un grande,
impegnativo passo verso un futuro più luminoso per l'umanità, che la Comunità
scientifica si appresta a realizzare. Potenzialmente, le AGI potrebbero essere in
grado di risolvere problemi che al momento sono irrisolvibili per gli esseri
umani, come la cura delle malattie, la povertà, il cambiamento climatico e molto altro.
Potrebbero anche essere in grado di creare nuove forme di espressione artistica, di scienza e di cultura, arricchendo così la nostra esperienza umana. Tuttavia, affinché le AGI possano
essere sempre al nostro servizio e non il contrario, bisogna essere consapevoli
dei rischi e delle sfide che il loro utilizzo comporta, studiando anticipatamente le adeguate misure di protezione.
Cari amici, credo che il
caso Altman serva d'esempio sui rischi che andiamo a correre, e faccia riflettere noi tutti su quanto l’intelligenza artificiale
può fare per noi, migliorando le tante cose a volte a noi impossibili, ma anche senza mai
dimenticare i rischi e i pericoli se usata nel modo sbagliato. C'è da sperare che davvero, tra i nostri scienziati, non si nascondano dei "Dottor Jekyll e
Mister Hyde"!
A domani.
Mario
Nessun commento:
Posta un commento