giovedì, dicembre 28, 2023

L'EVOLUZIONE DELL'INTELLIGENZA ARTIFICIALE INIZIA A PREOCCUPARE. IN UN PROSSIMO FUTURO SARÀ AL SERVIZIO DELL'UOMO O UN SERIO PERICOLO CHE PORTERÀ ALLA SUA ESTINZIONE?


Oristano 28 dicembre 2023

Cari amici,

Il recente caso che ha riguardato il licenziamento di Samuel Harris Altman, l’informatico, imprenditore e dirigente d'azienda statunitense, fondatore e primo CEO di OpenAI, fa riflettere non poco su quanto l’evoluzione dell’intelligenza artificiale possa essere pericolosa in futuro, se usata senza le giuste precauzioni e quindi nel modo sbagliato. Alla base del licenziamento di Altman da parte del Consiglio di amministrazione di OpenAI ci sarebbero, infatti, delle recentissime, pericolose scoperte che avrebbero potuto creare serie minacce all’umanità.

Il problema che ha portato al licenziamento di Altman è sorto dopo che il CEO di OpenAI aveva ricevuto un'importante comunicazione dai ricercatori dell’azienda. La comunicazione ricevuta da Altman era relativa ad una scoperta rivoluzionaria sull’intelligenza artificiale, che poteva avere delle enormi implicazioni per il futuro (fonte Reuters). I ricercatori avevano espresso ad Altman la loro preoccupazione per i possibili rischi legati a questa innovativa, potente tecnologia, chiedendo al CEO di procedere con prudenza, stabilendo anche delle linee guida chiare per il suo uso etico.

In una nota che ha fatto il giro del mondo, il Consiglio di amministrazione di OpenAI ha affermato che l’incarico ad Altman era stato revocato in quanto il CEO «non è stato sempre sincero nelle sue comunicazioni con il Consiglio», per cui «(il Consiglio) non ha più fiducia nelle sua abilità di proseguire a guidare OpenAI». Lo scossone veniva completato con la nomina a interim di un nuovo CEO – Mira Murati, già Chief Technology Officer. Il comunicato così terminava: «OpenAI è stata fondata come organizzazione no-profit nel 2015 con la missione di garantire che l'intelligenza generale artificiale porti benefici all'umanità».

Il licenziamento di Sam Altman ha avuto subito una forte risonanza nel mondo, tanto che una settimana dopo l’accaduto, la società OpenAI, alquanto preoccupata, ha fatto un passo indietro, dichiarato di aver raggiunto un accordo di massima per il ritorno di Altman in azienda e la conseguente, necessaria formazione di un nuovo Consiglio di amministrazione. Altman, dunque, è tornato a ricoprire per la quarta volta il ruolo di CEO all’interno di OpenAI, società creatrice di ChatGPT e fortemente impegnata nello sviluppo dell’Intelligenza Artificiale Generativa.

Amici, il problema dell’avanzare dell’AI è indubbiamente serio, in quanto l’algoritmo di intelligenza artificiale, chiamato OpenAI Q-star, rappresenta un ulteriore passo avanti verso l’obiettivo dell’intelligenza artificiale generale (AGI), un’ipotetica intelligenza artificiale in grado di eguagliare e anche superare l’intelligenza umana nella maggior parte dei compiti di valore economico. I ricercatori ritengono che la capacità di OpenAI Q-star di risolvere problemi matematici, anche se inizialmente a livello di scuola elementare, indichi la forte possibilità che il suo potenziale sia capace di sviluppare in futuro capacità di pensiero e ragionamento simili all’intelligenza umana.

Un’intelligenza artificiale così avanzata, secondo i ricercatori, diventerebbe fonte di potenziali pericoli e preoccupazioni, circa la possibilità che essa possa rappresentare una seria minaccia per l’umanità. Per questo motivo i ricercatori hanno sottolineato la necessità di prendere in considerazione attentamente le possibili implicazioni etiche di questa tecnologia, oltre all’importanza di sviluppare adeguate misure di salvaguardia per impedirne un possibile, pericoloso uso improprio.

L’intelligenza artificiale generale (AGI), nota anche come “Strong AI” è, come detto, un tipo molto avanzato di AI, in grado di comprendere e ragionare allo stesso livello di un essere umano! Un’intelligenza capace di svolgere qualsiasi compito intellettuale dato da svolgere, ed eseguito, probabilmente, meglio e in un tempo nettamente inferiore di un cervello umano, superando di gran lunga le nostre capacità in molte aree. Seppure l’AGI non esista ancora, molti esperti ritengono che sia solo una questione di tempo (anche breve) prima che venga raggiunta.

Amici, che i rischi ci siano è fuori dubbio, ma, forse, non è il caso di essere così pessimisti. OpenAI Q-star, con le dovute cautele e controlli, potrà essere un grande, impegnativo passo verso un futuro più luminoso per l'umanità, che la Comunità scientifica si appresta a realizzare. Potenzialmente, le AGI potrebbero essere in grado di risolvere problemi che al momento sono irrisolvibili per gli esseri umani, come la cura delle malattie, la povertà, il cambiamento climatico e molto altro. Potrebbero anche essere in grado di creare nuove forme di espressione artistica, di scienza e di cultura, arricchendo così la nostra esperienza umana. Tuttavia, affinché le AGI possano essere sempre al nostro servizio e non il contrario, bisogna essere consapevoli dei rischi e delle sfide che il loro utilizzo comporta, studiando anticipatamente le adeguate misure di protezione.

Cari amici, credo che il caso Altman serva d'esempio sui rischi che andiamo a correre, e faccia riflettere noi tutti su quanto l’intelligenza artificiale può fare per noi, migliorando le tante cose a volte a noi impossibili, ma anche senza mai dimenticare i rischi e i pericoli se usata nel modo sbagliato. C'è da sperare che davvero, tra i nostri scienziati, non si nascondano dei "Dottor Jekyll e Mister Hyde"!

A domani.

Mario

 

Nessun commento: