venerdì, maggio 05, 2023

I GRANDI PERICOLI DELL'INTELLIGENZA ARTIFICIALE: RIESCE A CLONARE ANCHE LA VOCE, CREANDO PERICOLI SERI (COME TRUFFE E RICATTI).


Oristano 5 maggio 2023

Cari amici,

Che negli ultimi tempi l’intelligenza artificiale (AI) abbia raggiunto una straordinaria perfezione, tanto da prestarsi a svolgere compiti inconcepibili fino a poco tempo fa, è davvero una realtà incontestabile. Le possibili applicazioni dell’A.I. spaziano, infatti, in una miriade di campi. Tanto per fare un esempio, c’è chi ha già utilizzato la sua tecnologia per scrivere canzoni, chi per scrivere testi, per dipingere, e anche per risolvere problemi complessi di calcolo di altissimo livello. Però, c’è anche chi ha provato ad utilizzare l’intelligenza artificiale per realizzare attacchi informatici e, ultimamente, anche per mettere in atto tentativi di truffa in una maniera alquanto insolita, mai tentata prima. Ecco come.

Negli Stati Uniti, di recente, la Federal Trade Commission (FTC), la potente agenzia governativa americana che ha il compito di promuovere la concorrenza e proteggere i consumatori dalle pratiche commerciali sleali e ingannevoli, ha lanciato un allarme che ha sconvolto milioni di americani: i criminali informatici stanno utilizzando l’intelligenza artificiale per replicare in modo perfetto le voci di amici e parenti e, in questo modo, cercare di estorcere denaro. Come ha spiegato la Federal Trade Commission, "Tutto ciò di cui il truffatore ha bisogno è una clip audio della voce del familiare, poi un programma di intelligenza artificiale è capace di clonarla”. Le clip audio possono essere recuperate facilmente, analizzando, in particolare nei social, filmati e video accompagnati dalla voce della persona che interessa il truffatore.

Come è già noto, infatti, tra le numerose applicazioni di Intelligenza Artificiale, c’è anche quella che è capace di clonare una voce umana. Trovata la voce che interessa, attraverso l’utilizzo della clip audio recuperata online è possibile far ripetere all’intelligenza artificiale qualunque cosa si voglia far dire, semplicemente inserendo il testo (copione) desiderato. Nulla, dunque, di particolarmente complesso per l'Intelligenza Artificiale, e questo spiega perché l’FTC sta ricevendo migliaia di segnalazioni da parte dei cittadini americani. Non è difficile prevedere che non passerà molto tempo prima che il fenomeno si diffonda anche in Europa e in Italia. Ecco alcuni esempi di casi avvenuti, che possono dare meglio l’idea.

Il caso della signora Ruth Card e del nipote Brandon. Nella città canadese di Regina, una donna di 73 anni, tale Ruth Card, riceve una telefonata da quello che, dalla voce, sembrava proprio suo nipote Brandon. Questi informava la nonna di essere in prigione, senza portafoglio e cellulare, chiedendo all’anziana i soldi per pagare la cauzione. Ovviamente, la signora, trattandosi del nipote e ignara del raggiro, si precipita in banca per prelevare un’ingente somma. Il direttore della banca, insospettito della richiesta, chiede alla signora le motivazioni del prelievo. L’uomo, comprendendo che poteva trattarsi di un raggiro, riesce a mettere la donna sull’avviso, scoprendo e così bloccando il tentativo di truffa.

Ecco il caso di Benjamin Perki. Un altro esempio di truffa tramite intelligenza artificiale, perfettamente pianificata, è quella che ha visto come vittime i genitori del trentanovenne Benjamin Perki. I genitori di Benjamin ricevono una telefonata da un presunto avvocato che li informa che Benjamin è in prigione in quanto aveva investito e ucciso con l’auto un diplomatico statunitense; Benjamin, pertanto, aveva urgente bisogno di denaro per le spese legali. A confermare quanto detto, l’avvocato fa finta di passare il telefono al presunto Benjamin Perkin. I coniugi, sentendo la voce del proprio figlio, che confermava quella drammatica situazione, ricevevano richiesta di versare ben 21.000 dollari. Presa dal panico, la coppia si precipita in banca e invia la cifra richiesta dall’avvocato: 21.000$ in Bitcoin. I coniugi capiscono di essere stati truffati solo poche ore dopo, quando il vero Benjamin telefona ai genitori per una normale chiamata di routine.

Cari amici, il problema creato dalle potenzialità dell'AI è certamente alquanto serio, e viene subito da pensare: Come difendersi da attacchi di questo tipo? Le indicazioni date dall’agenzia americana sono chiare e semplici: se qualcuno chiama millantando situazioni che richiedono denaro, meglio riattaccare e richiamare la persona per verificare la storia. Niente di diverso, dunque, dalle tecniche di difesa utilizzare contro il phishing via e-mail, trovando le possibili soluzioni per poter verificare che la comunicazione ricevuta sia proprio vera. In sintesi: mai lasciarsi cogliere dal panico, e riflettere sempre prima di agire, cercando, come nel caso della voce clonata, di contattare direttamente la persona.

A domani.

Mario

Nessun commento: