Oristano 5 maggio 2023
Cari amici,
Che negli ultimi tempi l’intelligenza
artificiale (AI) abbia raggiunto una straordinaria perfezione,
tanto da prestarsi a svolgere compiti inconcepibili fino a poco tempo fa, è davvero una
realtà incontestabile. Le possibili applicazioni dell’A.I. spaziano, infatti, in una
miriade di campi. Tanto per fare un esempio, c’è chi ha già utilizzato la sua tecnologia per
scrivere canzoni, chi per scrivere testi, per dipingere, e anche per risolvere
problemi complessi di calcolo di altissimo livello. Però, c’è anche chi ha provato ad
utilizzare l’intelligenza artificiale per realizzare attacchi informatici e,
ultimamente, anche per mettere in atto tentativi di truffa in una maniera
alquanto insolita, mai tentata prima. Ecco come.
Negli Stati Uniti, di
recente, la Federal Trade Commission (FTC), la potente agenzia
governativa americana che ha il compito di promuovere la concorrenza e
proteggere i consumatori dalle pratiche commerciali sleali e ingannevoli, ha
lanciato un allarme che ha sconvolto milioni di americani: i criminali
informatici stanno utilizzando l’intelligenza artificiale per replicare in modo perfetto le voci
di amici e parenti e, in questo modo, cercare di estorcere denaro. Come ha
spiegato la Federal Trade Commission, "Tutto ciò di cui il truffatore
ha bisogno è una clip audio della voce del familiare, poi un programma di
intelligenza artificiale è capace di clonarla”. Le clip audio possono
essere recuperate facilmente, analizzando, in particolare nei social, filmati e
video accompagnati dalla voce della persona che interessa il truffatore.
Come è già noto, infatti, tra le numerose applicazioni di Intelligenza Artificiale, c’è anche quella che è capace
di clonare una voce umana. Trovata la voce che interessa, attraverso l’utilizzo della
clip audio recuperata online è possibile far ripetere all’intelligenza
artificiale qualunque cosa si voglia far dire, semplicemente inserendo il testo
(copione) desiderato. Nulla, dunque, di particolarmente complesso per l'Intelligenza Artificiale, e questo spiega
perché l’FTC sta ricevendo migliaia di segnalazioni da parte dei cittadini
americani. Non è difficile prevedere che non passerà molto tempo prima che il
fenomeno si diffonda anche in Europa e in Italia. Ecco alcuni esempi di casi avvenuti, che possono dare meglio l’idea.
Il caso della signora
Ruth Card e del nipote Brandon. Nella città canadese di Regina, una
donna di 73 anni, tale Ruth Card, riceve una telefonata da quello che, dalla
voce, sembrava proprio suo nipote Brandon. Questi informava la nonna di essere
in prigione, senza portafoglio e cellulare, chiedendo all’anziana i soldi per
pagare la cauzione. Ovviamente, la signora, trattandosi del nipote e ignara del
raggiro, si precipita in banca per prelevare un’ingente somma. Il direttore
della banca, insospettito della richiesta, chiede alla signora le motivazioni del
prelievo. L’uomo, comprendendo che poteva trattarsi di un raggiro, riesce a mettere la
donna sull’avviso, scoprendo e così bloccando il tentativo di truffa.
Ecco il caso di Benjamin
Perki. Un altro esempio di truffa tramite intelligenza artificiale, perfettamente pianificata, è quella che ha visto come vittime i genitori del trentanovenne
Benjamin Perki. I genitori di Benjamin ricevono una
telefonata da un presunto avvocato che li informa che Benjamin è in prigione in
quanto aveva investito e ucciso con l’auto un diplomatico statunitense;
Benjamin, pertanto, aveva urgente bisogno di denaro per le spese legali. A
confermare quanto detto, l’avvocato fa finta di passare il telefono al presunto
Benjamin Perkin. I coniugi, sentendo la voce del proprio figlio, che confermava quella
drammatica situazione, ricevevano richiesta di versare ben 21.000 dollari. Presa
dal panico, la coppia si precipita in banca e invia la cifra richiesta
dall’avvocato: 21.000$ in Bitcoin. I coniugi capiscono di essere stati truffati
solo poche ore dopo, quando il vero Benjamin telefona ai genitori per una
normale chiamata di routine.
Cari amici, il problema creato dalle potenzialità dell'AI è
certamente alquanto serio, e viene subito da pensare: Come difendersi da
attacchi di questo tipo? Le indicazioni date dall’agenzia americana sono
chiare e semplici: se qualcuno chiama millantando situazioni che richiedono
denaro, meglio riattaccare e richiamare la persona per verificare la storia. Niente
di diverso, dunque, dalle tecniche di difesa utilizzare contro il phishing via e-mail,
trovando le possibili soluzioni per poter verificare che la comunicazione ricevuta sia proprio vera. In
sintesi: mai lasciarsi cogliere dal panico, e riflettere sempre prima di agire,
cercando, come nel caso della voce clonata, di contattare direttamente la
persona.
A domani.
Mario
Nessun commento:
Posta un commento