Attraverso l’intelligenza artificiale, i malintenzionati truffano gli anziani, usando la voce dei loro parenti.
I malintenzionati utilizzano un software per riprodurre una voce grazie all’intelligenza artificiale, al fine di truffare le persone fingendo di essere un loro parente al telefono. Azioni che fanno riflettere sui risvolti che tale tecnologia può avere per usi illegali e non previsti dalla legge.
Anziani truffati con l’intelligenza artificiale
Secondo quanto si legge da un articolo del Washington Post, una coppia di settantenni in Canada ha ricevuto una telefonata da un uomo la cui voce sembrava quella del nipote, il quale li informava che era in prigione e che aveva bisogno di soldi per la cauzione.
A quel punto, i nonni hanno prelevato 3.000 dollari canadesi in una prima banca, poi sono andati in un secondo istituto per prelevarne altri.
È stato allora che il direttore della banca li ha informati che un altro cliente aveva già ricevuto una chiamata simile, scoprendo, così, che la voce all’altro capo della linea era stata simulata. La coppia ha, quindi, capito che stavano per essere truffati.
Soldi persi: l’esperienza di un’altra coppia
Un’altra coppia di anziani, però, è stata meno fortunata. Due genitori hanno ricevuto una telefonata da un avvocato che diceva loro che il loro figlio aveva ucciso un diplomatico americano in un incidente d’auto, che era in prigione e aveva bisogno di soldi per le spese legali. L’avvocato ha, quindi, chiamato il figlio al telefono per dire che aveva bisogno di 21.000 dollari canadesi.
Sebbene la telefonata fosse insolita, i genitori, convinti di aver parlato al telefono con il figlio, hanno acconsentito, ritirando, di conseguenza, i soldi da diverse banche.
Fatto ciò, li hanno inviati all’avvocato tramite un terminale bitcoin. La coppia si è, poi, è rimasta di stucco quando ha ricevuto una vera telefonata dal figlio, che diceva loro che andava tutto bene. Nonostante la segnalazione alla polizia, i due anziani non hanno avuto i soldi in dietro.
Un campione di 30 secondi è sufficiente ai fini della truffa
Secondo il Washington Post, l’intelligenza artificiale permette facilmente ai truffatori di ricreare e riprodurre la voce di una persona da un campione audio di poche frasi.
Solo 30 secondi, infatti, sono sufficienti per clonare una voce. I truffatori possono, quindi, fargli dire qualunque cosa digitino sulla tastiera. Molto spesso lo usano per far credere alle persone che i loro cari sono in difficoltà.
La giustizia e le forze dell’ordine sono ancora impotenti di fronte a questo tipo di truffa. La maggior parte delle vittime ha pochi indizi per identificare l’autore ed è difficile per la polizia rintracciare le chiamate.
Quanto ai tribunali, ci sono troppo scarsi precedenti legali per ritenere responsabili del loro utilizzo le aziende che sviluppano questi strumenti, spiega il quotidiano americano.