Ci vuole davvero tanta fantasia per riuscire a scovare di volta in volta nuove idee al fine di truffare il prossimo. Quella dei rapimenti virtuali potrebbe però raggiungere il premio per quest’anno. Merito dell’intelligenza artificiale che sta rendendo possibile non solo l’impossibile, ma anche l’inimmaginabile. Scopriamo quindi di cosa si tratta.

Intelligenza artificiale, un potenziale sconfinato

È proprio così, l’AI ha aperto un’infinità di nuove soluzioni che ci aiutano a vivere meglio, ma anche scoperchiato un vaso di Pandora che che sta scatenando una serie di mali sull’uomo.

C’è chi la teme per quel che un giorno potrà fare al mondo del lavoro, con esperti ed economisti che addirittura annunciano che ci farà vivere senza lavorare (qualora sia davvero possibile), chi invece accetta di buon grado ogni sua intrusione nel mondo reale come fosse l’elemento fondamentale per la riuscita di ogni cosa. Sta di fatto che l’intelligenza artificiale rimane un semplice strumento, e gli oggetti, come si sa, non hanno colpe anche quando finiscono nelle mani degli psicopatici. Quella dei rapimenti virtuali è la nuova preoccupante notizia che potrebbe presto divenire tendenza ed essere sdoganata.

Ad offrirci un quadro esaustivo dell’argomento ci ha pensato Trend Micro, portale dedicato alla Cybersecurity. Di recente ha infatti pubblicato uno studio intitolato Virtual Kidnapping: How AI Voice Cloning Tools and Chat GPT are Being Used to Aid Cybercrime and Extortion Scams, che tradotto suona così: Rapimento virtuale, come gli strumenti di clonazione vocale dell’intelligenza artificiale e la chat GPT vengono utilizzati per favorire le truffe legate alla criminalità informatica e alle estorsioni. Dal titolo possiamo probabilmente già capire di cosa si tratta. In pratica, grazie a questi nuovi strumenti tecnologici è possibile simulare un rapimento e ingannare la vittima per avere un riscatto in danaro. Purtroppo, se conosciamo questo nuovo crimine è perché è già successo.

Rapimenti virtuali, quando la truffa si fa artificialmente intelligente

Lo scorso aprile è stato segnalato il primo caso di rapimento virtuale. In Arizona, una donna di nome Jennifer De Stefano ha ricevuto una chiamata nella quale la si minacciava di uccidere la figlia se non avesse pagato un cospicuo riscatto. L’uomo al telefono asseriva di aver rapito la quindicenne e chiedeva un riscatto di 1 milione di dollari per lasciarla libera. La De Stefano intanto ascoltava il pianto della ragazza a telefono. Dopo una lunga conversazione, accettava di pagare il riscatto, che nel frattempo era sceso a 50 mila dollari. Da 1 milione a 50 mila dollari, una riduzione davvero enorme e sospetta, cosa che forse doveva già accendere la lampadina della signora. Per fortuna, proprio poco prima di versare i 50 mila dollari, la donna ha scoperto che sua figlia era altrove e stava benissimo.

Dopo il deepfake, arriva l’audio deepfake. Nell’era dei social è difficile incontrare persone che non sanno di cosa stiamo parlando. Per deepfake infatti si intendono quei video contraffatti con le più avanzate app tech che permettono di modificare un volto e far credere che Obama stia rapinando un negozio, per esempio. Questa tecnologia è stata usata in America per un crimine odioso, quello di ricattare le donne attraverso video per adulti. Modificando i volti è infatti possibile far credere che la vittima sia apparsa in un video a luci rosse e sarà davvero difficile dimostrare che è tutto finto a coloro che osservano questi filmati. A quanto pare, ora si passa agli audio. L’episodio dell’Arizona infatti ci dice che è possibile riprodurre la voce di un nostro caro così da trarci in inganno e farci credere che gli sia accaduto qualcosa. I rapimenti virtuali potrebbero essere la nuova frontiera dei cybercriminali. Speriamo che gli esperti di sicurezza possano trovare delle contromisure a tale crimine.

I punti chiave…

  • in Arizona si è verificato il primo caso di rapimento virtuale, è successo ad aprile e il crinale chiedeva 50 mila dollari di riscatto;
  • la vittima era stata telefonata da un criminale il quale asseriva di aver rapito la figlia;
  • la voce della 15enne virtualmente rapita era stata ricreata a telefono dall’intelligenza artificiale.