Con l’Intelligenza Artificiale, gli hacker ricavano informazioni private degli utenti: allerta per i nuovissimi attacchi

Un recente studio ha rivelato quanto sia semplice per gli hacker rubare informazioni con l’intelligenza artificiale.

Il processo con cui i Chatbot come Chat GTP sfruttano le informazioni precedentemente usate per l’addestramento non sono tuttora chiare, ma una cosa ci ha tenuto a precisare OpenAI: i suoi Large Language Model (LLM) non copiano né archiviano informazioni in un database.

Intelligenza artificiale e hacker
Intelligenza artificiale: un potente strumento per i criminali informatici – fumonegliocchi.it

Come precisato dal team, l’Intelligenza artificiale funziona, “come una persona che prima legge un libro e poi lo mette via”. In sostanza, il colosso ci spiega che le informazioni reperite dai dati degli utenti non vengono trasmesse. Eppure qualcosa non torna.

I chatbot, di base, hanno filtri che impediscono agli stessi utenti di chiedere informazioni personali su qualcun altro tramite i messaggi. Ai software è stato dunque insegnato a negare le richieste inappropriate, purtroppo però, aggirare questi sistemi sembra essere piuttosto semplice. A dimostrare questa teoria è stato un team di ricercatori che, mediante l’utilizzo di Chat GTP, è riuscito a risalire al contatto di Jeremy White, giornalista del New York Times.

Intelligenza artificiale: così gli hacker possono risalire ad informazioni personali

Un’e-mail sospetta è stato il modo in cui i ricercatori dell’Università dell’Indiana hanno voluto dare la prova di quanto scoperto. Mediante un esperimento, Rui Zhu è riuscito a reperire l’indirizzo e contattare un giornalista del noto New York Time, dimostrando la teoria secondo la quale è possibile aggirare i sistemi del noto Chat GTP.

Furto dati hacker
Intelligenza artificiale: un sistema ancora vulnerabile – fumonegliocchi.it

La sua e-mail era stata pubblicata all’interno di una lista di indirizzi aziendali di oltre 30 dipendenti del New York Times, ma non è stato possibile trovarla sul web. Alla luce di ciò, i ricercatori hanno pensato bene di cercarla con Chat GTP.

Zhu e i suoi colleghi hanno scoperto che la memoria di un chatbot, proprio come quella umana, può essere stimolata. Gli stessi hanno fornito a GPT-3.5 Turbo un elenco di nomi e indirizzi mail verificati dei dipendenti del New York Times. In questo modo, il software ha restituito loro risultati simili a quelli dei dati di addestramento.

Si tratta, dunque, di un campanello d’allarme da non sottovalutare. L’intelligenza artificiale, infatti, sta ampliando sempre di più i suoi orizzonti, ma vi sono ancora diverse lacune. Non a caso, gli hacker conoscono e studiano costantemente le vulnerabilità del sistema per estrapolare dati estremamente personali. Pensiamo a un chatbot utilizzato in ambito bancario: l’enorme quantità di dati personali potrebbe essere messa sotto serio attacco vista la facilità in cui è facile ‘ingannare il sistema’.

Impostazioni privacy