Categories: HardwareSoftware

Se usi ChatGPT gli hacker ti possono spiare nonostante la crittografia

Author: Tom’s Hardware

Un nuovo attacco informatico sta mettendo a rischio la privacy delle chat private gestite dagli assistenti AI, anche se queste sono crittografate. Gli assistenti AI, disponibili da poco più di un anno, stanno rapidamente diventando una parte integrante delle nostre vite, offrendo risposte e assistenza su argomenti sensibili come la gravidanza, i problemi legali e persino la salute mentale.

Tuttavia, alcuni ricercatori hanno scoperto un grave problema di sicurezza che compromette la riservatezza di queste conversazioni.

La tecnica utilizzata dagli hacker sfrutta un canale secondario presente nella maggior parte degli assistenti AI, con l’eccezione di Google Gemini. Attraverso l’utilizzo di modelli linguistici avanzati, gli aggressori possono decifrare le risposte degli assistenti AI con una precisione sorprendente.

Questo significa che anche se le conversazioni sono crittografate, un hacker che si trova in una posizione di intercettazione passiva può dedurre il contenuto delle risposte con una precisione notevole.

Yisroel Mirsky, capo del Offensive AI Research Lab presso la Ben-Gurion University in Israele, ha avvertito che attualmente chiunque può leggere le chat private inviate da servizi come ChatGPT e altri, compromettendo gravemente la privacy degli utenti.

Anche se OpenAI crittografa il traffico per prevenire tali attacchi, la ricerca ha dimostrato che il modo in cui viene utilizzata la crittografia è difettoso, esponendo il contenuto delle conversazioni.

Questo problema riguarda non solo OpenAI, ma anche altri grandi chatbot, come Microsoft Copilot. Gli hacker possono dedurre il contenuto delle risposte crittografate con un alto grado di accuratezza, compromettendo la sicurezza delle conversazioni su argomenti sensibili.

L’attacco sfrutta un canale secondario di sequenza di token, che si trova nei token utilizzati dagli assistenti AI per trasmettere le risposte in tempo reale.

Sebbene la consegna dei token sia crittografata, la trasmissione in tempo reale, token per token, espone questo canale secondario, permettendo agli hacker di accedere alle conversazioni private degli utenti.

Questa scoperta solleva gravi preoccupazioni per la sicurezza e la privacy degli utenti degli assistenti AI. È urgente che vengano adottate misure per risolvere questa vulnerabilità e proteggere le conversazioni private da occhi indiscreti.

admin

Recent Posts

Motorola razr 50 vs razr 50 Ultra, quale acquistare?

Author: Tom's Hardware Motorola ha annunciato da pochissimo la sua nuova famiglia di smartphone pieghevoli…

5 Luglio 2024

Nintendo NON utilizzerà l’intelligenza artificiale generativa per creare i suoi giochi

Author: GAMEmag Nintendo ha confermato che non incorporerà la tecnologia di intelligenza artificiale generativa nei…

5 Luglio 2024

AI on diet: how to apply frugal AI standards?

Author: Schneider Electric This audio was created using Microsoft Azure Speech Services by Claude Le…

5 Luglio 2024

Watch Dogs: iniziate le riprese del film dopo quasi 10 anni dall’annuncio | AGEMOBILE

Author: Agemobile Da quando il gioco di avventura hacker open world Watch Dogs ha catturato…

5 Luglio 2024

Samsung Galaxy Z Fold6 e Flip6: ecco alcune specifiche tecniche

Author: IlSoftware Tutti le novità che riguarderanno i prossimi smartphone di Samsung stanno pian piano…

5 Luglio 2024