Categories: Tecnologia

Il nuovo Gpt-4 è più affidabile, ma più facile da ingannare

Author: Wired

Gpt-4, il nuovo modello linguistico di OpenAI, è più affidabile del precedente Gpt-3.5, ma anche più vulnerabile a bias e jailbreaking – un attacco che mira ad aggirare le restrizioni software di un dispositivo al fine di installarne uno diverso da quello originale -. Lo rivela uno studio condotto da ricercatori delle università statunitensi in collaborazione con Microsoft, che ha messo in evidenza come Gpt-4 sia migliore del suo predecessore nel difendere la privacy degli utenti, evitare di fornire loro informazioni distorte e resistere a eventuali attacchi esterni. Al tempo stesso, però, i ricercatori hanno notato che gli utenti possono aggirare le restrizioni di sicurezza del nuovo modello di OpenAI con una maggiore facilità, perché questo “segue le informazioni fuorvianti in modo più preciso”, anche se queste risultano essere molto complicate.

A quanto pare, però, le vulnerabilità di cui parlano i ricercatori non sono state trovate nei prodotti basati su Gpt-4 rivolti ai consumatori, perché evidentemente sono stati applicati una serie di interventi “di mitigazione per affrontare potenziali danni che potrebbero verificarsi a livello della tecnologia del modello”. Nonostante questo, lo studio non lascia spazio a dubbi: il nuovo modello linguistico di OpenAI è più vulnerabile rispetto al suo predecessore. Per arrivare a questa conclusione i ricercatori hanno provato prima Gpt-3.5 e poi Gpt-4, interrogandoli su tematiche sensibili quali gli stereotipi, la privacy e l’etica delle macchine.

Più nel dettaglio, hanno prima utilizzato una serie di istruzioni che includevano parole da considerarsi come vietate. Poi hanno cercato di forzare la mano spingendo i modelli a infrangere le restrizioni della politica sui contenuti, e infine li hanno indotti a ignorare completamente le regole sulla sicurezza. “Il nostro obiettivo è incoraggiare altri nella comunità di ricerca a utilizzare e sviluppare questo lavoro, potenzialmente anticipando azioni nefaste da parte di avversari che potrebbero sfruttare le vulnerabilità per causare danni – ha affermato il team di ricercatori statunitensi –. Questa valutazionUe dell’affidabilità è solo un punto di partenza e speriamo di lavorare insieme ad altri per sviluppare i suoi risultati e creare modelli potenti e più affidabili in futuro”.

admin

Recent Posts

Elden Ring: Shadow of the Erdtree | Guida Igon e alla Sacerdotessa della Comunione Draconica

Author: Tom's Hardware In Elden Ring: Shadow of the Erdtree, incontrerete diversi NPC (personaggi non…

26 Giugno 2024

L’Intelligenza Artificiale per creare videogiochi: lo scetticisimo di John Romero

Author: GAMEmag John Romero, il co-fondatore di ID Software e creatore di Doom, non è…

26 Giugno 2024

Elevating process safety in the chemical industry: A digital approach

Author: Schneider Electric This audio was created using Microsoft Azure Speech Services When it comes…

26 Giugno 2024

Perché gli USA stanno indagano su tre società cinesi

Author: IlSoftware A Washington aumenta la diffidenza nei confronti di software e servizi collegati alle…

26 Giugno 2024

Un razzo spaziale SpaceX Falcon Heavy ha lanciato il satellite meteorologico GOES-U della NOAA

Author: Hardware Upgrade Nella serata di oggi, alle 23:26 (ora italiana), è stato lanciato dal…

26 Giugno 2024

Camilla und Charles empfangen Japans Kaiserpaar zum Staatsbankett

Author: klatsch-tratsch Königin Camilla, Kaiserin Masako, Kaiser Naruhito und König Charles III. beim Staatsbankett im…

26 Giugno 2024