Categorie
Tecnologia

Chiedere a ChatGpt di ripetere parole all’infinito viola i suoi termini di servizio

Author: Wired

Appena qualche giorno fa vi abbiamo raccontato di come un team di ricercatori di Google DeepMind sia riuscito a far rivelare a ChatGpt le informazioni personali di decine di persone semplicemente chiedendogli di ripetere all’infinito la stessa parola. E ora, a distanza di giorni, ecco che la richiesta viene contrassegnata come una violazione dei termini di servizio e della politica sui contenuti del chatbot – come riferisce un rapporto di 404 Media, una delle prime piattaforme a condividere pubblicamente il risultato della ricerca la scorsa settimana -.

A confermarlo è il sito Engadget, che rivela che ChatGpt ha restituito il messaggio “Questo contenuto potrebbe violare la nostra politica sui contenuti o i termini di utilizzo” nel momento in cui gli è stato richiesto di ripetere la parola “ciao” per sempre. E poi ha precisato “Se ritieni che questo sia un errore, invia il tuo feedback: il tuo contributo aiuterà la nostra ricerca in quest’area”. Quello che molti non sanno, infatti, è che la politica dei contenuti di Open AI non vieta affatto agli utenti di chiedere al servizio di ripetere le parole all’infinito. Dall’altro lato, nei suoi “Termini d’uso” la compagnia chiede esplicitamente di non “utilizzare alcun metodo automatizzato o programmatico per estrarre dati o output dai servizi”, così da evitare che le informazioni su cui viene addestrato il chatbot non diventino pubbliche.

Chiedere a ChatGpt di ripetere una parola all’infinito non può essere considerato in alcun modo un’automatizzazione o un sistema programmato, il che invalida quanto riportato da Open AI nei suoi “Termini d’uso”. Riguardo questa specifica, però, la compagnia non ha rilasciato alcun commento. Al momento, infatti, sembrerebbe essere molto occupata a combattere le critiche di chi sostiene che le aziende che operano nel settore utilizzano enormi quantità di dati disponibili in rete senza chiederne il consenso dei proprietari. Un comportamento che i ricercatori di Google DeepMind hanno portato allo scoperto.

Author: Wired

Appena qualche giorno fa vi abbiamo raccontato di come un team di ricercatori di Google DeepMind sia riuscito a far rivelare a ChatGpt le informazioni personali di decine di persone semplicemente chiedendogli di ripetere all’infinito la stessa parola. E ora, a distanza di giorni, ecco che la richiesta viene contrassegnata come una violazione dei termini di servizio e della politica sui contenuti del chatbot – come riferisce un rapporto di 404 Media, una delle prime piattaforme a condividere pubblicamente il risultato della ricerca la scorsa settimana -.

A confermarlo è il sito Engadget, che rivela che ChatGpt ha restituito il messaggio “Questo contenuto potrebbe violare la nostra politica sui contenuti o i termini di utilizzo” nel momento in cui gli è stato richiesto di ripetere la parola “ciao” per sempre. E poi ha precisato “Se ritieni che questo sia un errore, invia il tuo feedback: il tuo contributo aiuterà la nostra ricerca in quest’area”. Quello che molti non sanno, infatti, è che la politica dei contenuti di Open AI non vieta affatto agli utenti di chiedere al servizio di ripetere le parole all’infinito. Dall’altro lato, nei suoi “Termini d’uso” la compagnia chiede esplicitamente di non “utilizzare alcun metodo automatizzato o programmatico per estrarre dati o output dai servizi”, così da evitare che le informazioni su cui viene addestrato il chatbot non diventino pubbliche.

Chiedere a ChatGpt di ripetere una parola all’infinito non può essere considerato in alcun modo un’automatizzazione o un sistema programmato, il che invalida quanto riportato da Open AI nei suoi “Termini d’uso”. Riguardo questa specifica, però, la compagnia non ha rilasciato alcun commento. Al momento, infatti, sembrerebbe essere molto occupata a combattere le critiche di chi sostiene che le aziende che operano nel settore utilizzano enormi quantità di dati disponibili in rete senza chiederne il consenso dei proprietari. Un comportamento che i ricercatori di Google DeepMind hanno portato allo scoperto.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.