Categorie
Tecnologia

Ci stiamo concentrando sui rischi sbagliati dell’intelligenza artificiale?

Author: Wired

Capiamo che le persone siano preoccupate per come [l’intelligenza artificiale, ndr] può cambiare il nostro modo di vivere. Anche noi lo siamo – ha dichiarato il capo di OpenAi Sam Altman al Congresso statunitense all’inizio di maggio. Se le cose con questa tecnologia andassero male, possono andare molto male“.

Le voci fuori dal coro

Non tutti però condividono questo scenario apocalittico quando si parla di Ai. Yann LeCun, che ha vinto il premio Turing con Hinton e Bengio per lo sviluppo del deep learning, è critico nei confronti del pessimismo che circonda i progressi dell’Ai, e ad oggi non ha firmato l’appello del Center for Ai Safety.

Alcuni ricercatori nel settore che si occupano delle questioni legate all’Ai che hanno un effetto più immediato, tra cui i pregiudizi e la disinformazione, ritengono che l’improvviso allarmismo sui rischi teorici a lungo termine rappresenti una distrazione dai problemi attuali.

Meredith Whittaker, presidente della Signal Foundation e cofondatrice e consulente capo dell’Ai Now Institute, un’associazione senza scopo di lucro che si occupa di Ai e della concentrazione di potere nell’industria tecnologica, dichiara che molte delle persone che hanno firmato la lettera probabilmente ritengono che i rischi siano concreti, ma che l’allarme “non coglie i problemi reali“.

Whittaker aggiunge che il dibattito sulla minaccia esistenziale posta dall’intelligenza artificiale presenta le nuove capacità della tecnologia come il risultato di un naturale progresso scientifico piuttosto che come riflesso di prodotti modellati dagli interessi e dal controllo delle grandi aziende: “Questo discorso è una sorta di tentativo di cancellare il lavoro che è già stato fatto per identificare i danni concreti e le limitazioni molto significative di questi sistemi“.

Margaret Mitchell, ricercatrice di Hugging Face che ha lasciato Google nel 2021 dopo la diffusione di una ricerca che evidenziava le carenze e i rischi dei modelli linguistici di grandi dimensioni, sostiene che sia importante riflettere sulle ramificazioni a lungo termine dell’Ai. Ma aggiunge che i firmatari della dichiarazione del Center for Ai Safety non sembrano essersi concentrati su come dare priorità alle conseguenze nocive più immediate, come l’uso dell’Ai a scopo di sorveglianza. “Questa dichiarazione, così come è stata scritta e per le motivazioni alla base, mi fa pensare che sarà più dannosa che utile per capire a cosa dare priorità”, spiega.

Questo articolo è comparso originariamente su Wired US.

Author: Wired

Capiamo che le persone siano preoccupate per come [l’intelligenza artificiale, ndr] può cambiare il nostro modo di vivere. Anche noi lo siamo – ha dichiarato il capo di OpenAi Sam Altman al Congresso statunitense all’inizio di maggio. Se le cose con questa tecnologia andassero male, possono andare molto male“.

Le voci fuori dal coro

Non tutti però condividono questo scenario apocalittico quando si parla di Ai. Yann LeCun, che ha vinto il premio Turing con Hinton e Bengio per lo sviluppo del deep learning, è critico nei confronti del pessimismo che circonda i progressi dell’Ai, e ad oggi non ha firmato l’appello del Center for Ai Safety.

Alcuni ricercatori nel settore che si occupano delle questioni legate all’Ai che hanno un effetto più immediato, tra cui i pregiudizi e la disinformazione, ritengono che l’improvviso allarmismo sui rischi teorici a lungo termine rappresenti una distrazione dai problemi attuali.

Meredith Whittaker, presidente della Signal Foundation e cofondatrice e consulente capo dell’Ai Now Institute, un’associazione senza scopo di lucro che si occupa di Ai e della concentrazione di potere nell’industria tecnologica, dichiara che molte delle persone che hanno firmato la lettera probabilmente ritengono che i rischi siano concreti, ma che l’allarme “non coglie i problemi reali“.

Whittaker aggiunge che il dibattito sulla minaccia esistenziale posta dall’intelligenza artificiale presenta le nuove capacità della tecnologia come il risultato di un naturale progresso scientifico piuttosto che come riflesso di prodotti modellati dagli interessi e dal controllo delle grandi aziende: “Questo discorso è una sorta di tentativo di cancellare il lavoro che è già stato fatto per identificare i danni concreti e le limitazioni molto significative di questi sistemi“.

Margaret Mitchell, ricercatrice di Hugging Face che ha lasciato Google nel 2021 dopo la diffusione di una ricerca che evidenziava le carenze e i rischi dei modelli linguistici di grandi dimensioni, sostiene che sia importante riflettere sulle ramificazioni a lungo termine dell’Ai. Ma aggiunge che i firmatari della dichiarazione del Center for Ai Safety non sembrano essersi concentrati su come dare priorità alle conseguenze nocive più immediate, come l’uso dell’Ai a scopo di sorveglianza. “Questa dichiarazione, così come è stata scritta e per le motivazioni alla base, mi fa pensare che sarà più dannosa che utile per capire a cosa dare priorità”, spiega.

Questo articolo è comparso originariamente su Wired US.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.