Categories: Tecnologia

Ci stiamo concentrando sui rischi sbagliati dell’intelligenza artificiale?

Author: Wired

Capiamo che le persone siano preoccupate per come [l’intelligenza artificiale, ndr] può cambiare il nostro modo di vivere. Anche noi lo siamo – ha dichiarato il capo di OpenAi Sam Altman al Congresso statunitense all’inizio di maggio. Se le cose con questa tecnologia andassero male, possono andare molto male“.

Le voci fuori dal coro

Non tutti però condividono questo scenario apocalittico quando si parla di Ai. Yann LeCun, che ha vinto il premio Turing con Hinton e Bengio per lo sviluppo del deep learning, è critico nei confronti del pessimismo che circonda i progressi dell’Ai, e ad oggi non ha firmato l’appello del Center for Ai Safety.

Alcuni ricercatori nel settore che si occupano delle questioni legate all’Ai che hanno un effetto più immediato, tra cui i pregiudizi e la disinformazione, ritengono che l’improvviso allarmismo sui rischi teorici a lungo termine rappresenti una distrazione dai problemi attuali.

Meredith Whittaker, presidente della Signal Foundation e cofondatrice e consulente capo dell’Ai Now Institute, un’associazione senza scopo di lucro che si occupa di Ai e della concentrazione di potere nell’industria tecnologica, dichiara che molte delle persone che hanno firmato la lettera probabilmente ritengono che i rischi siano concreti, ma che l’allarme “non coglie i problemi reali“.

Whittaker aggiunge che il dibattito sulla minaccia esistenziale posta dall’intelligenza artificiale presenta le nuove capacità della tecnologia come il risultato di un naturale progresso scientifico piuttosto che come riflesso di prodotti modellati dagli interessi e dal controllo delle grandi aziende: “Questo discorso è una sorta di tentativo di cancellare il lavoro che è già stato fatto per identificare i danni concreti e le limitazioni molto significative di questi sistemi“.

Margaret Mitchell, ricercatrice di Hugging Face che ha lasciato Google nel 2021 dopo la diffusione di una ricerca che evidenziava le carenze e i rischi dei modelli linguistici di grandi dimensioni, sostiene che sia importante riflettere sulle ramificazioni a lungo termine dell’Ai. Ma aggiunge che i firmatari della dichiarazione del Center for Ai Safety non sembrano essersi concentrati su come dare priorità alle conseguenze nocive più immediate, come l’uso dell’Ai a scopo di sorveglianza. “Questa dichiarazione, così come è stata scritta e per le motivazioni alla base, mi fa pensare che sarà più dannosa che utile per capire a cosa dare priorità”, spiega.

Questo articolo è comparso originariamente su Wired US.

admin

Recent Posts

The Lian Li Hydroshift LCD 360S AIO Cooler Review: Sleek, Stylish, and Lively

Author: AnandTech Among the packed field of PC hardware manufacturers, Lian Li is a company…

28 Giugno 2024

Questa BELLISSIMA tastiera meccanica è in DOPPIO SCONTO con coupon!

Author: Tom's Hardware Alla ricerca di una tastiera meccanica di alta qualità che unisca versatilità,…

28 Giugno 2024

Steam ha svelato il suo tool integrato per la registrazione del gameplay: Beta già disponibile!

Author: GAMEmag Con un annuncio a sorpresa, Valve ha svelato uno strumento integrato di Steam…

28 Giugno 2024

Celebrating Pride month: How Diversity, Equity, and Inclusion drive success at Schneider Electric US Services

Author: Schneider Electric This audio was created using Microsoft Azure Speech Services Pride Month is…

28 Giugno 2024

La verità sui modelli usati per l’intelligenza artificiale: quali non sono open source

Author: IlSoftware Negli ultimi anni, nel settore delle soluzioni basate sull’intelligenza artificiale (IA) si è…

28 Giugno 2024

NASA OSIRIS-REx: trovati fosfati nei campioni dell’asteroide Bennu

Author: Hardware Upgrade La missione statunitense NASA OSIRIS-REx ha riportato sulla Terra 121,6 grammi di…

28 Giugno 2024