Categorie
Tecnologia

Intelligenza artificiale, uno dei pionieri ora si occuperà dei suoi rischi

Author: Wired

Anche uno dei pionieri dell’intelligenza artificiale (Ia), l’informatico Geoffrey Hinton, si è unito al coro di esperti che stanno cercando di segnalare i rischi legati al rapido sviluppo di questa nuova tecnologia. Il settantaseienne britannico ha lasciato il suo ruolo a Google, dove lavorava da dieci anni, proprio per dedicarsi a quello che ha chiamato un lavoro più filosofico”, cioè parlare dei problemi di sicurezza dell’intelligenza artificiale.

Hinton è stato un pioniere dell’intelligenza artificiale e dello sviluppo delle reti neurali, avendo implementato e migliorato, nel 2012, la tecnologia su cui oggi si basano la gran parte dei sistemi Ia, assieme a due suoi ricercatori, Alex Krizhevsky e Ilya Sutskeve, cofondatore e chief scientist di OpenAi (che ha sviluppato ChatGPT).

Approccio critico

Dopo essere arrivato a Google nel 2013 e aver contribuito allo sviluppo della tecnologia di intelligenza artificiale della compagnia, Hinton ha deciso che era il momento di farsi da parte nell’ambito scientifico e dedicarsi alle implicazioni etiche e filosofiche legate alle Ia, quando Microsoft e OpenAi hanno lanciato ChatGpt. Come si legge sull’Mit Technology Review, al contrario di quanto lasciato intendere da altre testate nazionali e internazionali, Hinton non ha lasciato Google per poter criticare la compagnia.

In realtà, da una parte, si è detto troppo vecchio per il lavoro tecnico e, dall’altra, ha deciso di seguire il suo desiderio di parlare dei problemi di sicurezza dell’Ia senza dovermi preoccupare di come ciò interagisce con l’attività di Google, cioè senza l’autocensura che ogni manager di una compagnia di impone quando parla in pubblico.

L’informatico ha così definito la nuova generazione di modelli linguistici di grandi dimensioni, e in particolare ChatGpt, come alieni atterrati sulla terra senza che la gente se ne sia resa conto, “perché parlano un ottimo inglese”. Ed è in questa mancanza di consapevolezza, assieme all’incredibile intelligenza dimostrata dai sistemi Ia, che per Hinton si cela il rischio, piccolo ma per lui molto reale, che lo sviluppo senza limiti delle Ia si possa rivelare disastroso.

Vero o falso?

In particolare, la principale preoccupazione di Hinton riguarda un qualcosa che è già, in parte, davanti ai nostri occhi. Con questi sistemi sempre più abili a imitare la realtà, il rischio principale è che gli esseri umani perdano la capacità di distinguere cosa è vero e cosa è falso, soprattutto data la velocità con cui migliorano e apprendono nuove funzioni e nuove azioni.

Author: Wired

Anche uno dei pionieri dell’intelligenza artificiale (Ia), l’informatico Geoffrey Hinton, si è unito al coro di esperti che stanno cercando di segnalare i rischi legati al rapido sviluppo di questa nuova tecnologia. Il settantaseienne britannico ha lasciato il suo ruolo a Google, dove lavorava da dieci anni, proprio per dedicarsi a quello che ha chiamato un lavoro più filosofico”, cioè parlare dei problemi di sicurezza dell’intelligenza artificiale.

Hinton è stato un pioniere dell’intelligenza artificiale e dello sviluppo delle reti neurali, avendo implementato e migliorato, nel 2012, la tecnologia su cui oggi si basano la gran parte dei sistemi Ia, assieme a due suoi ricercatori, Alex Krizhevsky e Ilya Sutskeve, cofondatore e chief scientist di OpenAi (che ha sviluppato ChatGPT).

Approccio critico

Dopo essere arrivato a Google nel 2013 e aver contribuito allo sviluppo della tecnologia di intelligenza artificiale della compagnia, Hinton ha deciso che era il momento di farsi da parte nell’ambito scientifico e dedicarsi alle implicazioni etiche e filosofiche legate alle Ia, quando Microsoft e OpenAi hanno lanciato ChatGpt. Come si legge sull’Mit Technology Review, al contrario di quanto lasciato intendere da altre testate nazionali e internazionali, Hinton non ha lasciato Google per poter criticare la compagnia.

In realtà, da una parte, si è detto troppo vecchio per il lavoro tecnico e, dall’altra, ha deciso di seguire il suo desiderio di parlare dei problemi di sicurezza dell’Ia senza dovermi preoccupare di come ciò interagisce con l’attività di Google, cioè senza l’autocensura che ogni manager di una compagnia di impone quando parla in pubblico.

L’informatico ha così definito la nuova generazione di modelli linguistici di grandi dimensioni, e in particolare ChatGpt, come alieni atterrati sulla terra senza che la gente se ne sia resa conto, “perché parlano un ottimo inglese”. Ed è in questa mancanza di consapevolezza, assieme all’incredibile intelligenza dimostrata dai sistemi Ia, che per Hinton si cela il rischio, piccolo ma per lui molto reale, che lo sviluppo senza limiti delle Ia si possa rivelare disastroso.

Vero o falso?

In particolare, la principale preoccupazione di Hinton riguarda un qualcosa che è già, in parte, davanti ai nostri occhi. Con questi sistemi sempre più abili a imitare la realtà, il rischio principale è che gli esseri umani perdano la capacità di distinguere cosa è vero e cosa è falso, soprattutto data la velocità con cui migliorano e apprendono nuove funzioni e nuove azioni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.