Categorie
Tecnologia

OpenAi è pronta a collaborare con l’Europa sulle nuove regole sull’intelligenza artificiale

Author: Wired

Stiamo dialogando e sosteniamo i vertici della Commissione europea per iniziare a studiare come applicare il regolamento dell’Ai Act perché crediamo che i governi democratici debbano regolamentare questo settore, per fare in modo che vada a vantaggio di tutti e che non ci siano abusi”. Lo ha detto Anna Makanju, a capo delle politiche pubbliche di OpenAi, la società che ha sviluppato ChatGpt, nel corso della sua audizione presso il comitato di vigilanza sull’attività di documentazione della Camera dei deputati sul tema dell’intelligenza artificiale. “So che ci sono ancora dei temi aperti e bisognerà trovare una sintesi tra le diverse proposte, quelle di Presidenza, Parlamento e Consiglio, ma l’ultima bozza approvata dal Parlamento europeo sembra andare nella direzione giusta, soprattutto per quello che riguarda il rafforzamento delle misure di trasparenza nell’interazione con l’intelligenza artificiale: dobbiamo capire come applicarla nelle diverse funzioni dell’Ai, ma ci stiamo lavorando. Abbiamo anche avuto un interessante scambio sugli spazi di sperimentazione normativa: saremo pronti a farne uso e di questo abbiamo parlato la scorsa settimana con il commissario pertinente”, ha aggiunto la manager di OpenAi.

Sicurezza e trasparenza

Gli incontri hanno lo scopo di studiare l’applicazione dell’Ai all’interno della documentazione parlamentare a supporto dell’attività del Parlamento. Il comitato, presieduto dalla vicepresidente della Camera, Anna Ascani, in questa seduta focalizzato il suo interesse sulle potenzialità e le criticità dell’intelligenza artificiale nei confronti del grande pubblico. Alcune delle domande rivolte dal comitato alla rappresentante di OpenAi sono state generate proprio da ChatGpt4: al centro dei quesiti la sicurezza dei dati personali l’attendibilità delle fonti da cui vengono generate le risposte e la prevenzione delle fake news e contenuti pericolosi:

La nostra priorità è la sicurezza – ha spiegato Anna Makanju – e per questo, con un lavoro di sei mesi, abbiamo implementato lavorato sul modello Gpt4 per renderlo molto più sicuro del precedente: solo allora lo abbiamo lanciato sul mercato. Contiene una serie di mitigazioni che impediscono la creazione di contenuti nocivi e per metterle a punto ci siamo avvalsi di esperti esterni. L’addestramento non avviene sui dati del cliente, che vengono salvati solo per 30 giorni, proprio per garantire che non ci siano abusi o che vengano utilizzati per truffe o scopi commerciali. Tra l’altro, gli stessi utenti possono disabilitare la funzione ‘addestramento’ e così essere certi che le informazioni personali non vengano in alcun modo utilizzate per generare le risposte del modello”.

La manager ha aggiunto: “Abbiamo implementato dei database su fonti scientifiche per garantire che il modello possa disporre di una base certa di conoscenza più valida possibile. Anche ciò che proviene da internet viene filtrato dal nostro staff di addestramento, quindi non è un semplice copia-incolla: il nostro modello apprende, quindi man mano che impara capisce il significato dell’informazione e in un certo modo è come se la comprenda. Per prevenire la disinformazione, abbiamo impedito la creazione di chatbot con contenuti politici, questo per evitare che vi sia un proliferare di informazioni non corrette o di parte. Stiamo poi avorano anche sulle filigrane delle immagini per impedire alle persone di generare foto problematiche, pornografiche o violente. Le risposte, ovviamente, non sono ancora del tutto affidabili: le informazioni, per non essere suscettibili di quelle che definiamo ‘allucinazioni’, richiedono l’aumento di interazioni da parte degli utenti. Saranno mostrate le fonti per permettere alle persone di verificare di persona l’attendibilità delle informazioni. Serviranno però campagne di alfabetizzazione sull’intelligenza artificiale, per educare le persone ad utilizzare questi strumenti: noi produciamo un modello, poi bisogna lavorare con chi lo distribuisce”.

L’Ai farà perdere posti di lavoro?

Altro tema affrontato durante l’audizione, l’impatto della nuova tecnologia sul mondo del lavoro, su quanto l’automazione porterà alla perdita di posti di lavoro. “Questo strumento – ha spiegato ancora Anna Makanju – elimina compiti e mansioni, ma non per forza posti di lavoro: sicuramente ci sarà un impatto su una serie di professioni ma questo non significa che venga meno quella forza lavoro. In fase di addestramento pensavamo che, per esempio, l’ingegneria del software non fosse più necessaria, ma poi ci siamo resi conto che il tempo che prima si impiegava a redigere i codici sarebbe poi stato impegnato dagli stessi ingegneri informatici per revisionarli. L’Ai può essere utilizzata per preparare un testo legale, ma poi, come è stato dimostrato recentemente negli Stati Uniti, ci deve essere una revisione del prodotto finale. Probabilmente alcuni posti di lavoro verranno eliminati ma molti ne saranno creati e saranno professioni nuove, più creative, più strategiche”.

Author: Wired

Stiamo dialogando e sosteniamo i vertici della Commissione europea per iniziare a studiare come applicare il regolamento dell’Ai Act perché crediamo che i governi democratici debbano regolamentare questo settore, per fare in modo che vada a vantaggio di tutti e che non ci siano abusi”. Lo ha detto Anna Makanju, a capo delle politiche pubbliche di OpenAi, la società che ha sviluppato ChatGpt, nel corso della sua audizione presso il comitato di vigilanza sull’attività di documentazione della Camera dei deputati sul tema dell’intelligenza artificiale. “So che ci sono ancora dei temi aperti e bisognerà trovare una sintesi tra le diverse proposte, quelle di Presidenza, Parlamento e Consiglio, ma l’ultima bozza approvata dal Parlamento europeo sembra andare nella direzione giusta, soprattutto per quello che riguarda il rafforzamento delle misure di trasparenza nell’interazione con l’intelligenza artificiale: dobbiamo capire come applicarla nelle diverse funzioni dell’Ai, ma ci stiamo lavorando. Abbiamo anche avuto un interessante scambio sugli spazi di sperimentazione normativa: saremo pronti a farne uso e di questo abbiamo parlato la scorsa settimana con il commissario pertinente”, ha aggiunto la manager di OpenAi.

Sicurezza e trasparenza

Gli incontri hanno lo scopo di studiare l’applicazione dell’Ai all’interno della documentazione parlamentare a supporto dell’attività del Parlamento. Il comitato, presieduto dalla vicepresidente della Camera, Anna Ascani, in questa seduta focalizzato il suo interesse sulle potenzialità e le criticità dell’intelligenza artificiale nei confronti del grande pubblico. Alcune delle domande rivolte dal comitato alla rappresentante di OpenAi sono state generate proprio da ChatGpt4: al centro dei quesiti la sicurezza dei dati personali l’attendibilità delle fonti da cui vengono generate le risposte e la prevenzione delle fake news e contenuti pericolosi:

La nostra priorità è la sicurezza – ha spiegato Anna Makanju – e per questo, con un lavoro di sei mesi, abbiamo implementato lavorato sul modello Gpt4 per renderlo molto più sicuro del precedente: solo allora lo abbiamo lanciato sul mercato. Contiene una serie di mitigazioni che impediscono la creazione di contenuti nocivi e per metterle a punto ci siamo avvalsi di esperti esterni. L’addestramento non avviene sui dati del cliente, che vengono salvati solo per 30 giorni, proprio per garantire che non ci siano abusi o che vengano utilizzati per truffe o scopi commerciali. Tra l’altro, gli stessi utenti possono disabilitare la funzione ‘addestramento’ e così essere certi che le informazioni personali non vengano in alcun modo utilizzate per generare le risposte del modello”.

La manager ha aggiunto: “Abbiamo implementato dei database su fonti scientifiche per garantire che il modello possa disporre di una base certa di conoscenza più valida possibile. Anche ciò che proviene da internet viene filtrato dal nostro staff di addestramento, quindi non è un semplice copia-incolla: il nostro modello apprende, quindi man mano che impara capisce il significato dell’informazione e in un certo modo è come se la comprenda. Per prevenire la disinformazione, abbiamo impedito la creazione di chatbot con contenuti politici, questo per evitare che vi sia un proliferare di informazioni non corrette o di parte. Stiamo poi avorano anche sulle filigrane delle immagini per impedire alle persone di generare foto problematiche, pornografiche o violente. Le risposte, ovviamente, non sono ancora del tutto affidabili: le informazioni, per non essere suscettibili di quelle che definiamo ‘allucinazioni’, richiedono l’aumento di interazioni da parte degli utenti. Saranno mostrate le fonti per permettere alle persone di verificare di persona l’attendibilità delle informazioni. Serviranno però campagne di alfabetizzazione sull’intelligenza artificiale, per educare le persone ad utilizzare questi strumenti: noi produciamo un modello, poi bisogna lavorare con chi lo distribuisce”.

L’Ai farà perdere posti di lavoro?

Altro tema affrontato durante l’audizione, l’impatto della nuova tecnologia sul mondo del lavoro, su quanto l’automazione porterà alla perdita di posti di lavoro. “Questo strumento – ha spiegato ancora Anna Makanju – elimina compiti e mansioni, ma non per forza posti di lavoro: sicuramente ci sarà un impatto su una serie di professioni ma questo non significa che venga meno quella forza lavoro. In fase di addestramento pensavamo che, per esempio, l’ingegneria del software non fosse più necessaria, ma poi ci siamo resi conto che il tempo che prima si impiegava a redigere i codici sarebbe poi stato impegnato dagli stessi ingegneri informatici per revisionarli. L’Ai può essere utilizzata per preparare un testo legale, ma poi, come è stato dimostrato recentemente negli Stati Uniti, ci deve essere una revisione del prodotto finale. Probabilmente alcuni posti di lavoro verranno eliminati ma molti ne saranno creati e saranno professioni nuove, più creative, più strategiche”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.