Categories: EconomiaTecnologia

I colossi dell’intelligenza artificiale non sono pronti per l’Ai Act europeo

Author: Wired

La legge europea sull’intelligenza artificiale, l’Ai Act, è quasi pronta e rappresenta il primo tentativo di normare, nel modo più ampio possibile, lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale. Dalla trasparenza al grado di rischio che gli algoritmi di deep learning pongono livello sociale (soprattutto in termini di sorveglianza), dal divieto di utilizzare alcune controverse tecnologie (come il riconoscimento emotivo) fino all’energia richiesta per l’addestramento e l’utilizzo di questi sistemi: per le società che si occupano di intelligenza artificiale, l’Ai Act rappresenta un test di fondamentale importanza.

Non solo per evitare di essere tagliati fuori da un mercato di fondamentale importanza come quello europeo, ma soprattutto perché – come già avvenuto con il Gdpr, il regolamento sulla privacy – la legge dell’Unione europea sull’intelligenza artificiale potrebbe diventare un esempio a cui guarderanno, a livello globale, tutti gli stati e le istituzioni intenzionate a regolamentare l’utilizzo di una tecnologia che sta ponendo sfide inedite.

Non è tutto: dando per scontato che, come già avvenuto sempre con il Gdpr, l’Unione europea deciderà di applicare rigidamente le sue norme, è probabile che i colossi dell’intelligenza artificiale dovranno uniformare i loro prodotti indipendentemente dal mercato di destinazione, per evitare di complicare enormemente il processo di sviluppo.

E allora, quanto sono pronti i vari OpenAI, Google, Hugging Face, Meta e non solo a rispettare le norme che stanno per essere definitivamente varate dall’Unione Europea (tenendo in considerazione che alcuni elementi potrebbero ancora cambiare nelle ultime fasi di discussione)?

La ricerca:

  1. Lo studio
  2. Dove stanno i big
  3. Come migliorare i provvedimento

Le pagelle degli studiosi di Stanford

Lo studio

I ricercatori di Stanford del neonato Center for Research on Foundation Models hanno provato a rispondere a questa domanda in un paper che indaga il loro livello attuale di adesione alle norme previste. Al momento, sembra che il grado di preparazione sia ancora scarso, anche se i risultati ottenuti dalle varie realtà del settore variano parecchio: “Abbiamo valutato quanto i principali fornitori di foundation models (il nome che alcuni attribuiscono ai nuovi strumenti di intelligenza artificiale generativa, come ChatGPT o MidJourney, ndr) rispettino attualmente i requisiti della bozza europea e abbiamo scoperto che in gran parte non lo fanno”, si legge nel paper.

admin

Recent Posts

Streaming Euro 2024 compromesso da possibili cyber-attacchi russi

Author: Tom's Hardware L'emittente polacca TVP ha annunciato di essere stata vittima di multipli attacchi…

25 Giugno 2024

Palworld su PS5? Il community manager l’avrebbe velatamente confermato

Author: GAMEmag Del fenomeno Palworld abbiamo parlato più volte e fra poco pare tocchi ai…

25 Giugno 2024

What is home battery backup?

Author: Schneider Electric This audio was created using Microsoft Azure Speech Services Power outages are…

25 Giugno 2024

Netflix gratis ma con pubblicità: l’azienda ci sta pensando

Author: IlSoftware Nonostante la concorrenza si stia dimostrando sempre più agguerrita, Netflix resta il più…

25 Giugno 2024

AWS:ReInforce: automated reasoning, IA generativa, protezione delle identità i temi centrali dell’evento dedicato alla cybersecurity

Author: Hardware Upgrade Tre giorni con un calendario fitto di conferenze e di incontri con…

25 Giugno 2024

So lebt Michael Jacksons Schimpanse Bubbles heute

Author: klatsch-tratsch Michael Jackson 1986 mit Bubbles auf der Neverland-Ranch. (rho/spot)imago/Cinema Publishers CollectionSpotOn News |…

25 Giugno 2024