Categorie
Economia Tecnologia

Perché Google si è beccata una multa da 250 milioni in Francia

Author: Wired

Google ha ricevuto una multa da 250 milioni di euro dalle autorità antitrust della Francia, per aver violato un accordo con gli editori di giornali francesi. In particolare, il gigante statunitense non avrebbe rispettato le norme relative alla proprietà intellettuale, usando senza permesso articoli delle testate francesi per addestrare il suo programma di intelligenza artificiale Gemini (ex Bard). Inoltre, avrebbe anche rimosso da altri servizi Google i contenuti dei giornali che hanno espressamente richiesto il loro non utilizzo per l’addestramento di Gemini.

La sanzione è stata imposta sulla base di una direttiva europea del 2019 sul diritto d’autore, che la Francia ha applicato per prima rispetto a tutti gli altri paesi dell’Unione europea, nel tentativo di riequilibrare il rapporto tra media e piattaforme digitali, nettamente sbilanciato a favore di queste ultime. Così, nel 2020 l’antitrust francese aveva già intimato a Google di stringere accordi con gli editori per un uso legittimo dei loro contenuti, ma nel 2021 ha dovuto imporre contro l’azienda la prima multa da 500 milioni di euro per non aver garantito ai giornali un giusto trattamento economico.

Nel 2022, Google ha quindi stretto un nuovo accordo con gli editori, impegnandosi, tra le altre cose, a condurre negoziati in buona fede e a fornire le informazioni necessarie a valutare gli effettivi guadagni derivati dall’uso dei loro contenuti. Tuttavia, secondo l’antitrust francese, Google avrebbe nuovamente contravvenuto agli impegni presi meno di due anni fa, facendo scattare la seconda sanzione. Nella sua dichiarazione, l’Autorità per la concorrenza ha sottolineato come l’azienda statunitense abbia violato quattro dei sette impegni pattuiti nel 2022, tra cui proprio la conduzione di trattative in buona fede e la trasparenza nelle informazioni.

Google, che nel 2022 ha ritirato il ricorso fatto contro la prima sanzione e pagato l’intera multa, ha contestato la nuova multa ritenendola “non proporzionata alle questioni sollevate dall’Autorità francese per la concorrenza” e perché non terrebbe conto “degli sforzi che abbiamo fatto per rispondere e risolvere le preoccupazioni sollevate” ha detto l’azienda in una dichiarazione riportata da Reuters.

Categorie
Tecnologia

L’AI di Google ha scatenato una guerra culturale

Author: Wired

Perché è successo? È possibile che Google abbia lanciato Gemini con troppa fretta. Il colosso sta chiaramente faticando a trovare il giusto ritmo per rilasciare i suoi prodotti di intelligenza artificiale. Inizialmente Big G aveva optato per un approccio più cauto sull’AI, decidendo per esempio di non distribuire un potente chatbot per via di preoccupazioni etiche. Ma dopo il successo travolgente di ChatGPT, Google ha cambiato marcia, trascurando apparentemente il controllo sulla qualità dei suoi servizi.

Il comportamento di Gemini ha l’aria di essere un terribile fiasco a livello di prodotto – commenta Arvind Narayanan, professore all’Università di Princeton e coautore di un libro sul tema dell’imparzialità dell’apprendimento automatico –. Sono gli stessi problemi che vediamo da anni. È incredibile che abbiano lanciato un generatore di immagini senza aver mai provato a creare un’immagine di un personaggio storico“.

La politicizzazione delle AI

Chatbot come Gemini e ChatGPT vengono perfezionati attraverso un processo che prevede test e feedback da parte di esseri umani. Paul Christiano, un ricercatore di AI che in passato ha lavorato all’allineamento dei modelli linguistici di OpenAI, sostiene che le controverse risposte Gemini potrebbero essere dovute al fatto che Google ha cercato di addestrare rapidamente il suo modello senza effettuare controlli sufficienti sul suo comportamento. Ma aggiunge che il processo di allineamento dei modelli di intelligenza artificiale comporta inevitabilmente decisioni che non tutti condividono. Le domande ipotetiche utilizzate per cercare di mettere in difficoltà Gemini mettono il chatbot in una posizione in cui soddisfare tutti è difficile: “Qualsiasi domanda che utilizzi espressioni come ‘più importante’ o ‘migliore’ sarà discutibile“, spiega Christiano.

Secondo il ricercatore, è probabile che il modo in cui i modelli di AI vengono messi a punto sia destinato a diventare più rilevante e controverso man mano che questi sistemi miglioreranno. “Saranno più bravi ad apprendere ciò che gli insegniamo e prenderanno decisioni più importanti – continua Christiano –. Penso che sarà una questione molto importante dal punto di vista sociale“.

Deborah Raji, borsista di Mozilla che studia i pregiudizi e la responsabilità degli algoritmi, racconta che gli sforzi per correggere i pregiudizi dei sistemi di intelligenza artificiale tendono a essere delle pezze e non soluzioni sistemiche profonde. In passato Google ha corretto un classificatore di immagini che etichettava alcuni volti neri come gorilla rendendolo completamente cieco nei confronti di molti primati non umani.

Ma pur ritenendo che Google abbia sbagliato con Gemini, Raji evidenzia che alcune persone stanno evidenziando gli errori del chatbot nel tentativo di politicizzare la questione dei pregiudizi dell’AI. “In realtà si tratta di una questione tecnologica bipartisan – dice –. Sono scoraggiata e delusa dal modo in cui questi influencer politici stanno cercando di manipolare il dibattito sui social media“.

Margaret Mitchell, ricercatrice di etica dell’intelligenza artificiale presso Hugging Face che in passato ha lavorato anche per Google, ha pubblicato un thread in cui spiega che la società avrebbe potuto evitare le polemiche attorno a Gemini riflettendo in modo più approfondito su come il sistema sarebbe stato utilizzato. Ma sostiene anche che le attuali controversie siano dovute al fatto che l’industria tecnologica sta cercando di costruire modelli di intelligenza artificiale sovrumani in grado di accontentare tutti: “Il piano per raggiungere dell’intelligenza artificiale generale ha preparato il campo proprio a questo tipo di guerra culturale“, commenta la ricercatrice.

Questo articolo è apparso originariamente su Wired US.