Categorie
Economia Tecnologia

Google, perché non ha rilasciato il suo chatbot Bard anche in Europa

Author: Wired

Google ha annunciato ufficialmente di aver lanciato il suo chatbot a intelligenza artificiale Bard in 180 paesi. Tra questi non c’è nemmeno uno stato membro dell’Unione europea o il Canada. La compagnia del gruppo Alphabet non ha spiegato il perché, ma è facile immaginare che dietro a questa assenza si trovino le disposizioni del Regolamento generale sulla protezione dei dati (Gdpr) e le recenti indagini aperte dai Garanti della privacy di Italia e Canada su ChatGtp.

Nel suo sito di assistenza agli utenti, Google elenca tutti i paesi in cui è disponibile Bard, ma sopra alla lista appare un importante avviso in cui si può recepire un velato indizio sul perché diversi stati mancano all’appello. “Bard è attualmente disponibile in 3 lingue e in 180 paesi e territori – si legge -. Ci espanderemo gradualmente in altri paesi e territori in modo coerente con le normative locali”.

Insomma, nonostante ci sia la chiara intenzione di non ammetterlo pubblicamente, Google ha teme gli effetti del Gdpr e del nuovo Ai Act di prossima approvazione in Unione europea, per poter rilasciare Bard nei vari stati membri senza le dovute accortezze. Ipotesi confermata dallo stesso chatbot a intelligenza artificiale, che, interrogato tramite Vpn sul tema, ha ammesso che la sua assenza dipende proprio dal regolamento europeo.

Segno che Google non si vuole trovare nella stessa situazione di OpenAi, ossia di dover correre ai ripari ex post, ma vuole fare i compiti a casa per arrivare preparata al confronto con le regole comunitarie in materia di protezione dei dati.

Un discorso simile vale anche per il Canada, dove a fine marzo 2023, il ministro dell’Industria François Philippe Champagne ha fatto finire ChatGpt di OpenAi sotto la lente del Garante della privacy canadese, per verificare il suo rispetto dei dati personali degli utenti, come già avvenuto anche in Italia.

Categorie
Tecnologia

Google I/O 2023: tutte le novità da Pixel Fold a Bard

Author: Wired

Pixel 7a sarà molto probabilmente l’ultimo smartphone economico e compatto della linea. Il display è da 6.1 pollici di tipo oled, il processore è quello proprietario Tensor G2 con 8 GB di ram e 128 o 256 GB interni. La fotocamera principale da 64 megapixel è accompagnata da quella da 13 megapixel ultragrandangolare con l’assistenza della premiata G-Cam, mentre la selfie camera è da 10.8 megapixel. Con una batteria da 4300 mAh ricaricabile a 20 watt, i prezzi partono da 499 dollari.

Pixel Tablet

Google IO 2023 tutte le novità da Pixel Fold a Bard

Pixel Tablet è un modello di livello medio-alto che punta su un display da 10.95” con risoluzione 2560×1600 pixel su pannello lcd, anche qui processore Tensor G2 con 8 GB di ram e 128/256 GB interni, doppia fotocamera da 8 megapixel e una batteria in grado di durare abbondantemente tutta la giornata anche con un uso intensivo. I prezzi americani partono da 499 dollari.

Google Bard e le altre novità

Google Bard è dunque disponibile in ora 180 paesi nel mondo senza lista di attesa, sfruttando il nuovo e consistente modello di linguaggio PaLM 2. Sarà possibile utilizzare non solo prompt testuali ma anche immagini sfruttando le capacità di Lens. La visuale immersiva di Google Maps si estenderà ancora in più città per non sbagliare più strada. Tra le città incluse ci sono anche Firenze e Venezia oltre a Amsterdam, Berlino, Dublino, Las Vegas, Londra, Los Angeles, New York, Miami, Parigi, Seattle, San Francisco, San Jose e Tokyo. Lo strumento Magic Editor di Google Foto può non solo sistemare le immagini caricate, ma può anche ampliarle tramite l’AI, migliorare l’equilibrio dei vari elementi, correggere o eliminare dettagli e ridimensionare oggetti. Infine, WhatsApp arriverà a bordo sugli smartwatch Wear Os dalla prossima estate e la funzione di localizzazione dispositivi di Google (Trova il mio dispositivo) potrà percepire la presenza di tracker indesiderati.

Categorie
Economia Tecnologia

Intelligenza artificiale: appello per bloccare per 6 mesi lo sviluppo

Author: Wired

Il cosiddetto scenario Terminator sta preoccupando i più importanti esperti di intelligenza artificiale (Ia) e i dirigenti del settore. Citando potenziali rischi per la società e per gli esseri umani, circa mille persone, tra cui Elon Musk e i ricercatori di DeepMind, progetto di Google, hanno chiesto di fermare per almeno sei mesi l’addestramento di tutte le IA più potenti di GPT-4, il più avanzato sistema di OpenAi.

“Negli ultimi mesi, i laboratori di Ia hanno cominciato una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti, che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile”, sostengono Musk, i ricercatori di DeepMind di Alphabet e altri esperti mondiali dell’intelligenza artificiale come il canadese Yoshua Bengio, il britannico Stuart Russel e l’italiana Francesca Rossi, global leader per l’etica dell’Ia in Ibm.

Assieme a loro, altri mille scienziati, dirigenti ed esperti hanno sottoscritto la lettera aperta pubblicata dal Future for life institute, un’organizzazione senza scopo di lucro, il cui scopo è tenere sotto controllo i potenziali rischi catastrofici ed esistenziali posti all’umanità dallo sviluppo delle nuove tecnologie e, in particolare, dalle intelligenze artificiali.

L’appello

Nel lanciare il suo allarme, la lettera sottolinea come i sistemi di intelligenza artificiale come ChatGPT stiano diventando sempre più competitivi con gli esseri umani, aprendo a una serie di domande fondamentali. Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, renderci obsoleti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà?” si legge.

E a questi interrogativi, fino a oggi quasi esclusivamente fantascientifici, gli esperti hanno dato una risposta molto chiara: Queste decisioni non devono essere delegate a leader tecnologici non eletti”. Un’affermazione che riporta sul piano politico un dibattito etico fondamentale sullo sviluppo e sul futuro dell’umanità.

“Pertanto – continua la lettera – chiediamo a tutti i laboratori di Ia di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di aA più potenti di Gpt-4. Questa pausa deve essere pubblica, verificabile e deve includere tutti gli attori chiave. Se tale pausa non verrà attuata rapidamente, i governi dovrebbero intervenire per imporla”.

Pausa allo scopo di sviluppare e implementare “congiuntamente” una serie di protocolli di sicurezza condivisi, per rendere i sistemi di Ia più avanzati sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali. Allo stesso tempo, i governi dovrebbero “accelerare drasticamente lo sviluppo di solidi sistemi di governance delle Ia”, istituendo nuove autorità di regolamentazione, controllo, monitoraggio e sorveglianza, in grado di affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che saranno causati dalle Ia”.