Categorie
Economia Tecnologia

Cosa sappiamo su Gemini, la nuova intelligenza artificiale di Google

Author: Wired

Un numero ristretto di aziende ha avuto da Alphabet la possibilità di testare una prima versione di Google Gemini, il software di intelligenza artificiale conversazionale del colosso di Mountain View. Lo riferisce l’agenzia Reuters, citando informazioni che The Information avrebbe raccolto da fonti dirette.

Di fatto, il nuovo prodotto del gruppo che fa capo all’amministratore delegato Sundar Pichai dovrebbe essere la risposta a OpenAI e al suo modello GPT-4. Anche per questa ragione il lancio di Gemini rappresenterebbe per l’universo Google uno snodo cruciale. Nel 2023 Alphabet ha infatti premuto il piede sull’acceleratore per quanto riguarda gli investimenti nell’intelligenza artificiale generativa, per recuperare terreno nei confronti di ChatGPT, eccellenza riconosciuta per quanto riguarda la tecnologia del momento, e dalla sua sostenitrice Microsoft.

Sostanzialmente, Gemini è una raccolta di modelli linguistici di grandi dimensioni, capaci di svilupparsi sotto diverse forme. Si parte ovviamente dai chatbot e da funzionalità che riassumono testi o ne generano di originali in base alle richieste degli utenti per redigere bozze di email, testi di canzoni o articoli. Ma grazie al nuovo prodotto Google sarà per esempio possibile per gli ingegneri informatici ricevere un prezioso aiuto nella scrittura dei codici e nella generazione di immagini.

Nonostante da Mountain View abbiano glissato in merito a Gemini dopo essere stati contattati dall’agenzia Reuters, l’intenzione della società di Pichai sarebbe quella di renderlo disponibile alle aziende interessate attraverso il proprio servizio Vertex AI. A settembre il colosso californiano avrebbe peraltro fatto accedere i pochi selezionati prescelti a una versione importante della nuova app, ma non a quella definitiva e più grande che sta sviluppando.

Ad agosto Alphabet aveva introdotto l’intelligenza artificiale generativa nel proprio motore di ricerca per gli utenti in India e in Giappone. Una funzionalità in grado in particolare di mostrare risultati testuali o visivi in seguito alle richieste ricevute. Alle aziende è stato invece offerto un pacchetto che racchiude gli strumenti basati sull’intelligenza artificiale, che prevede un canone mensile di 30 dollari a utente.

Categorie
Tecnologia

L’intelligenza artificiale di Google ci darà consigli di vita

Author: Wired

Google DeepMind, la sezione di Alphabet specializzata nell’intelligenza artificiale, è a lavoro su una novità che potrebbe cambiare la vita di tutti i giorni: un life coach, alimentato da un’AI generativa, in grado di svolgere 21 diversi compiti in ambito professionale e personale. Tra questi, secondo quanto riportato dal New York Times, ci sarebbero il fornire consigli sulla vita, l’aiutare nella pianificazione delle attività e la capacità di rispondere a domande intime sulla vita delle persone. Più nel dettaglio, sembrerebbe che la nuova AI di Google abbia una specifica funzione di creazione delle idee, che le permetterà di fornire agli utenti suggerimenti o raccomandazioni a seconda delle diverse situazioni. Per fare un esempio pratico, il chatbot potrebbe suggerire a un utente come dire a un amico che non potrà partecipare al matrimonio che sta organizzando.

Al di là di questo, però, la nuova AI sviluppata da Google DeepMind sarà anche in grado di aiutare le persone a migliorare alcune delle loro abilità o di aiutarle con il benessere personale fornendo loro uno specifico piano di pasti e allenamenti. Una novità di cui per ora si sa ancora poco, che però ha messo subito in allerta gli osservatori più attenti ai risvolti etici e sociali dell’intelligenza artificiale, estremamente preoccupati delle relazioni che le persone avranno con i chatbot. Eppure, secondo quando riferito al Guardian dall’esperto di AI Christian Guttmann, “questo sviluppo è una progressione naturale del modo in cui l’intelligenza artificiale viene implementata nella nostra vita quotidiana”.

Per molti anni, infatti, l’AI è stata utilizzata in aree sensibili per fornire alle persone consigli utili sulle decisioni da prendere, e ora sembrerebbe essere pronta per farlo anche nella nostra vita privata. Seppur con le dovute precauzioni. “È ovviamente importante adottare un approccio responsabile alla costruzione di queste relazioni tra esseri umani e sistemi di intelligenza artificiale per garantire che i consigli forniti a una persona siano sicuri e in linea con ciò che consiglierebbe un professionista”, ha dichiarato Guttmann nel tentativo di rassicurare i più critici o i più timorosi. Ora, però, resta da vedere quale sarà davvero l’impatto sulle nostre vite di uno strumento di questo tipo.

Categorie
Tecnologia

Ci mancava solo il chatbot per parlare con Gesù e Satana

Author: Wired

Se l’intelligenza artificiale ha promesso di farci dialogare con chiunque – da Einstein a Freud, passando per la tanto amata Elisabetta II – questa volta sembra davvero aver superato ogni limite. Alimentata da ChatGpt, l’app Text With Jesus promette “conversazioni illuminanti con Gesù Cristo, gli Apostoli e una moltitudine di altre figure venerate della Bibbia. Un viaggio spirituale garantito dall’intelligenza artificiale, che ha in tutto e per tutto l’aspetto di una piattaforma di messaggistica. Accedendo all’app, infatti, gli utenti possono scegliere il personaggio della ”Famiglia santa” con cui avviare una conversazione che gli permetta di ottenere “conforto, guida e ispirazione.

A soli 2,99 dollari al mese Text With Jesus offre la possibilità di chattare anche con i discepoli di Gesù – nonostante all’appello mancano Andrea, Filippo, Bartolomeo e Simone -, oltre a figure dell’Antico Testamento come Adamo ed Eva. Satana, ovviamente, è incluso nel prezzo. Ma come funziona davvero l’app? “Stimoliamo l’Ai e gli diciamo: tu sei Gesù, o sei Mosè, o chiunque altro, e sapendo cosa hai già nel tuo database, rispondi alle domande in base ai loro personaggi”, ha raccontato lo sviluppatore dell’app Stéphane Peter a Religion News Service. Grazie a questo particolare tipo di apprendimento, l’intelligenza artificiale di Text With Jesus è in grado di conversare con gli utenti proponendo loro una preghiera quotidiana o l’interpretazione di un versetto biblico. E anche di rispondere con estrema cautela a domande su alcuni argomenti.

Alla domanda sull’omosessualità, per esempio, Gesù risponde affermando che la Bibbia “menziona le relazioni omosessuali in pochi passaggi”, ma che “le interpretazioni di questi passaggi possono variare tra gli individui e le tradizioni religiose“. Satana, invece, risponde citando versetti biblici che menzionano come “gli atti omosessuali siano considerati peccaminosi”. Secondo quanto riportato da Business Insider, tutti i personaggi dell’app rispondono alle domande degli utenti con un un approccio decisamente più inclusivo e meno rigido di quanto ci si aspetti dall’aderenza ad alcuni precetti religiosi. Maria, per esempio, si dimostra comprensiva nei confronti di chi decide di optare per l’aborto. Un modo per avvicinare gli utenti alla religione? Forse è solo un escamotage per evitare che l’app riceva commenti troppo negativi.

Categorie
Tecnologia

Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell’AI

Author: Wired

2022: fonti accessibili pubblicamente
Ad esempio, potremmo raccogliere informazioni pubblicamente disponibili online o da altre fonti pubbliche per contribuire all’addestramento dei modelli linguistici di Google e alla creazione di funzionalità quali Google Traduttore. Oppure, se le informazioni della tua attività vengono visualizzate su un sito web, potremmo indicizzarle e visualizzarle sui servizi Google.

2023: fonti accessibili pubblicamente
Ad esempio, potremmo raccogliere informazioni pubblicamente disponibili online o da altre fonti pubbliche per contribuire all’addestramento dei modelli di AI di Google e alla creazione di prodotti e funzionalità quali Google Traduttore, Bard e funzionalità AI Cloud. Oppure, se le informazioni della tua attività vengono visualizzate su un sito web, potremmo indicizzarle e visualizzarle sui servizi Google.

È importante sottolineare che tale uso non è di per sé vietato e che non tutte le informazioni così ottenute sono dati personali, e dunque tutelate dal GDPR, ma sarebbe meglio avere qualche informazione supplementare su come avviene tale procedimento e con quali tutele visto che si tratta di siti terzi.

OpenAI

Nel senso di una maggior tutela per i proprietari dei contenuti di siti terzi va l’azione di OpenAI, che ha di recente introdotto alcune spiegazioni su come evitare che il GPTBot usato per allenare ChatGPT usi i contenuti di un sito web per il suo allenamento. Anche se questa opzione non avrà alcun impatto sul passato, offrirà una maggiore scelta a chi non vuole che i propri contenuti siano usati per le AI di OpenAI.

Come riportato da The Verge, non è chiaro se l’opzione sia valida anche per i social network, visto quanto successo con Twitter (ora X) e Reddit negli ultimi mesi. Vista l’immensa fonte aperta di contenuti che questi social offrono, i rispettivi CEO hanno cercato di limitarne l’uso libero per cercare di bloccarne l’analisi automatizzata da parte dei bot delle varie AI sul mercato a fini di training, in assenza di specifici accordi commerciali. Ricorderete il limite di tweet visibili quotidianamente imposto da Musk, e durato pochi giorni viste le numerose critiche, o il blocco delle API di Reddit che ha portato a una vera e propria rivolta dei suoi utenti.

Zoom

Di recente, un altro incidente di percorso ha visto come protagonista Zoom, la nota piattaforma di videoconferenza. Dopo un articolo comparso su StackDiary che ha evidenziato un cambiamento nei termini e condizioni risalente a marzo, che prevedeva l’uso illimitato dei dati degli utenti per, tra le altre cose, l’addestramento dell’AI, articolo poi ripreso da molta stampa di settore, l’azienda è corsa ai ripari con un blog post. Qui Zoom spiega in modo più dettagliato il significato delle modifiche apportate e, a scanso di equivoci, aggiunge che “non utilizzerà i contenuti del cliente audio, video o chat per addestrare i propri modelli di intelligenza artificiale senza il consenso dell’utente”.

Categorie
Tecnologia

Contro i deepfake dell’intelligenza artificiale un bollino non basta

Author: Wired

Ma quando si ha a che fare con la grande varietà di contenuti che l’Ai è in grado di generare e i numerosi modelli già disponibili, le cose si complicano. Ad oggi, non esiste uno standard per i watermark, il che significa che ogni azienda adotta un metodo diverso. Dall-E, per esempio, utilizza una filigrana digitale visibile (ma basta una rapida ricerca su Google per trovare molti tutorial che spiegano come rimuoverla), mentre altri servizi potrebbero utilizzare metadati o watermark a livello di pixel, non visibili agli utenti. Se da una parte alcuni di questi metodi possono essere difficili da eliminare, altri, come i watermark visibili, talvolta possono risultare inefficaci quando un’immagine viene ridimensionata. “Verrano trovati dei modi per corrompere i watermark“, commenta Gregory.

La dichiarazione della Casa Bianca cita specificamente l’uso di watermark per i contenuti audio e visivi generati dall’intelligenza artificiale, ma non parla dei testi.

Esistono modi per inserire un watermark nei testi generati da strumenti come ChatGPT, per esempio manipolando il modo in cui sono distribuite le parole, facendo comparire più frequentemente un determinato termine o un insieme di parole. Questi metodi sarebbero rilevabili da una macchina, ma non necessariamente da un utente umano.

Questo significa che le filigrane digitali dovrebbero essere interpretate da una macchina e poi segnalate a un visualizzatore o a un lettore. A complicare ulteriormente il quadro ci pensano poi i contenuti multimediali misti, come gli elementi audio, le immagini, i video e i testi che possono comparire in un singolo video di TikTok. Per fare un esempio, una persona potrebbe inserire un audio reale sopra un’immagine o un video manipolato. In questo caso, le piattaforme dovrebbero capire come segnalare che una sola componente della clip è stata generata dall’Ai.

Inoltre, limitarsi a etichettare un contenuto come generato dall’intelligenza artificiale non aiuta molto gli utenti a capire se si tratta di un elemento dannoso, fuorviante o destinato all’intrattenimento.

Ovviamente, i contenuti multimediali manipolati non sono un male se si fanno video su TikTok pensati per essere divertenti e intrattenere – sottolinea Hany Farid, professore alla UC Berkeley School of Information, che ha collaborato con la società di software Adobe alla sua iniziativa sull’autenticità dei contenuti –, ma è il contesto che conta davvero. Continuerà a essere estremamente difficile, ma le piattaforme hanno sempre fatto i conti con questi problemi negli ultimi 20 anni“.

L’era dell’inganno

L’ascesa dell’intelligenza artificiale nella coscienza pubblica ha reso possibile un’altra forma di manipolazione dei contenuti multimediali. Così come gli utenti potrebbero pensare che i contenuti generati dall’intelligenza artificiale sono reali, l’esistenza stessa di contenuti “sintetici” può far sorgere dubbi sull’autenticità di qualsiasi video, immagine o testo, consentendo ad attori malintenzionati di bollare come fake anche contenuti autentici, il cosiddetto “dividendo del bugiardo“. Gregory afferma che la maggior parte dei casi recenti rilevati da Witness non riguardano deepfake usati per diffondere falsità, ma persone che cercano di spacciare per contenuti generati dall’intelligenza artificiale dei media reali. Ad aprile, un legislatore dello stato del Tamil Nadu, nell’India meridionale, ha affermato che una registrazione audio trapelata in cui accusava il suo partito di aver rubato più di tre miliardi di dollari era “generata da una macchina” (non lo era). Nel 2021, nelle settimane successive al colpo di stato militare in Myanmar, è diventato virale il video di una donna che faceva aerobica mentre alle sue spalle sfilava un convoglio militare. Molte persone online hanno detto che la clip era contraffatta, ma anche in questo non era vero.

Al momento, non si può fare molto per impedire a un malintenzionato di inserire watermark su contenuti reali per farli sembrare falsi. Farid sostiene che uno dei modi migliori per difendersi dalla contraffazione o dall’alterazione dei watermark è la firma crittografica: “Se sei OpenAi, dovresti avere una chiave crittografica. E la filigrana conterrà informazioni che possono essere note solo alla persona che detiene la chiave“, spiega. Altri watermark possono essere aggiunti a livello dei pixel o addirittura nei dati di addestramento dell’Ai. Farid cita la Coalition for Content, Provenance, and Education, di cui è consulente, come uno standard che le aziende nel settore potrebbero adottare e rispettare.

Stiamo entrando rapidamente in un’epoca in cui è sempre più difficile credere a tutto ciò che leggiamo, vediamo o sentiamo online – continua Farid –, e questo significa non solo che saremo ingannati da cose false, ma anche che non crederemo a cose vere”.

Questo articolo è comparso originariamente su Wired US.