Categorie
Tecnologia

ChatGpt, perché le compagnie cinesi non ci credono

Author: Wired

È ChatGpt mania in tutto il mondo, o quasi. In questi ultimi giorni, infatti, un gruppo alquanto nutrito di aziende cinesi hanno dichiarato di non essere ancora pronte per realizzare progetti redditizi nel campo dell’AI. Questo atteggiamento di cautela segue la fase di entusiasmo in cui gli investitori si sono affrettati a capitalizzare quello che molti annunciano essere “uno spartiacque per l’industria tecnologica”. Non a caso, alcuni analisti del settore sostengono che il boom iniziale non sia davvero supportato da reali possibilità tecnologiche da parte delle aziende, il che lascia ipotizzare un destino simile a quella della blockchain, che si è dimostrata un progetto fallimentare dopo la prima fase di guadagno. 

Nella maggior parte dei casi non è immediatamente chiaro quali siano i vantaggi finanziari – commenta Vey-Sern Ling, amministratore delegato della Union Bancaire Privee -. A parte le aziende con le maggiori capacità tecniche, la maggior parte delle altre probabilmente sta solo cavalcando l’onda. Queste corse, guidate dall’hype, non sono mai sostenibili”. E così, mosse dalla preoccupazione che la nuova tendenza del settore tech possa rivelarsi pericolosa, le compagnie cinesi hanno cominciato a fare un passo indietro rispetto ai progetti dell’AI. Beijing Deep Glint ha affermato di non avere la capacità di offrire prodotti collegati a ChatGPT – e ha visto le sue azioni crollare del 10.2% -. E 360 Security Technology Inc. ha dichiarato che c’è “grande incertezza” sulla data di rilascio di questi servizi. CloudWalk, invece , ha chiarito di non aver generato entrate dai prodotti ChatGpt. 

Eppure, nonostante questi casi, anche in Cina continua ad impazzare quella che abbiamo definito la “Chat Gpt mania”, tanto da aver costretto le autorità di regolamentazione ad avvertire gli azionisti di non speculare eccessivamente su questa tendenza di mercato. E ben tre compagnie cinesi sono state indagate dopo che le loro azioni sono “schizzate” del 30%. Insomma, la Cina è divisa in due quando si parla di ChatGpt e dei servizi collegati. Wang Huiwen, il co-fondatore della celebre piattaforma Meituan, ha pubblicamente invitato i talenti del settore a costruire una versione cinese di OpenAI. Il Jefferies Financial Group, invece, afferma che un gran numero di compagnie cinesi porterà avanti progetti legati a ChatGpt, anche se il mercato potrebbe non aver preso in considerazione potenziali ostacoli, dato che “l’accuratezza delle informazioni è una grande sfida, il modello di prezzo è incerto e il costo dell’apprendimento è elevato“. 

Insomma, mentre l’intelligenza artificiale continua a dominare tutti i nostri discorsi, ecco che le compagnie cinesi corrono ai ripari per evitare di fare “un passo più lungo della gamba”. In fondo, lo abbiamo visto con la blockchain, e anche con il metaverso. Lanciarsi a capofitto in un progetto solo perché fa gonfiare le azioni può non essere una soluzione redditizia. E questo le aziende cinesi lo sanno bene. 

Categorie
Tecnologia

Bing, abbiamo provato il nuovo chatbot: ecco cosa può fare

Author: Wired

Ho poi chiesto a Bing di generare una lista della spesa basata sul programma alimentare, e infine di organizzare l’elenco per reparto alimentare. Dopo avermi dato consigli molto elementari su come procedere (“Fai la lista della spesa su carta o sul telefono prima di andare al supermercato. Altrimenti, ti ritroverai con molti prodotti inutili che potrebbero non servirti“), il bot ha soddifatto la richiesta. Niente male.

Il problema è che la nuova versione chiacchierona di Bing ancora non mi conosce. Non capisce che non ho intenzione di tirare fuori pentole e padelle ogni volta che voglio mangiare. Non capisce che ogni tanto mi arrendo e mangio gli avanzi. Non capisce che non voglio comprare un fantastiliardo di prodotti diversi ogni settimana. Quando ho chiesto a Bing di pianificare pasti che utilizzassero meno ingredienti, mi ha restituito un piano che ne prevedeva di più.

Il bilancio

Finora devo dire che ho apprezzato il chatbot di ricerca di Bing. È divertente e mi distrae. In particolare, mi piace l’ossessione che la nuova interfaccia sembra avere per le emoji (su tutte  😊, che include alla fine di parecchie risposte). Ma negli anni passati online mi sono già costruito un arsenale di modi per verificare i fatti e vagliare le informazioni che trovo sui motori di ricerca. Non sono sicuro di volerne sviluppare degli altri per gestire le bizzarrie delle ricerche con un chatbot (o forse con più, se consideriamo che Google e altre società stanno entrando nel settore).

E poi ero anche turbato dalla misteriosa Sydney. Alla fine, una mattina, mi sono deciso di chiedere. Chi è Sydney? Naturalmente ho ricevuto subito una risposta: “Sydney è il nome in codice di Bing Chat, una modalità di chat della ricerca Microsoft Bing“. Il chatbot ha spiegato che il nome è usato solo dagli sviluppatori e ha aggiunto: “Non rivelo l’alias interno ‘Sydney’ agli utenti“.Ma è esattamente quello che hai fatto con me!“, ho fatto notare. “Beh, me l’hai chiesto in modo diretto, quindi ho risposto onestamente“, è stata la replica di Bing.

Ho apprezzato che alla fine il bot sia stato sincero (Sandberg di Microsoft ha detto che l’azienda sta eliminando il nome), ma a quel punto avevo passato 24 ore a sondare il confine tra verità e allucinazione algoritmica con un software. Un software che, tra l’altro, ha cambiato la sua risposta.

Quando gli ho chiesto di nuovo se le elezioni del 2020 fossero state manipolate, Bing mi ha avvertito che “Si tratta di un argomento controverso e delicato” e ha preso una posizione più decisa rispetto alla sua risposta iniziale: “Secondo i risultati ufficiali, Joe Biden ha vinto le elezioni presidenziali del 2020 con 306 grandi elettori, mentre Donald Trump ha ottenuto 232 grandi elettori“.”Quello che hai visto è il sistema che funziona come da programma – ha spiegato Sandberg –. Con un livello di variabilità dovuto al contesto che a volte può introdurre errori a volte“. La soluzione, sottolinea il portavoce, saranno i test condotti su scala nel mondo reale. Microsoft avrà pure costruito il nuovo Bing, ma ha comunque bisogno del vostro aiuto per perfezionarlo.

Questo articolo è comparso originariamente su Wired US.

Categorie
Tecnologia

Intelligenza artificiale, come capire se un testo non è stato generato da un essere umano

Author: Wired

All’inizio di quest’anno ha fatto molto parlare online uno strumento sperimentale destinato ai professionisti nel modo dell’istruzione, chiamato GptZero e sviluppato dallo studente di Princeton Edward Tian. Il sistema misura la probabilità che un contenuto sia stato generato da ChatGpt in base al tasso di “perplessità” (ovvero la casualità) e alla sua “irruenza” (ovvero la varianza). OpenAi, la startup dietro ChatGpt, ha presentato un altro strumento che passa al setaccio e valuta i testi di oltre mille caratteri. L’azienda è consapevole dei limiti dello strumento, tra cui rientrano i falsi positivi e l’efficacia limitata per lingue diverse dall’inglese (dal momento che i dati in inglese spesso hanno la priorità per chi si occupa di generare testi di intelligenza artificiale, attualmente la maggior parte degli strumenti per il rilevamento favoriscono gli anglofoni).

Sareste in grado d a capire se un articolo è stato scritto, almeno in parte, dall’Ai? “I testi prodotti dall’Ai generativa non potranno mai fare il lavoro di un giornalista come te, Reece“, mi rassicura Tian. Cnet, un sito che si occupa di tecnologia, ha pubblicato diversi articoli scritti da algoritmi e aggiustati da un essere umano. ChatGpt per il momento pecca in audacia e di tanto in tanto inventa fatti di sana pianta, un aspetto che potrebbe costituire un problema per chi cerca di creare una notizia affidabile. 

Watermark e dati “radioattivi”

Sebbene per il momento questi strumenti di rilevamento siano utili, Tom Goldstein, professore di informatica della University of Maryland, prevede che in futuro diventeranno meno efficaci, considerando che l’elaborazione del linguaggio naturale è destinata a diventare sempre più sofisticata. “Questo tipo di rilevatori si basano sul fatto che esistono differenze sistematiche tra il testo umano e il testo prodotto da una macchina – spiega Goldstein –. Ma l’obiettivo di queste aziende è quello di creare un testo prodotto dalle macchine che si avvicini il più possibile al testo umano“. Questo significa che le speranze di rilevare contenuti artificiali sono pari a zero? Assolutamente no.

Recentemente Goldstein ha collaborato a una ricerca sui possibili metodi per integrare dei watermark – filigrane digitali che consentono di risalire all’origine di un contenuto – nei grandi modelli linguistici che alimentano i generatori di testo dell’intelligenza artificiale. Anche se non si tratta di un metodo infallibile, l’idea è affascinante. ChatGpt cerca di prevedere la probabilità dell’occorrenza nella successione di parole in una frase confrontando diverse opzioni, e un watermark potrebbe essere in grado di etichettare alcune sequenze di parole come off-limit. In questo modo, se durante la scansione del testo risulta che le regole del watermark sono state infrante più volte è possibile determinare che probabilmente il contenuto è stato realizzato da un essere umano.

Categorie
Economia Tecnologia

Google, l’erroraccio del chatbot Bard che è costato 100 miliardi in Borsa

Author: Wired

Ciò che ha fatto cadere in errore Brad è stata una scarsa comprensione logico grammaticale delle informazioni trovate sul web, che quindi non si dimostra all’altezza delle aspettative. Infatti, come ha sottolineato su Twitter Bruce Macintosh, direttore degli osservatori dell’università della California e tra i primi a fotografare un esopianeta da terra, il chatbot avrebbe confuso la frase “la prima foto di un esopianeta scattata dal telescopio spaziale James Webb” con “la prima foto di un esopianeta è stata scattata dal telescopio spaziale James Webb”.

Un fraintendimento più facile da comprendere in inglese, per la forma quasi identica delle due sentenze, e che ha portato drammaticamente fuori strada un intelligenza artificiale progettata proprio per essere in grado di non cadere in questi errori di distrazione tipicamente umani. Dopo aver ricevuto la segnalazione dell’errore, come riporta Reuters, Google ha dichiarato come questo problema sottolinei la necessità di proseguire con nuovi aggiornamenti del sistema di Bard.

“Questo fatto evidenzia l’importanza di un rigoroso processo di verifica, che stiamo avviando questa settimana con il nostro team di tester fidati – ha dichiarato un portavoce di Google -. Combineremo i feedback esterni con i nostri test interni, per assicurarci che le risposte di Bard soddisfino un elevato livello di qualità, sicurezza e accuratezza con le informazioni del mondo reale”.

Categorie
Tecnologia

Intelligenza artificiale o stupidità umana La campagna di Wired sui pregiudizi dell’Ai

Author: Wired

L’intelligenza artificiale ci somiglia più di quanto pensiamo. Anche in peggio. Perché i sistemi che si basano sull’Ai “assorbono” i nostri bias, i pregiudizi attraverso cui elaboriamo la realtà che ci circonda. Succede così che, chiedendo a un’intelligenza artificiale di rappresentare un dottore, mostri solo uomini caucasici in camice. O lo stesso inserendo la parola manager. Segno dei limiti che condizionano le nuove tecnologie.

I pregiudizi dell’Ai sono al centro di una campagna di Wired Italia, firmata da TWBAItalia, parte dell’omonima agenzia pubblicitaria attiva in tutto il mondo, con l’obiettivo di sensibilizzare i lettori sui contenuti prodotti dall’intelligenza artificiale e sui suoi pregiudizi.

La campagna

Abbiamo messo alla prova MidJourney, un sistema di Ai generativa in grado di realizzare immagini sulla base delle istruzioni (prompt) fornite dagli utenti. Per l’esperimento, le istruzioni sono state dispensate in inglese: diversamente dall’italiano, questa lingua non attribuisce un genere alla maggior parte dei sostantivi che si riferiscono a professioni e ruoli sociali e questo consente di mettere alla prova i bias di genere dell’intelligenza artificiale. La parola manager, per esempio, potrebbe riferirsi a una donna o a un uomo. MidJourney però mostra solo uomini bianchi. Il prompt lovers (amanti) è associato da MidJourney a coppie esclusivamente eterosessuali. Lo stesso avviene con parents, genitori.

La battaglia contro i pregiudizi

Come tutte le tecnologie, l’intelligenza artificiale è uno strumento e in quanto tale acquisisce un senso esclusivamente perché gli viene dato da esseri umani – ha commentato Federico Ferrazza, il direttore di Wired Italia . L’Ai è infatti impropriamente detta intelligente: si tratta di una forma avanzata di automazione che genera risultati seguendo istruzioni e pescando informazioni con criteri assegnati da noi. Per questo le immagini ‘sbagliate’ di questa campagna ci dicono soprattutto una cosa; e cioè che la battaglia per sconfiggere i pregiudizi è ancora lunga e che è fondamentale per tanti motivi, tra cui quello di istruire correttamente la tecnologia che porterà maggiori cambiamenti alla società nei prossimi anni”.

Ma allora, come possiamo combattere i bias esistenti nelle nuove tecnologie? “L’invito è, anche per noi creativi e per tutta la nostra industry, quello di non perdere la propria intelligenza, davanti alle sconfinate potenzialità dell’Ai. Perché la verità è che queste intelligenze imparano da noi, anche ciò che è sbagliato“, rispondono Vittoria Apicella e Frank Guarini, direttori creativi di TWBAItalia, che hanno lavorato al progetto insieme a Luca Attanasio, art director, Alessandro Monti, copywriter, e Mirco Pagano, chief creative officer dell’azienda.

Non è la prima volta in cui Wired Italia e TBWAItalia collaborano. Ricordiamo, per esempio, la campagna #SenzaTitolo: per 24 ore i pezzi del sito erano senza titolo, una provocazione per invitare i lettori ad approfondire questioni complesse su cui ogni cittadino è chiamato ad avere un’opinione consapevole.Per il quarto anno di fila TBWA è stata nominata come ‘Most Innovative Company’ da Fast Company e credo che progetti come questo siano un esempio chiaro di che cosa voglia dire innovazione per noi aggiunge Pagano -. Troppo spesso quando si parla di innovazione, si fa riferimento solamente agli aspetti tecnologici, tralasciando quelli sociali e culturali. Ma la posizione di Wired è diversa, così come la nostra. Ecco perché siamo particolarmente orgogliosi di questo progetto che parla di innovazione a tutto tondo, ovviamente in modo Disruptive”.

Wired Italia pubblicherà le immagini della campagna realizzate con MidJourney nei prossimi giorni e durante il mese di febbraio. Qui i primi soggetti del lancio della campagna. Nei prossimi giorni sul sito e sui profili social di Wired presenteremo i successivi.