Categorie
Economia Tecnologia

ChatGPT, il Garante della privacy lo blocca in Italia

Author: Wired

Il Garante della privacy blocca ChatGPT in Italia. Il potente modello conversazionale sviluppato dalla startup statunitense OpenAi finisce sotto la lente dell’Autorità che tutela la protezione dei dati personali in Italia, che ha messo uno stop all’algoritmo “finché non rispetterà la disciplina privacy”.

Categorie
Tecnologia

ChatGpt della cybersicurezza, Microsoft lancia Security Copilot

Author: Wired

Microsoft Security Copilot

Microsoft Security Copilot

Microsoft

Come funziona Security Copilot

Jakkal spiega che, mentre gli strumenti di sicurezza basati sull’apprendimento automatico si sono rivelati efficaci in ambiti specifici, come il monitoraggio della posta elettronica o dell’attività sui singoli dispositivi (la cosiddetta sicurezza degli endpoint), Security Copilot è in grado di riunire tutti questi flussi separati ed estrapolare un quadro più ampio: “Con Security Copilot è possibile cogliere ciò che ad altri potrebbe sfuggire“, commenta Jakkal.

Nonostante sia in gran parte alimentato da Gpt-4 , Microsoft sottolinea che il suo nuovo sistema integra anche un modello proprietario dell’azienda, progettato specificamente per la cybersicurezza. Security Copilot tiene traccia di tutto ciò che viene fatto durante un’indagine. La documentazione prodotta poi può essere sottoposta a revisione, e anche i materiali pensati per essere distribuiti possono essere modificati per garantirne l’accuratezza e la chiarezza. Gli utenti possono segnalare con un pulsante se i casi in cui un suggerimento proposto dallo strumento si rivela sbagliato o irrilevante, in modo da addestrare ulteriormente il sistema.

Security Copilot consente anche di condividere determinati progetti con alcuni colleghi e non con altri, una funzione particolarmente importante quando si indaga su possibili minacce interne. La piattaforma inoltre favorisce un’attività di monitoraggio 24 ore su 24. In questo modo, anche se una persona con competenze specifiche non lavora in un determinato turno o in un determinato giorno, il sistema sarà in grado di presentare comunque analisi di base e suggerimenti per colmare le lacune. 

Privacy e flessibilità

Microsoft sottolinea che i dati dei clienti non vengono condivisi con altri soggetti e che “non sono utilizzati per addestrare o arricchire i modelli Ai”. Allo stesso tempo, l’azienda si vanta di utilizzare “65mila miliardi di segnali giornalieri” provenienti dalla sua enorme base di clienti globale per alimentare i suoi prodotti di rilevamento e difesa dalle minacce. Ma Jakkal e Chang Kawaguchi, vicepresidente e Ai security architect di Microsoft, sottolineano che Security Copilot è soggetto alle stesse restrizioni e normative in materia di condivisione dei dati applicate su tutti i prodotti di sicurezza con cui si integra. Se quindi utilizzate già Microsoft Sentinel o Defender, tenete presente che Security Copilot è tenuto a rispettare le stesse politiche sulla privacy .

Kawaguchi aggiunge che Security Copilot è stato costruito per essere il più flessibile e aperto possibile e che le reazioni dei clienti influenzeranno la futura aggiunta di funzionalità e miglioramenti. In ultima analisi, l’utilità del sistema dipenderà dalla sua capacità di analizzare con precisione le reti dei clienti e le minacce che si troveranno ad affrontare. Per Kawaguchi la cosa più importante è che chi si occupa di cybersicurezza inizi a beneficiare dell’Ai generativa il prima possibile. Per dirla con le sue parole: “Dobbiamo dotare i difensori di Ai, dato che gli aggressori la utilizzeranno a prescindere da ciò che facciamo“.

Questo articolo è comparso originariamente su Wired US.

Categorie
Economia Tecnologia

Intelligenza artificiale: appello per bloccare per 6 mesi lo sviluppo

Author: Wired

Il cosiddetto scenario Terminator sta preoccupando i più importanti esperti di intelligenza artificiale (Ia) e i dirigenti del settore. Citando potenziali rischi per la società e per gli esseri umani, circa mille persone, tra cui Elon Musk e i ricercatori di DeepMind, progetto di Google, hanno chiesto di fermare per almeno sei mesi l’addestramento di tutte le IA più potenti di GPT-4, il più avanzato sistema di OpenAi.

“Negli ultimi mesi, i laboratori di Ia hanno cominciato una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti, che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile”, sostengono Musk, i ricercatori di DeepMind di Alphabet e altri esperti mondiali dell’intelligenza artificiale come il canadese Yoshua Bengio, il britannico Stuart Russel e l’italiana Francesca Rossi, global leader per l’etica dell’Ia in Ibm.

Assieme a loro, altri mille scienziati, dirigenti ed esperti hanno sottoscritto la lettera aperta pubblicata dal Future for life institute, un’organizzazione senza scopo di lucro, il cui scopo è tenere sotto controllo i potenziali rischi catastrofici ed esistenziali posti all’umanità dallo sviluppo delle nuove tecnologie e, in particolare, dalle intelligenze artificiali.

L’appello

Nel lanciare il suo allarme, la lettera sottolinea come i sistemi di intelligenza artificiale come ChatGPT stiano diventando sempre più competitivi con gli esseri umani, aprendo a una serie di domande fondamentali. Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, renderci obsoleti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà?” si legge.

E a questi interrogativi, fino a oggi quasi esclusivamente fantascientifici, gli esperti hanno dato una risposta molto chiara: Queste decisioni non devono essere delegate a leader tecnologici non eletti”. Un’affermazione che riporta sul piano politico un dibattito etico fondamentale sullo sviluppo e sul futuro dell’umanità.

“Pertanto – continua la lettera – chiediamo a tutti i laboratori di Ia di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di aA più potenti di Gpt-4. Questa pausa deve essere pubblica, verificabile e deve includere tutti gli attori chiave. Se tale pausa non verrà attuata rapidamente, i governi dovrebbero intervenire per imporla”.

Pausa allo scopo di sviluppare e implementare “congiuntamente” una serie di protocolli di sicurezza condivisi, per rendere i sistemi di Ia più avanzati sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali. Allo stesso tempo, i governi dovrebbero “accelerare drasticamente lo sviluppo di solidi sistemi di governance delle Ia”, istituendo nuove autorità di regolamentazione, controllo, monitoraggio e sorveglianza, in grado di affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che saranno causati dalle Ia”.

Categorie
Tecnologia

ChatGpt, le dritte per ottenere il massimo

Author: Wired

ChatGpt e gli strumenti simili al chatbot di OpenAi hanno reso l’intelligenza artificiale (Ai) disponibile per le masse e ci hanno dato la possibilità di ottenere risposte di ogni tipo su quasi tutti gli argomenti immaginabili. Questi bot sono in grado di programmare, produrre sonetti, risposte sulla filosofia e molto altro ancora.

Ma anche se ChatGpt è in grado di capire pressoché qualsiasi cosa digitiate, esistono delle strategie che permettono di ottenere risultati più interessanti e utili. Questa “ingegneria delle richieste” sta diventando una competenza specializzata a sé stante.

A volte basta aggiungere qualche parola o una riga in più nelle istruzioni che sottoponete al sistema per avere risposte di un livello superiore: in questo articolo presentiamo diversi esempi.

Per questa guida abbiamo utilizzato Gpt-4, ovvero l’ultima versione di ChatGpt, che però è disponibile solo per alcuni utenti. In ogni caso, le nostre dritte dovrebbero funzionare bene anche con le versioni precedenti del sistema.

Tabelle

ChatGpt può fornirvi le sue risposte sotto forma di tabella, un’opzione particolarmente utile per raccogliere informazioni o idee creative, come per esempio gli spunti per dei pasti e i loro ingredienti, per dei giochi, o ancora i giorni della settimana e il modo in cui vengono pronunciati inlingue diverse.

Utilizzando le richieste di follow-up e il linguaggio naturale, potete poi chiedere a ChatGpt di apportare modifiche alle tabelle e anche di convertirle in un formato standard comprensibile da un altro programma, come Microsoft Excel.

Impostare lo stile del vostro scrittore preferito

Con qualche suggerimento accurato, è possibile spingere ChatGpt ad abbandonare il suo tono di default, piuttosto monotono e scontato, e farlo diventare molto più interessante, per esempio imitando lo stile del vostro scrittore preferito.

Potreste optare per la semplicità pungente di un racconto di Ernest Hemingway o di Raymond Carver, o il ritmo lirico di un’opera di Shakespeare, o ancora la densità di un romanzo di Dickens. Anche se ovviamente i risultati finali prodotti dal chatbot non si avvicinano alla genialità degli autori a cui si è ispirato, è un altro modo per essere più creativi.

Screenshot of ChatGPT messages on desktop

ChatGPT può produrre risultati in tutti i tipi di stile.

ChatGPT via David Nield

Stabilite dei limiti  

ChatGpt può produrre risultati davvero notevoli quando impostate delle restrizioni. Per questo non abbiate paure di dire al chatbot di limitare le sue risposte a un determinato numero di parole o di paragrafi.

Categorie
Economia Tecnologia

ChatGpt è il nuovo specchietto per le allodole nel mondo delle criptovalute

Author: Wired

La convergenza tra criptovalute e intelligenza artificiale potrebbe essere vista come un fenomeno naturale. Ma il fatto che questo scenario coincida con la “primavera” dell’Ai, in parallelo all’avvento di ChatGpt, dovrebbe far sorgere qualche sospetto. Se il settore dell’intelligenza artificiale sta vivendo un momento d’oro, non lo stesso si può dire per il mondo blockchain e crypto, che viene invece da un 2022 particolarmente complicato, con un mercato ribassista il quale ha ridimensionato l’industria e portato al fallimento diverse realtà importanti (su tutte l’exchange Ftx).

L’Ai potrebbe rappresentare quindi, in primo luogo, un potenziale volano per la ripartenza
dell’ecosistema delle criptovalute. E questo sembra chiaro, più che altro, leggendo i numeri. Solo tra le prime cinque criptovalute con riferimenti (espliciti o impliciti) al mondo dell’intelligenza artificiale si conta una capitalizzazione totale che sfiora i 3 miliardi di dollari. Una cifra che è più che decuplicata nell’arco di soli tre mesi. Una sorta di revival della bolla delle dot-com, che nel mondo crypto, a differenza di quello azionario, assume caratteri ancora più particolari e/o pericolosi. 

I progetti

Questi grandi numeri hanno fatto sì che si puntassero i riflettori su progetti quali The Graph, SingularityNet o FetchAi. Il primo consiste in un servizio decentralizzato di analisi dei dati, che sfrutterebbe l’Ai come catalizzatore di informazioni provenienti da più fonti, per offrire un quadro completo di un determinato progetto. Gli altri due non sono invece che marketplace del settore Ai, i quali danno la possibilità agli utenti di usufruire di diversi bot per la realizzazione di contenuti mediali (scrittura o editing di immagini, video e audio). 

Ma cosa c’entrano le criptovalute in tutto questo? Semplicemente, il token nativo delle piattaforme (nell’ordine, Grt, Agix e Fet) è necessario per poter usufruire del servizio offerto, per una commistione dell’Ai nell’industria crypto, pur senza delegittimare in nulla il valore delle tecnologie chiamate in causa, sia per quanto riguarda l’intelligenza artificiale, sia per le criptovalute. Semplicemente, la prima non sembra fungere da valore aggiunto alla seconda. 

Di tutt’altra specie è invece il problema che riguarda il trend dell’Ai attraverso canali crypto più
settoriali. Negli ultimi mesi, infatti, il totale dei token con riferimento esplicito o implicito
all’intelligenza artificiale ha raggiunto quota 250, nati in questo caso per pura speculazione e senza alcuna implementazione tecnica. Il motivo? Cavalcare il trend dell’Ai a scopo speculativo. Cosa che però ha portato allo stesso tempo alla creazione di un orizzonte vastissimo di red flag, capace di raccogliere in poco tempo migliaia (se non milioni) di dollari in volumi di trading, coinvolgendo gli ecosistemi di Ethereum, Solana, Cronos e in larga parte la Bnb smart chain. 

Specchietti per le allodole

PeckShield, una società che si occupa di sicurezza su blockchain, ha realizzato delle ricerche in
questo senso, individuando dozzine di token e progetti scam, con relative truffe comprovate. Gli
utenti, in questo caso, sono attirati in primo luogo da richiami a ChatGpt nella descrizione o nel
logo del progetto in questione, e si ritrovano la maggior parte delle volte coinvolti in schemi
truffaldini quali honeypot, pump & dump o imposte di vendita elevatissime.

BingChatGpt è stato uno dei nomi più sfruttati, con richiamo sia al famoso bot, sia a motore di
ricerca di Microsoft, anch’esso coinvolto nello sviluppo e nell’integrazione dell’Ai. E a seconda dei
casi (c’è un BingChatGpt per ogni genere), questi progetti hanno portato gli utenti a pagare imposte di vendita elevatissime (anche del 99%), venendo frodati anche in caso di profitto, oppure a veder crollare il valore del proprio asset a causa della vendita delle partecipazioni di maggioranza in possesso dei fondatori del token stesso.

Oppure, ancora, CryptoGpt, CryptoAi e tutte le varianti immaginabili: tutto il necessario
ammaliare l’utente di turno, e dissuaderlo dal fare le verifiche del caso. Il trend dell’Ai sembra quindi portarsi appresso effetti collaterali non di poco conto, che spesso compromettono ciò che di realmente innovativo essa rappresenta. Per muoversi in certi contesti, ormai sempre più alla portata di tutti, la prudenza sembra essere la virtù più importante.