Categorie
Economia Tecnologia

Fastweb investe su un supercomputer per l’AI

Author: Wired

Fastweb ha recentemente completato l’acquisizione di un supercomputer Nvidia. Il DGX H100 sarà il più potente in Italia per lo sviluppo dell’intelligenza artificiale. Grazie a questo investimento, Fastweb prevede di utilizzare il supercomputer per fornire servizi di intelligenza artificiale su cloud a imprese, istituzioni accademiche e sviluppatori indipendenti in Italia che non potrebbero sostenere un tale investimento.

Tuttavia, la peculiarità di questo progetto – che mira ad essere operativo entro la prima metà del 2024 – risiede nella creazione del primo Large language model (Llm) italiano, un modello linguistico di ampie dimensioni, addestrato e potenziato appositamente per la lingua lingua italiana. Mentre altri modelli simili sono stati prevalentemente addestrati in lingua inglese, – fa sapere l’ufficio stampa a Wired – il Llm italiano sarà addestrato utilizzando set di dati in italiano provenienti da provider locali, garantendo così all’algoritmo la comprensione di maggiori sfumature della nostra lingua, della sua grammatica, del contesto e della specificità culturale nazionale.

L’obiettivo dell’azienda di telecomunicazioni è quello di creare un ecosistema in cui il supercomputer sarà accessibile a terzi. Questi attori potranno utilizzare il supercomputer per sviluppare i propri Large language models o sfruttare il modello italiano preesistente per creare nuove applicazioni e servizi basati sull’intelligenza artificiale.

Fastweb si impegna a garantire una governance trasparente e a condurre l’addestramento dei propri algoritmi utilizzando dati certificati, conformemente alle normative italiane ed europee sulla privacy. Le informazioni saranno conservate su server in Italia e soggette perciò alle regole comunitarie in materia.

Il data center di Fastweb in cui sarà installato il supercomputer, che si trova in Lombardia, è alimentato da energia rinnovabile. Certificato al massimo livello tier 4, garantisce continuità del servizio senza interruzioni, essenziale per applicazioni finanziarie e di pubblica amministrazione. Fastweb sta anche investendo notevolmente nella cybersecurity, che è diventato una priorità dopo l’acquisizione qualche anno fa di 7Layers, leader nel settore. Di recente le due aziende hanno lanciato DefenderAI, una piattaforma innovativa per la sicurezza informatica guidata dall’intelligenza artificiale e dedicata alle piccole e medie imprese. Il sistema mette a disposizione analista virtuale in grado di rilevare e analizzare i tentativi di attacco e di attivare in automatico tutte le misure necessarie per bloccarli.

Categorie
Tecnologia

I 4 clan che comandano sull’intelligenza artificiale

Author: Wired

Da allora, Elon Musk è diventato il capofila dei doomers e della teoria del “rischio esistenziale”, secondo la quale lo sviluppo dell’intelligenza artificiale porterà inevitabilmente a una superintelligenza, che a sua volta potrebbe sfuggire al controllo dell’essere umano e ribellarsi a esso. Una visione che portò comunque Musk a fondare l’allora no-profit OpenAI, nata proprio allo scopo di sviluppare l’intelligenza artificiale in modo “sicuro e responsabile”. Con gli anni, la teoria del “rischio esistenziale” posto dall’intelligenza artificiale si è fatta largo tra i membri più radicali di numerosi think tank, tra cui il Future of life institute, che qualche mese fa ha lanciato la lettera aperta per interrompere lo sviluppo di questi strumenti.

Visioni fantascientifiche, estreme e a tratti molto pericolose, ma che si stanno facendo largo nel mondo delle istituzioni. Infatti, la teoria del “rischio esistenziale” è stata anche alla base del recente AI summit voluto dal premier britannico Rishi Sunak.

AI Safety: i cauti dell’intelligenza artificiale

È il gruppo che, prima di ogni altra considerazione, desidera che lo sviluppo dell’intelligenza artificiale avvenga in sicurezza. È il cosiddetto “AI Alignment”, che viene considerata la strada più promettente per evitare che un’intelligenza artificiale sfugga al nostro controllo e si ribelli all’essere umano, anche senza rendersene conto. Immaginate il seguente, e ormai noto, scenario (che dobbiamo sempre a Bostrom): un’intelligenza artificiale particolarmente evoluta riceve il comando di massimizzare la produzione di graffette. Interpretando alla lettera l’obiettivo che le è stato dato, questa intelligenza artificiale consuma tutte le risorse del pianeta Terra al fine di produrre quante più graffette possibili, causando involontariamente anche l’estinzione dell’essere umano.

Come ha scritto Melanie Mitchell, docente di Complessità all’Università di Santa Fe, “vogliamo che le macchine facciano ciò che intendiamo, non necessariamente ciò che abbiamo detto”. È possibile raggiungere questo obiettivo e fare in modo che le intelligenze artificiali siano in grado di contestualizzare e bilanciare i nostri comandi, interpretandoli come faremmo noi umani?Secondo questa tesi, fornire i nostri valori alle macchine permetterebbe loro di interpretare i comandi correttamente, non limitandosi a “massimizzare la funzione obiettivo” (ovvero portare a termine il compito che gli è stato dato nel modo più efficiente possibile), ma comprendendo autonomamente cosa davvero vogliamo e quali sono i limiti e i vincoli da rispettare (per esempio, evitare di distruggere il pianeta per produrre un numero esorbitante di graffette). Resta comunque aperto, e assai lontano da essere risolto, il problema di come trasmettere effettivamente i nostri valori alle macchine. Attualmente sono in corso alcuni esperimenti, che non hanno ancora portato a risultati rilevanti.

Categorie
Tecnologia

L’intelligenza artificiale è la nuova arma dei terroristi

Author: Wired

Anche i gruppi estremisti hanno iniziato a usare l’intelligenza artificiale, e in particolare l’AI generativa, con l’intento di diffondere la propria propaganda. Una situazione che preoccupa non poco gli esperti del settore, che temono che la tendenza possa vanificare il lavoro che le big tech hanno fatto negli ultimi anni per tenere l’estremismo fuori da internet.

Da anni i colossi tecnologici creano database che raccolgono i contenuti estremisti e violenti conosciuti – i cosiddetti database di hash – che vengono poi condivisi tra le varie piattaforme al fine di garantire una rimozione rapida del materiale incriminato da internet.

Arma di propaganda

Ciononostante, il direttore esecutivo di Tech Against Terrorism Adam Hadley spiega che i suoi colleghi raccolgono circa 5000 esempi di contenuti generati dall’intelligenza artificiale ogni settimana. In particolare, di recente sono tantissime le immagini generate dall’AI condivise dai gruppi legati a Hezbollah e Hamas per influenzare la narrazione sulla guerra tra Hamas e Israele. “La nostra più grande preoccupazione è che se i terroristi iniziano a usare l’AI generativa per manipolare le immagini su larga scala, questo potrebbe distruggere la soluzione della condivisione dei database di hash. È un rischio enorme”, ha detto a Wired US il direttore della no-profit affiliata alle Nazioni Unite.

In questi mesi i ricercatori di Tech Against Terrorism hanno portato alla luce diversi esempi di abusi da parte degli estremisti. Tra questi, un canale di messaggistica neonazista che condivide immagini generate dall’intelligenza artificiale utilizzando prompt razzisti e antisemiti, che sono stati inseriti in un’app disponibile sul Google Play Store; oppure, esponenti di estrema destra che promuovono una guida che spiega come utilizzare l’AI generativa per creare meme estremisti; o ancora una pubblicazione pro-al-Qaeda che diffonde manifesti di propaganda accompagnati da immagini che molto probabilmente sono state create utilizzando la tecnologia.

Oltre a descrivere la minaccia rappresentata dagli strumenti di AI generativa in grado di modificare le immagini, i ricercatori di Tech Against Terrorism hanno pubblicato anche un rapporto che analizza tutti i modi possibili in cui la tecnologia può aiutare i gruppi estremisti. Tra questi, l’uso di tool di traduzione automatica in grado di tradurre rapidamente la propaganda in più lingue, o l’adozione di strumenti che permettono di creare messaggi personalizzati su larga scala al fine di facilitare gli sforzi di reclutamento online.

La nuova iniziativa di Microsoft

Fortunatamente però non ci sono soltanto risvolti negativi. Lo stesso Hadley, infatti, sostiene che l’intelligenza artificiale offra anche l’opportunità di anticipare le azioni dei gruppi estremisti, preservando così la sicurezza internazionale. “Collaboreremo con Microsoft per capire se, utilizzando il nostro archivio di materiale, sia possibile creare una sorta di sistema di rilevamento basato sull’AI generativa per contrastare la minaccia emergente – ha dichiarato –. Siamo fiduciosi che l’AI generativa possa essere utilizzata per difendersi dagli usi ostili della stessa AI generativa“.

Categorie
Tecnologia

Hackerato il sito di Federprivacy, l’associazione dei professionisti della protezione dei dati

Author: Wired

Anche Federprivacy, l’associazione che riunisce i professionisti della protezione dei dati, è caduta vittima dei cybercriminali di Alpha Team – la cybergang che in queste settimane sta facendo parlare di sé per aver preso di mira non poche aziende italiane. Dalla mattinata di oggi, infatti, il sito ufficiale dell’organizzazione risulta irraggiungibile e l’account Instagram @federprivacy sembrerebbe essere stato hackerato. Non a caso, l’ultimo post condiviso sul social riporta una schermata del sito compromesso, accompagnato da una frase che recita “Sostiene di far sentire gli altri al sicuro e tiene corsi di sicurezza informatica. Anche lui è stato hackerato”.

Con lo stesso piglio ironico con cui hanno colpito – e deriso – Federprivacy, i criminali informatici hanno preso d’assalto anche l’account LinkedIn di Nicola Bernardi, presidente dell’organizzazione. Dalle prime ore di questa mattina, infatti, il suo profilo continua a pubblicare messaggi a nome di Z0RG, leader dell’Alpha Team. “Noi dimostriamo che chi si occupa di vendere o promuovere beni o servizi per la sicurezza dei dati non protegge a sua volta i dati che ha in custodia da altri. E questo è grave, perché un associazione come Federprivacy raccoglie molte decine di migliaia di euro ogni anno dagli iscritti e non può non proteggere i loro dati investendo un po’ di quel denaro nella sicurezza che tanto declamano proponendo i loro servizi”, si legge in uno dei post condivisi dalla cybergang sul profilo di Bernardi.

Secondo quanto riferito da Z0RG, i criminali sono riusciti a sfruttare le vulnerabilità di Federprivacy.org e a mettere le mani su tutti i dati presenti all’interno dei sistemi dell’organizzazione. Una quantità imponente di informazioni, che Alpha Team non sembra intenzionata a vendere o rendere di pubblico dominio, ma che pare voglia utilizzare come forma di ricatto per trovare un accordo utile con la società di Bernardi. Di cosa si tratti nello specifico, però, non è chiaro. “Non vogliamo davvero rivelare tutto e dare una cattiva immagine di voi in Italia. Perché sarà difficile per i vostri clienti fidarsi di nuovo di voi”, dichiarano i criminali, prendendosi ancora una volta gioco dell’organizzazione che si è ripromessa di proteggere i dati altrui, ma che ha finito con il perderli definitivamente – o quasi.

Categorie
Economia Tecnologia

In Cina è sempre più difficile aggirare la censura su internet

Author: Wired

C’è già chi lo definisce un grande, immenso intranet. Ma presto l’internet in Cina potrebbe diventare uno spazio ancora più controllato. O, almeno, questa è la sensazione derivante da due episodi delle ultime settimane. Il primo: un programmatore della Cina settentrionale è stato condannato a pagare più di 1 milione di yuan (circa 128 mila euro) alle autorità per aver utilizzato una rete privata virtuale (Vpn). Si tratta della più severa sanzione pecuniaria individuale mai emessa per aver aggirato quella che è stata ribattezzata Grande muraglia digitale. L’uomo ha ricevuto una notifica di sanzione dall’ufficio di pubblica sicurezza di Chengde, una città della provincia dello Hebei.

A chiunque sia capitato di trascorrere un certo periodo di tempo in Cina utilizzando una sim locale per navigare in rete lo sa: le Vpn sono l’unico strumento possibile per aggirare la Great Firewall e accedere a una serie di siti e applicazioni bloccati in Cina. Nonostante non sia ufficialmente consentito il loro utilizzo, non accade sovente che le autorità cinesi comminino grandi multe e sanzioni agli utenti cinesi.

Anche perché c’è da tenere presente che, seppure possa sembrare strano a un osservatore occidentale abituato a utilizzare Google, Facebook o X, in Cina esiste un altro ecosistema digitale persino più sofisticato di quello a cui si è abituati altrove. E non tutti, anzi in pochi, sentono la mancanza di quello che si può trovare al di fuori della Great Firewall. Anche per questo il governo non ha mai bloccato del tutto il loro utilizzo e ha spesso evitato di punirne l’utilizzo. Anche se già nel 2021 il massimo organo di controllo del cyberspazio cinese ha redatto un nuovo regolamento che prevedeva punizioni più severe per individui e istituzioni attive nell’aiutare gli utenti a bypassare il Grande Firewall. Una mossa che aveva destato qualche preoccupazione alle imprese internazionali, anche se poi la sua applicazione era rimasta sin qui piuttosto morbida.

Che cosa c’è dietro la maxi multa sull’uso della Vpn

La maxi multa comminata al programmatore di Chengde è stata accompagnata dalla specifica che l’uomo ha usato “canali non autorizzati” per connettersi a reti internazionali per lavorare per una società turca. La polizia ha confiscato gli 1,058 milioni di yuan (120.651 sterline) che l’uomo aveva guadagnato come sviluppatore di software tra il settembre 2019 e il novembre 2022, definendoli “reddito illegale”. Il Guardian suggerisce che in realtà dietro l’iniziativa sanzionatoria possa esserci il desiderio dei governi locali di rimpinguare le casse sempre più vuote e spesso esposte alla crisi del settore immobiliare. Un problema serio, quello del cosiddetto “debito nascosto” delle province.

Il programmatore ha dichiarato a China digital times che la polizia avrebbe sequestrato il suo telefono, il suo computer portatile e diversi dischi rigidi dopo aver appreso che lavorava per una società estera, trattenendoli per un mese. In seguito gli sarebbe stato chiesto di fornire dettagli sul suo lavoro, le sue coordinate bancarie, il suo contratto di lavoro e altre informazioni, prima che gli venisse comminata la sanzione, contro cui si è appellato. Lui si difende dicendo che ha utilizzato costantemente Vpn solo per accedere a Zoom per motivi di lavoro ma che per la maggior parte del tempo non ha bisogno di aggirare il Great Firewall.

L’identità degli influencer e creator diventa pubblica sui social cinesi

La seconda novità in materia di Rete è più ampia perché abbraccia la sfera normativa. Le principali piattaforme di social media cinesi, tra cui Weibo, WeChat, Douyin e Kuaishou, hanno infatti imposto ad alcuni dei loro più popolari influencer di mostrare la loro vera identità. Il tutto poche settimane dopo che si era diffusa la voce secondo cui il governo stava per emanare una nuova normativa su internet che richiederà alle piattaforme di social media di mostrare i nomi reali di influencer, commentatori e altri account di self media con oltre un milione di follower. Gli utenti non autorizzati, non verificati o sanzionati non possono vedere i nomi reali visualizzati, hanno provato a rassicurare le società digitali.