Categorie
Tecnologia

Uno degli attacchi più sofisticati di sempre contro gli iPhone

Author: Wired

Incredibile rivelazione da Kaspersky sulla sicurezza degli iPhone. Mercoledì 27 dicembre la società di cybersicurezza con sede a Mosca ha condiviso nuovi dettagli su una vulnerabilità zero-day dei prodotti Apple che, a quanto pare, permetterebbe ai criminali di mettere a segno uno degli attacchi più sofisticati di sempre, prendendo così il pieno controllo dei dispositivi e dei dati che contengono. “Questa non è una vulnerabilità ordinaria – dichiara Boris Larin nella ricerca condivisa dalla società russa -. Quello che sappiamo – e che questa vulnerabilità dimostra – è che le protezioni avanzate basate sull’hardware possono risultare inefficaci di fronte a un aggressore sofisticato, in particolare quando esistono caratteristiche hardware che consentono di bypassare queste protezioni”.

L’attacco, conosciuto con il nome di Operation Triangulation, è stato scoperto all’inizio dell’estate dai ricercatori di Kaspersky, che sono riusciti a comprenderne il funzionamento soltanto dopo uno studio meticoloso. Stando a quanto riferito, i criminali riescono ad attaccare i dispositivi Apple inviando un allegato iMessage dannoso che, senza richiedere alcun clic da parte degli utenti, ne sfrutta le vulnerabilità zero-day per consentire agli aggressori “di ottenere il controllo completo del dispositivo” e “di accedere ai dati dell’utente.” Più nel dettaglio, sembrerebbe che i cybercriminali siano riusciti a bypassare la protezione della memoria basata sull’hardware che garantisce che i malintenzionati non possano controllare completamente un dispositivo Apple anche se accedono alla memoria del kernel, il cuore di iOS.

Un attacco incredibilmente sofisticato che, secondo Ars Technica, avrebbe permesso ai criminali di colpire centinaia di iPhone in Russia, inclusi quelli appartenenti ai ricercatori di Kaspersky. Fortunatamente, le quattro vulnerabilità identificate dagli esperti della società russa – CVE-2023-32434, CVE-2023-32435, CVE-2023-38606 e CVE-2023-41990 – sono state risolte da un aggiornamento di sicurezza rilasciato da Apple per tutti i suoi dispositivi. Eppure, nonostante questo, gli esperti di Kaspersky hanno consigliato ai proprietari di iPhone e simili di tenere alta la guardia, considerando che le vulnerabilità di cui sopra potrebbero essere figlie di “un approccio difettoso” da parte della compagnia di Cupertino. Il suggerimento rivolto agli utenti iOS, quindi, è quello di “aggiornare regolarmente il sistema operativo, le applicazioni e il software antivirus per eliminare le vulnerabilità note”. Soltanto in questo modo, infatti, sarà possibile evitare che i cybercriminali ottengano il controllo completo dei dispositivi.

Categorie
Tecnologia

DefensYo, lo scatolotto che protegge da tutti i cyber attacchi

Author: Wired

Secondo l’ultimo rapporto Clusit, nel 44% delle PMI italiane non è presente una figura professionale che ci occupa dei temi legati alla sicurezza informatica. È come se in un campionato di calcio quasi la metà delle squadre giocasse senza il portiere. Bucare la rete, non solo in senso metaforico, diventa così estremamente semplice. Proprio a queste aziende si rivolge la soluzione DenfesYo, l’ultimo estremo difensore per la cyber security, che si comporta come una saracinesca quasi del tutto invalicabile.

Il prodotto, totalmente sviluppato, ingegnerizzato e realizzato in Italia grazie alla collaborazione delle aziende Corvallis e Yoroi, entrambe nell’ecosistema del Gruppo Tinexta, rappresenta una soluzione chiavi in mano pensata proprio per PMI, studi professionali e piccole amministrazioni pubbliche con poca possibilità di investire in sicurezza informatica.

“Nel 2021 abbiamo deciso di prendere i nostri grandi sistemi di sicurezza informatica e industrializzarli per renderli disponibili anche alle piccole aziende in modo semplice, facile da installare, dai costi contenuti ma in grado di offrire un livello di protezione molto elevato e tutto questo è stato condensato proprio nella nostra soluzione DefensYo”, ci dice Marco Ramilli, founder e Ceo Yoroi.

L’idea di ridurre in scala tutti i più evoluti sistemi di protezione informatica e inserirli in uno dispositivo poco più grande di un tradizionale router, ma facile da installare proprio come un gateway domestico per navigare in rete, è stata una scommessa non facile da vincere, il risultato finale dimostra tuttavia efficacia e lungimirante intuizione.

“Oggi la sicurezza informatica di livello elevato se la possono permettere solo grandi aziende capaci di investire molti soldi e disporre di competenze e risorse dedicate, le piccole realtà rimangono totalmente scoperte e questo rappresenta una via fin troppo facile per i cyber criminali per attaccarle e sfruttarle per compromettere poi prede più appetibili”, sottolinea ancora Ramilli.

I danni di questi attacchi sono sempre più onerosi. Secondo il rapporto Cost of a data Breach 2022, IBM ha stimato a 3,74 milioni di euro le ricadute medie di un attacco informatico in Italia, dato in crescita costante negli ultimi anni. Tuttavia, per rendere decisamente più complessa la vita ai cyber criminali basta poco.

Categorie
Economia Tecnologia

Fastweb investe su un supercomputer per l’AI

Author: Wired

Fastweb ha recentemente completato l’acquisizione di un supercomputer Nvidia. Il DGX H100 sarà il più potente in Italia per lo sviluppo dell’intelligenza artificiale. Grazie a questo investimento, Fastweb prevede di utilizzare il supercomputer per fornire servizi di intelligenza artificiale su cloud a imprese, istituzioni accademiche e sviluppatori indipendenti in Italia che non potrebbero sostenere un tale investimento.

Tuttavia, la peculiarità di questo progetto – che mira ad essere operativo entro la prima metà del 2024 – risiede nella creazione del primo Large language model (Llm) italiano, un modello linguistico di ampie dimensioni, addestrato e potenziato appositamente per la lingua lingua italiana. Mentre altri modelli simili sono stati prevalentemente addestrati in lingua inglese, – fa sapere l’ufficio stampa a Wired – il Llm italiano sarà addestrato utilizzando set di dati in italiano provenienti da provider locali, garantendo così all’algoritmo la comprensione di maggiori sfumature della nostra lingua, della sua grammatica, del contesto e della specificità culturale nazionale.

L’obiettivo dell’azienda di telecomunicazioni è quello di creare un ecosistema in cui il supercomputer sarà accessibile a terzi. Questi attori potranno utilizzare il supercomputer per sviluppare i propri Large language models o sfruttare il modello italiano preesistente per creare nuove applicazioni e servizi basati sull’intelligenza artificiale.

Fastweb si impegna a garantire una governance trasparente e a condurre l’addestramento dei propri algoritmi utilizzando dati certificati, conformemente alle normative italiane ed europee sulla privacy. Le informazioni saranno conservate su server in Italia e soggette perciò alle regole comunitarie in materia.

Il data center di Fastweb in cui sarà installato il supercomputer, che si trova in Lombardia, è alimentato da energia rinnovabile. Certificato al massimo livello tier 4, garantisce continuità del servizio senza interruzioni, essenziale per applicazioni finanziarie e di pubblica amministrazione. Fastweb sta anche investendo notevolmente nella cybersecurity, che è diventato una priorità dopo l’acquisizione qualche anno fa di 7Layers, leader nel settore. Di recente le due aziende hanno lanciato DefenderAI, una piattaforma innovativa per la sicurezza informatica guidata dall’intelligenza artificiale e dedicata alle piccole e medie imprese. Il sistema mette a disposizione analista virtuale in grado di rilevare e analizzare i tentativi di attacco e di attivare in automatico tutte le misure necessarie per bloccarli.

Categorie
Tecnologia

I 4 clan che comandano sull’intelligenza artificiale

Author: Wired

Da allora, Elon Musk è diventato il capofila dei doomers e della teoria del “rischio esistenziale”, secondo la quale lo sviluppo dell’intelligenza artificiale porterà inevitabilmente a una superintelligenza, che a sua volta potrebbe sfuggire al controllo dell’essere umano e ribellarsi a esso. Una visione che portò comunque Musk a fondare l’allora no-profit OpenAI, nata proprio allo scopo di sviluppare l’intelligenza artificiale in modo “sicuro e responsabile”. Con gli anni, la teoria del “rischio esistenziale” posto dall’intelligenza artificiale si è fatta largo tra i membri più radicali di numerosi think tank, tra cui il Future of life institute, che qualche mese fa ha lanciato la lettera aperta per interrompere lo sviluppo di questi strumenti.

Visioni fantascientifiche, estreme e a tratti molto pericolose, ma che si stanno facendo largo nel mondo delle istituzioni. Infatti, la teoria del “rischio esistenziale” è stata anche alla base del recente AI summit voluto dal premier britannico Rishi Sunak.

AI Safety: i cauti dell’intelligenza artificiale

È il gruppo che, prima di ogni altra considerazione, desidera che lo sviluppo dell’intelligenza artificiale avvenga in sicurezza. È il cosiddetto “AI Alignment”, che viene considerata la strada più promettente per evitare che un’intelligenza artificiale sfugga al nostro controllo e si ribelli all’essere umano, anche senza rendersene conto. Immaginate il seguente, e ormai noto, scenario (che dobbiamo sempre a Bostrom): un’intelligenza artificiale particolarmente evoluta riceve il comando di massimizzare la produzione di graffette. Interpretando alla lettera l’obiettivo che le è stato dato, questa intelligenza artificiale consuma tutte le risorse del pianeta Terra al fine di produrre quante più graffette possibili, causando involontariamente anche l’estinzione dell’essere umano.

Come ha scritto Melanie Mitchell, docente di Complessità all’Università di Santa Fe, “vogliamo che le macchine facciano ciò che intendiamo, non necessariamente ciò che abbiamo detto”. È possibile raggiungere questo obiettivo e fare in modo che le intelligenze artificiali siano in grado di contestualizzare e bilanciare i nostri comandi, interpretandoli come faremmo noi umani?Secondo questa tesi, fornire i nostri valori alle macchine permetterebbe loro di interpretare i comandi correttamente, non limitandosi a “massimizzare la funzione obiettivo” (ovvero portare a termine il compito che gli è stato dato nel modo più efficiente possibile), ma comprendendo autonomamente cosa davvero vogliamo e quali sono i limiti e i vincoli da rispettare (per esempio, evitare di distruggere il pianeta per produrre un numero esorbitante di graffette). Resta comunque aperto, e assai lontano da essere risolto, il problema di come trasmettere effettivamente i nostri valori alle macchine. Attualmente sono in corso alcuni esperimenti, che non hanno ancora portato a risultati rilevanti.

Categorie
Tecnologia

L’intelligenza artificiale è la nuova arma dei terroristi

Author: Wired

Anche i gruppi estremisti hanno iniziato a usare l’intelligenza artificiale, e in particolare l’AI generativa, con l’intento di diffondere la propria propaganda. Una situazione che preoccupa non poco gli esperti del settore, che temono che la tendenza possa vanificare il lavoro che le big tech hanno fatto negli ultimi anni per tenere l’estremismo fuori da internet.

Da anni i colossi tecnologici creano database che raccolgono i contenuti estremisti e violenti conosciuti – i cosiddetti database di hash – che vengono poi condivisi tra le varie piattaforme al fine di garantire una rimozione rapida del materiale incriminato da internet.

Arma di propaganda

Ciononostante, il direttore esecutivo di Tech Against Terrorism Adam Hadley spiega che i suoi colleghi raccolgono circa 5000 esempi di contenuti generati dall’intelligenza artificiale ogni settimana. In particolare, di recente sono tantissime le immagini generate dall’AI condivise dai gruppi legati a Hezbollah e Hamas per influenzare la narrazione sulla guerra tra Hamas e Israele. “La nostra più grande preoccupazione è che se i terroristi iniziano a usare l’AI generativa per manipolare le immagini su larga scala, questo potrebbe distruggere la soluzione della condivisione dei database di hash. È un rischio enorme”, ha detto a Wired US il direttore della no-profit affiliata alle Nazioni Unite.

In questi mesi i ricercatori di Tech Against Terrorism hanno portato alla luce diversi esempi di abusi da parte degli estremisti. Tra questi, un canale di messaggistica neonazista che condivide immagini generate dall’intelligenza artificiale utilizzando prompt razzisti e antisemiti, che sono stati inseriti in un’app disponibile sul Google Play Store; oppure, esponenti di estrema destra che promuovono una guida che spiega come utilizzare l’AI generativa per creare meme estremisti; o ancora una pubblicazione pro-al-Qaeda che diffonde manifesti di propaganda accompagnati da immagini che molto probabilmente sono state create utilizzando la tecnologia.

Oltre a descrivere la minaccia rappresentata dagli strumenti di AI generativa in grado di modificare le immagini, i ricercatori di Tech Against Terrorism hanno pubblicato anche un rapporto che analizza tutti i modi possibili in cui la tecnologia può aiutare i gruppi estremisti. Tra questi, l’uso di tool di traduzione automatica in grado di tradurre rapidamente la propaganda in più lingue, o l’adozione di strumenti che permettono di creare messaggi personalizzati su larga scala al fine di facilitare gli sforzi di reclutamento online.

La nuova iniziativa di Microsoft

Fortunatamente però non ci sono soltanto risvolti negativi. Lo stesso Hadley, infatti, sostiene che l’intelligenza artificiale offra anche l’opportunità di anticipare le azioni dei gruppi estremisti, preservando così la sicurezza internazionale. “Collaboreremo con Microsoft per capire se, utilizzando il nostro archivio di materiale, sia possibile creare una sorta di sistema di rilevamento basato sull’AI generativa per contrastare la minaccia emergente – ha dichiarato –. Siamo fiduciosi che l’AI generativa possa essere utilizzata per difendersi dagli usi ostili della stessa AI generativa“.