Categories: HardwareSoftware

Tsubame 3.0, il supercomputer con 2160 Nvidia Tesla P100

Il Tokyo Institute of Technology ha svelato i dettagli del nuovo supercomputer Tsubame 3.0, che sarà operativo da questa estate. Il nuovo sistema si candida a essere uno dei sistemi più potenti al mondo nel settore dell’intelligenza artificiale, con prestazioni di calcolo half precision (16 bit) di 47 petaflops. Il sistema sarà realizzato da HPE/SGI e al suo interno avrà acceleratori Nvidia Tesla P100.

L’uso delle soluzioni Nvidia è una scelta logica. Il sistema originale, creato nel 2006, usava schede ClearSpeed per l’accelerazione, ma due anni più tardi è stato aggiornato con le soluzioni Tesla S1040. Nel 2010 Tsubame 2.0 ha adottato moduli Tesla M2050, mentre la versione 2.5 ha visto al suo interno un mix di soluzioni S1050/S1070 e Tesla K20X.

Tsubame 3.0

Con le soluzioni P100 si mantiene non solo la compatibilità con le applicazioni sviluppate sul supercomputer, ma si ottiene anche un’eccellente piattaforma per compiti di machine learning e intelligenza artificiale, i due settori che più interessano ai ricercatori giapponesi, la patria della robotica e dell’automazione per eccellenza.

Quando sarà operativo, Tsubame 3.0 opererà insieme all’attuale Tsubame 2.5, offrendo complessivamente 64 petaflops di potenza in half precision. Il titolo di miglior supercomputer giapponese per l’AI però potrebbe non durare a lungo. Recentemente il National Institute of Advanced Industrial Science and Technology (AIST) ha annunciato di voler creare un supercomputer capace di toccare i 130 petaflops. Sarà pronto tra la fine del 2017 e l’inizio 2018.

Sebbene Nvidia e il Tokyo Tech enfatizzino le prestazioni half precision, il Tsubame 3.0 sarà usato anche per altre applicazioni e garantirà all’incirca 12 petaflops con calcoli a doppia precisione, una prestazione che potrebbe farlo rientrare nella top 10 dei migliori sistemi.

Il supercomputer è basato su 540 nodi. In ognuno ci sono due CPU Intel Xeon E5-2680 v4, quattro Tesla P100 (64 GB di HBM2 in totale), 1,08 petabyte per l’archiviazione e 256 GB di memoria. A permettere la comunicazione tra i nodi è l’interconnessione Omni-Path di Intel a 100 Gbps, usata anche per il sistema di archiviazione.

Autore: Tom’s Hardware

admin

Recent Posts

The Enermax PlatiGemini 1200W ATX 3.1 + ATX12VO PSU Review: The Swiss Army Knife

Author: AnandTech In the retail PC PSU space, most of the focus on new standards…

2 Luglio 2024

Partecipa al concorso Fanta Carrello di Henkel e prova vincere tante forniture di prodotti per la casa!

Author: Tom's Hardware Per coloro che amano i concorsi a premi, ecco una grande notizia:…

2 Luglio 2024

SEGA: il nuovo Crazy Taxi sarà MMO e open world, un vero e proprio progetto tripla A

Author: GAMEmag Con una nuova videointervista agli sviluppatori, sfortunatamente pubblicata solo in giapponese, SEGA ha…

2 Luglio 2024

Electrifier Program: Fostering Culture of Curiosity and Mastery

Author: Schneider Electric This audio was created using Microsoft Azure Speech Services Olivier Blum –…

2 Luglio 2024

È ancora possibile sviluppare un browser Web da zero? Il sogno Ladybird

Author: IlSoftware Il mercato dei browser Web è attualmente dominato da tre motori di rendering: Blink,…

2 Luglio 2024

Meta cambia l’etichettatura delle immagini realizzate o modificate con l’IA dopo le lamentele dei fotografi

Author: Hardware Upgrade Meta ha recentemente annunciato un cambiamento significativo nell'etichettatura dei contenuti potenzialmente generati…

2 Luglio 2024