IT knowledge base
CTRL+F per cercare la tua parola chiave

Fujitsu costruirà un supercomputer per la ricerca sull'intelligenza artificiale

La scorsa settimana, il National Institute of Advanced Industrial Science and Technology (AIST) del Giappone ha selezionato Fujitsu per costruire il suo supercomputer ABCI (AI Bridging Cloud Infrastructure). Diventerà una piattaforma per la ricerca in intelligenza artificiale, robotica, auto a guida autonoma e medicina.
L'ABCI dovrebbe eseguire operazioni in doppia precisione a 37 petaflop. Il computer inizierà a funzionare nel 2018 e sarà il più veloce in Giappone.
/ Flickr / NASA Goddard / CC

Cosa c'è dentro

Il sistema sarà utilizzare 1.088 server Fujitsu Primergy CX2570, ciascuno con 2 processori Intel Xeon oro e 4 GPU NVIDIA Tesla V100. Per accelerare l'I/O locale, il supercomputer sarà dotato di schede Intel SSD DC P4600 NVMe, che funzionano utilizzando la tecnologia 3D NAND.
L'architettura NVIDIA Volta e l'acceleratore Tesla V100 richiedono il raffreddamento a liquido perché si surriscaldano durante il funzionamento. Per rimediare alla situazione, Fujistu utilizza un approccio controverso: il raffreddamento ad acqua calda.
Questo metodo aiuta gli operatori a utilizzare meno o nessun refrigeratore. Nel 2015, Fujitsu ha annunciato che i server Primergy avevano dimezzato i costi di raffreddamento. I server avevano un PUE di 1,06. Ciò è stato ottenuto utilizzando la tecnologia di raffreddamento a liquido direct-to-chip.
Un'altra soluzione per ABCI è il raffreddamento a livello di rack: raffreddamento a liquido da 50 kW e raffreddamento ad aria da 10 kW. I processori sono dotati di blocchi di raffreddamento per mantenere la temperatura e rimuovere il calore in eccesso. Puoi trovare il circuito di raffreddamento qui .

Dove metteranno?

Il budget del progetto ABCI è di 172 milioni di dollari. Dieci milioni di questo importo andranno alla costruzione di un nuovo data center per il sistema, che sarà situato nel campus dell'Università di Tokyo. La capacità massima del data center sarà di 3,25 MW e la capacità dell'unità di raffreddamento è di 3,2 MW. Il pavimento del data center sarà in cemento. Il numero iniziale di rack è 90: 18 per l'archiviazione dei dati e 72 per le attività di elaborazione.
La costruzione del data center è iniziata quest'estate e lo stesso sistema ABCI sarà lanciato nel 2018.

Chi ha più petaflop?

Costruire supercomputer è come una corsa agli armamenti. Il supercomputer più veloce è considerato il cinese Sunway TaihuLight: le sue prestazioni sono di 93 petaflop.
È seguito da Tianhe-2 , un supercomputer cinese da 34 petaflop. Al terzo posto c'è lo svizzero Piz Daint con i suoi 6.3 petaflop. Seguono l'americano Titan (17,6 petaflop), Sequoia (17,1) e Cori (14). La top-7 è chiusa dai giapponesi Oakforest-PACS , con una prestazione di 13,5 petaflop.
La Russia occupa il 59° posto in questa classifica. Il paese è rappresentato da Lomonosov-2 , con una prestazione di 2,1 petaflop.
I supercomputer vengono utilizzati per scopi diversi. Con l'aiuto del più potente di loro, gli scienziati hanno costruito un modello virtuale dell'universo. Tianhe-2 protegge i dati top secret della RPC e dello stato stesso. Uno dei campi di applicazione del Piz Daint è la modellistica nel campo della fisica delle alte energie.
La National Nuclear Security Administration degli Stati Uniti usa Sequoia per simulare esplosioni nucleari e altri scienziati usano simulazioni cosmologiche e simulazioni del cuore umano.
Con l'aiuto di Titan, viene condotta una ricerca scientifica: creano modelli del comportamento dei neutroni in un reattore nucleare e prevedono i cambiamenti climatici. Oakforest-PACS è utilizzato in Giappone per la ricerca e l'insegnamento agli studenti interessati ai supercomputer.

L'era degli exaflop

Nel 2018, gli Stati Uniti lanceranno Summit , un supercomputer da 200 petaflop. A questo, gli scienziati cinesi risponderanno Tianhe-3: le sue prestazioni saranno pari a un exaflop. Un prototipo di questo supercomputer apparirà nel 2018. La Francia si unirà alla gara nel 2020: Atos prevede di lanciare il progetto exascale Bull Sequana.
Tuttavia, gli esperti notano che il massiccio passaggio agli exaflop porterà a un consumo eccessivo di energia e a un eccesso di calore. Per operare exaflop, la comunità globale dovrà concordare i cambiamenti nell'intero ecosistema informatico: hardware, software, algoritmi e applicazioni.
Molti stanno già passando all'energia solare e ai sistemi di raffreddamento avanzati. Ma per la distribuzione di massa di potenti supercomputer, questo non sarà sufficiente.
Secondo a Horst Simon del National Laboratory. Lawrence a Berkeley, la difficoltà sta nel fatto che dobbiamo fare una serie di scoperte scientifiche allo stesso tempo. Innanzitutto, è necessario capire come ridurre il consumo di energia e non sprecare il calore in eccesso. Solo così potremo competere.
PS Qualche altro materiale sull'argomento dal nostro blog:
  • Convergenza e unificazione: più attività su un dispositivo
  • Motore DPI estero o sviluppo proprio
  • VPLS per l'accesso al data center