Indagine sul Calcolo HPC INAF – Direzione Scientifica Unita VI ICT Giuliano Taffoni – Ugo Becciani Unita’ VI ICT • Unita’ della Direzione Scientifica (08/2013) • Responsabile R. Smareglia • Attivita’…tra le altre: – Sviluppo ICT connesso all’attivita’ scientifica dell’ente – Servizio all’utenza tecnico/scientifica – Relazioni esterne Sviluppo ICT • Infrastrutture di calcolo – High performance computing – High throughput computing – Cloud/grid infrastructures • Archivi scientifici • Software di riduzione e analisi dati Cosa fare? Individuare le necessita’ dell’ente Come farlo? • Questionari su aspetti diversi legati alle attivita’ della commissione calcolo e del gruppo GCSI Indagine interna all’INAF • Autunno 2013 – Software scientifico (Bianca Garilli) – Necessita’ di calcolo – Scelte e necessita’ sistemistiche delle strutture – Archivi e cataloghi – Possibili sviluppi futuri Indagine sul calcolo Cosa cercavamo di capire? • • • • • • Risorse calcolo e storage Come sono finaziate le risorse Risorse per progetti specifici Coinvolgimento dei ricercatori/tecnologi Quali tipi di codice sono sviluppati Quali sono le prospettive per il futuro Quali sono stati i risultati? Analisi Generale Utilizzano cluster locali del mio istituto Utilizzano cluster locali di altri istituti Utilizzano sistemi distribuiti Utilizzano sistemi di grandi dimensioni (IBM BGQ – Cluster con oltre 1000 CPU) 38% 33% 30% 20% I programmi di calcolo hanno bisogno di grandi dimensioni di data storage ? Richiesti 2,660 TB Chi sono i finaziatori? Le ricerche che prevedono calcolo sono condotte in ambito di progetti finanziati da Nessuno INAF ASI Altri istituti di Ricerca (Università, CNR, ecc) MIUR Unione Europea Collaborazioni internazionali 20% 40% 20% 5% 18% 15% 30% Punto di forza: capacità generalizzata di ottenere finanziamenti ( 80%) Punto di debolezza: solo il 15% sono risorse UE e 70% risorse INAF e da Collaborazioni E ancora… • Esistono dei sistemi di calcolo dedicati a Progetti specifici ? SI (60%) • Quale futuro? Mainframe (> 1000 CPU/core) Acceleratori Grafici (GPUs) Cloud Computing Cloud Data Calcolo distribuito (grid) 30% 20% 5% 20% 15% Questioni aperte • Riteniamo di avere sufficienti risorse di calcolo HPC per gli obiettivi scientifici/tecnologici ? • Partecipiamo a call di programmi grant per l’assegnazione di risorse di calcolo? • Quali politiche adottare per HPC e HTC? Pero’…. • Siamo bravi: 159 Milioni di ore calcolo equivalenti per CPU/core BGQ Cineca assegnate nel 2013 per programmi di ricerca – 53 Milioni OATO, 50 Milioni OAPA, 20 Milioni OATS – OATO+OACT hanno una assegnazione straordinaria a carico INAF/ASI per 70 Milioni di ore Nuove indagine • Approfondire l’indagine conoscitiva • Focalizzare su aspetti specifici – HPC – HTC – Cloud Indagine su HPC • Quali obiettivi? Individuare necessita’ per il triennio. – Tipologia di risorse (produzione, test, sviluppo) – Necessita’ di storage – Difficolta’ incontrate nell’uso delle risorse utilizzate – Tipo di supporto tecnico se richiesto – Quali prospettive per il triennio? Strutture interessate • 9 Strutture INAF hanno espresso interesse per i programmi HPC – – – – – – – – – OA Bologna OA Roma OA Trieste IRA Bologna OA Capodimonte Napoli OA Torino OA Catania OA Arcetri Firenze OA Palermo INAF HPC NO HPC Programmi di ricerca - Complessivamente >= 16 Programmi di ricerca già attivi e che continueranno nel prossimo triennio - Si segnalano OAPA e OACT hanno presentato 3 programmi differenti in ciascuna struttura - OATS hanno presentato un report integrato con almeno 3 programmi differenti - OACT in un programma (GAIA) collabora con OA Torino ed esiste specifica convenzione (MoU) con il Cineca per il programma Gaia Quali codici? • Simulazioni idrodinamiche – Ammaissi globulari, galassie, strutture su larga scala • • • • First stars, stelle e oggetti protostellari Dinamica dell’atmosfera solare Magneto-idrodinamica dei plasmi Optical turbulence modelling for Extremely Large Telescopes Dove • • • • • • • CINECA (BGQ, PLX, cluster) Eurora-CINECA ECMWF (CRAY XT5) Univ. Tennessee (CRAY TX5) DESI (Hungary) Marenostrum (BSC) Cluster locali OA Bologna Programma di ricerca Simulazioni idrodinamiche della formazione ed arricchimento chimico di proto-ammassi globulari e di galassie nane ultra-deboli PI: F. Calura - Numero di Persone : 2 Pubblicazioni nell’ultimo triennio 21 e Conferenze 5 Sistema utilizzato: Cluster Paradigma MPI Risorse utilizzate: 100,000 ore su Eurora-CINECA Richieste: 1000 CPU/core con 1 Milione di ore Spazio disco > 1 TB OA Roma Programma di ricerca FIRST: the first stars and galaxies/ERC-.‐Starting Grant project (GA306476) PI: R. Schneider - Numero di Persone : 14 Pubblicazione nell’ultimo triennio 15 e Conferenze 2 Sistema utilizzato: Cluster Paradigma MPI+OMP+GPU Risorse utilizzate: Intel+IBM cluster Richieste: 1024 CPU/core con 80 Milioni di ore Spazio disco 100 TB OA Trieste Programmi di ricerca Simulazioni numeriche idrodinamiche di galassie, clusters e volumi cosmologici PIs: S. Borgani, P. Monaco, G. Murante - Numero di Persone : 18 - Pubblicazione nell’ultimo triennio 39 e Conferenze 35 - Sistema utilizzato: Cluster Paradigma MPI+OMP - Risorse utilizzate: 13 Milioni di ore in BGQ e Cluster Cineca, 4 Milioni di ore Risorse in Ungheria (SP6) - Richieste: 16 Milioni di ore Spazio disco 100 TB. Evitare BGQ - Difficoltà: lunghe code su BGQ (parzialmente inutilizzabile) IRA Bologna Programma di ricerca Non-thermal components in galaxy clusters, theoretical and observational studies PI: G. Brunetti - Numero di Persone : 6 Pubblicazione nell’ultimo triennio 9 e Conferenze 30 Sistema utilizzato: Cluster Paradigma MPI+OMP Risorse utilizzate: 3 Milioni di ore inBGQ Cineca Richieste: 50 Milioni di ore Spazio disco 150 TB Difficoltà: lunghe code su BGQ OA Capodimonte Napoli Programma di ricerca CO5BOLD Simulations: dinamica dell’atmosfera solare PI: T. Starus - Numero di Persone : 1 - Pubblicazione nell’ultimo triennio Non Segnalate e Conferenze Non Segnalate - Sistema utilizzato: Non Segnalate Paradigma OMP - Risorse utilizzate: Non Segnalate - Richieste: 100,000 ore su Shared Memory Spazio disco 10 TB - Difficoltà: OA Torino Programma di ricerca Simulazioni Magneto‐Idrodinamiche di plasmi astrofisici: sviluppo di algoritmi ed applicazioni PI: G. Bodo - Numero di Persone : 5 Pubblicazione nell’ultimo triennio 18 e Conferenze 7 Sistema utilizzato: Cluster Paradigma MPI Risorse utilizzate: 33 Milioni di ore in BGQ Cineca Richieste: CRAY XT5 Univ. Tennessee 50 Milioni di ore Spazio disco 100 TB - Difficoltà: lunghe code su BGQ OA Catania e Torino Programma di ricerca Solver Gaia AVU-GSR CU3 PI: U. Becciani - Numero di Persone : 3 - Pubblicazione nell’ultimo triennio 3 e Conferenze 5 - Sistema utilizzato: BGQ Cineca+ Cluster Locali Paradigma MPI+OMP - Risorse utilizzate: 3 Milioni di ore in BGQ Cineca - Richieste: 70 Milioni di ore BGQ Cineca MOU-INAF Cineca: costo complessivo di 25 Keuro/anno. Durata 8 anni 15 TB - Difficoltà: lunghe code su BGQ in fase di test. Ma ottenuti Run a code riservate in fase di produzione e certezza delle risorse OA Catania Programma di ricerca Simulazioni MHD PI: A. Bonanno - Numero di Persone : 1 Pubblicazione nell’ultimo triennio 6 e Conferenze 4 Sistema utilizzato: Paradigma MPI + OMP Risorse utilizzate: Non dichiarate Richieste: 64 nodi con 32 GB + 8 GPU e Spazio disco di 1 TB Difficoltà: OA Catania Programma di ricerca Simulazioni MHD PI: V. Antonuccio - Numero di Persone : 2 Pubblicazione nell’ultimo triennio 7 e Conferenze 2 Sistema utilizzato: Paradigma MPI + OMP Risorse utilizzate: PLX Cineca 100,000 ore Richieste: 7.5 Milioni di ore CPU/core 10 TB Difficoltà: OA Arcetri (FI) Programma di ricerca Special Project ECMWF: Optical turbulence modelling for Extremely Large Telescopes (SPITFOT) PI: E. Masciadri - Numero di Persone : 3 Pubblicazione nell’ultimo triennio 9 e Conferenze 15 Sistema utilizzato: Paradigma MPI Risorse utilizzate: 60 More (SBU) su Cray X30 o Power 7 presso ECMWF - Richieste: 60 More (SBU) su Cray X30 o Power 7 presso ECMWF Spazio disco 1 TB - Difficoltà: porting da IBM a CRAY OA Palermo Programma di ricerca Dinamica delle strutture magnetiche della corona solare PI: F. Reale - Numero di Persone : 5 Pubblicazione nell’ultimo triennio 4 e Conferenze 5 Sistema utilizzato: Paradigma MPI Risorse utilizzate: Cluster + BGQ Cineca 36 Milioni di ore Richieste: 100 Milioni di ore BGQ Cineca Spazio disco 100 TB - Difficoltà: OA Palermo Programma di ricerca Oggetti stellari giovani e getti protostellari. PI: S. Orlando - Numero di Persone : 9 Pubblicazione nell’ultimo triennio 4 e Conferenze 14 Sistema utilizzato: Paradigma MPI Risorse utilizzate: Cluster + BGQ Cineca 4.5 Milioni di ore Richieste: 50 Milioni di ore BGQ Cineca Spazio disco 40 TB - Difficoltà: OA Palermo Programma di ricerca Esplosioni di novae, resti di supernova, e meccanismi di accelerazione dei raggi cosmici. PI: S. Orlando - Numero di Persone : 5 Pubblicazione nell’ultimo triennio 6 e Conferenze 7 Sistema utilizzato: Paradigma MPI Risorse utilizzate: Cluster + BGQ Cineca 30 Milioni di ore Richieste: 100 Milioni di ore BGQ Cineca Spazio disco 80 TB - Difficoltà: Quale coinvolgimento? • Circa 70 unità di personale (staff e non staff) • 143 pubblicazioni nel triennio • Partecipaizone a congressi 129 INAF TOTALE HPC Conclusioni • Ore di calcolo usate nel triennio 255 Milioni di ore (CPU/core) • Risorse di calcolo stimate (deisderata) per il prossimo triennio 550 Milioni di ore (CPU/core) 710 TB Spazio disco • Risorse utilizzate 68% Cluster e IBM BGQ al Cineca (11 programmi su 16) • Paradigma dei codici più usati: MPI 55% MPI+OMP 45% Problemi incontrati • Difficolta’ principale emersa: Uso del sistema IBM BlueGeneQ al Cineca Code intasate e lunghe attese Ingegnerizzazione del sistema: piccoli nodi che implicano una reingegnerizzazione del codice • Supporto richiesto: – 65% richiede supporto per il porting su GPUs per uno stimato impegno di 3 FTE • Ciò implica che anche la nostra comunità si prepara all’HPC della nuova generazione e necessita uno specifico supporto. Problematiche aperte • Accesso a risorse piccole (T2) – Test – Sviluppo – Sistemi di pronta risposta (qsub ORA) • (cluster INAF…risorse interne) • Progetti Euclid. SKA. Risorse future Grazie per l’attenzione