INTEROPERABILITA’ TRA I PROGETTI DELL’AVVISO 1575/2004 STRATEGIE E STATO DELL’ARTE MUR, 14/02/2008 - L.Merola 1 12/02/2007: Primo Concertation Meeting dei progetti dell’Avviso 1575 Favorire una proficua sinergia finalizzata a delineare la struttura portante dell’ infrastruttura GRID nazionale che presenti fattori manifesti o latenti di attrattività per il sistema industriale. Creare nell’ambito del sito web del PON Ricerca una community web dedicata all’Avviso 1575/2004. Attivare un Tavolo Tecnico a cui demandare la definizione di un programma volto a supportare l’ interoperabilità tra i 4 progetti cofinanziati. Aprire ad altri soggetti che operano in ambito GRID per promuovere un proficuo interscambio nazionale ed internazionale. 2 12/05/2007: Avvio del Tavolo Tecnico sull’interoperabilità Azioni: Realizzare, in più steps, l’integrazione e il consolidamento operativo delle risorse informatiche predisposte dai progetti finanziati con le risorse assegnate dall’Avviso 1575 in una comune e-Infrastruttura meridionale integrata a livello italiano ed europeo,con particolare riguardo a: - - - Miglioramento della connettivita’ interna tra le sedi in OB1 ed esterna verso l’e-Infrastruttura nazionale. Definizione e realizzazione di comuni condizioni operative con Service Level Agreement e policies d’interoperabilita’ concordate a livello interno e con le e-Infrastrutture di riferimento nazionale ed europeo. Miglioramento ed evoluzione coordinato dei servizi di middleware secondo le necessità di comuni applicazioni all’interno del quadro di riferimento nazionale ed internazionale. Scelta e supporto integrato di possibili applicazioni comuni. Definizione realizzazione di un comune portale di accesso. 3 COMITATO TECNICO SULL’INTEOPERABILITA’ (AVVISO 1575/2004) PI2S2 Dr. Giuseppe Andronico [email protected] effettivo PI2S2 Prof. Antonella Di Stefano [email protected] sostituto PI2S2 Prof. Antonio Puliafito [email protected] sostituto SCoPE Prof. Leonardo Merola (ccordinatore) [email protected] effettivo SCoPE Prof. Guido Russo [email protected] sostituto SCoPE Prof. Almerico Murli [email protected] sostituto CRESCO Dr. Silvio Migliori [email protected] effettivo CRESCO Dr. Giovanni Bracco [email protected] sostituto CRESCO Dr. Andrea Quintiliani [email protected] sostituto CYBERSAR dr Alberto Masoni [email protected] effettivo CYBERSAR Dr. Daniele Mura [email protected] sostituto CYBERSAR Gianluigi Zanetti [email protected] sostituto ESPERTO MUR Prof. Mirco Mazzuccato [email protected] ESPERTO MUR Prof. Francesco Beltrame [email protected] Riunioni del Comitato Tecnico sull’Interoperabilità: 19/07/2007 27/09/2007 25/10/2007 29/11/2007 20/12/2007 24/01/2008 Documenti strategici e operativi: Documento sulla Connettività OK Documento sull’Interoperabilità OK Documento tecnico operativo in corso Service Level Agreement in corso Prossime riunioni: 28/02/2008 27/03/2008 23/04/2008 22/05/2008 5 E’ stato costituito un gruppo di lavoro tecnico operativo composto da esperti dei quattro progetti, che riferiscono al Comitato Tecnico sull’Interoperabilità (CTI). Il gruppo tecnico operativo ha il mandato di: elaborare un Documento Tecnico Operativo che adotti le direttive strategiche fornite dal Comitato Tecnico sull’interoperabilità; proporre soluzioni tecniche implementative di dettaglio; gestire tecnicamente ed operativamente l’infrastruttura comune. 6 Gruppo TECNICO OPERATIVO (AVVISO 1575/2004) SCOPE (Napoli): Silvio Pardi [email protected] (coordinatore del gruppo) Gennaro Tortone [email protected] Fulvio Serio [email protected] Marco Scognamiglio [email protected] Davide Bottalico [email protected] Vania Boccia [email protected] PI2S2 (Sicilia): Rosanna Catania [email protected] Giuseppe Platania [email protected] Gianni Mario Ricciardi [email protected] Gianluca Passaro [email protected] Alberto Falzone [email protected] Daniele Zito [email protected] Emilio Mastriani [email protected] CRESCO (ENEA): Giovanni Bracco [email protected] Carlo Scio [email protected] Andrea Santoro [email protected] Alessio Rocchi [email protected] CYBERSAR (Sardegna): Daniele Mura [email protected] Gianmario Mereu [email protected] 7 E’ in fase avanzata di realizzazione la prima fase: L’ INTEROPERABILITA’ DELLE INFRASTRUTTURE Si sta avviando la seconda fase: L’ INTEROPERABILITA’ DELLE APPLICAZIONI Si è avviata la discussione sulla programmazione 2007-2013: LA REALIZZAZIONE DELL’e-INFRASTRUTTURA ITALIANA APERTA ALLA COLLABORAZIONE E ALL’INTERAZIONE TRA RICERCA E IMPRESA 8 TEMPISTICA 27/09/07 25/10/07 29/11/07 20/12/07 24/01/08 28/02/08 INIZIO DEL TESTBED ATTIVAZIONE VO NEI SITI PROVVISTI DI SERVIZI COLLETTIVI INTEGRAZIONE DEI 4 PON IMPLEMENTAZIONE DEI SERVIZI COLLETTIVI NEI SITI ANCORA SPROVVISTI SPECIFICHE DEI SERVIZI DI PRIMO LIVELLO INTEGRAZIONE DEI 4 PON SPECIFICHE SERVIZI DI SECONDO LIVELLO E SERVICES LEVEL AGREEMENT TESTBED SU TUTTA LA NUOVA GRIGLIA A P P L I C A Z I O N I 9 C O M U N I Community web Avviso 1575: OK CONNETTIVITA’ fra i progetti Avviso 1575/2004 http://www.ponricerca.miur.it/OrganizationFolders/CentriSuperC/6704.DOC documento approvato nella riunione del CTI del 25-10-2007 12 Per la realizzazione dell’interoperabilità dell’infrastruttura Grid dei progetti dell’Avviso 1575/2004 è cruciale che la connettività (reti e comunicazioni) sia adeguata in termini di prestazioni, affidabilità, efficienza, ridondanza. E’ essenziale il ruolo che il Consortium GARR potrà svolgere anche in futuro. Obiettivo immediato E’ indispensabile che i quattro progetti possano contare subito su interconnessioni a 622 Mb/s con una banda garantita di almeno 400 Mb/s in questa fase iniziale di interoperabilità con successivo ampliamento quando sarà realizzata l’interconnessione per tutti al Gb/s e oltre, come peraltro è già previsto nei progetti GARR di potenziamento della rete a 10 Gb/s (GARRX). OTTOBRE 2007: E’ stata inviata una lettera al MUR affinché sostenga presso il Consortium GARR la priorità del potenziamento della CONNETTIVITA’ fra i progetti dell’Avviso 1575/2004 13 Obiettivo a medio-termine Realizzare un anello di fibre che interconnetta i siti relativi ai progetti finanziati dal PON utilizzando WDM (Multiplazione a Divisione di Lunghezza d’onda) con l’implementazione di collegamenti IP dedicati in tecnologia 10GigaEthernet e la remotizzazione di collegamenti fra le strutture di Storage in tecnologia FC o SCSI. Acquisizione fibre dedicate (dark fiber) in IRU (Indefeasible Right of Use): diritto di utilizzazione pluriennale di una infrastruttura in fibra ottica già esistente 14 La realizzazione • L’infrastruttura sarà costituita da tratte geografiche terrestri e marine e drop locali di collegamento • Le tratte a copertura geografica interregionale o interprovinciale saranno mutuabili dalla futura infrastruttura di GARR-X • Per le tratte locali (<70 Km) non condizionate da problemi di amplificazione o rigenerazione intermedia saranno utilizzate tratte locali di infrastrutture MAN preesistenti o da acquisire con appalti ad-hoc 15 Interconnessione SCOPE-CRESCO • Napoli Monte S. Angelo - Roma Sapienza sarà realizzata nel contesto del Lotto A.6 della gara GARR-X completamento a 5 mesi dalla consegna lavori. • Napoli Monte S. Angelo – Catania Cittadella sarà realizzata nel contesto del Lotto A.7 della gara GARR-X completamento a 10 mesi dall’inizio dei lavori. • Napoli Monte S. Angelo – Corso Umberto, realizzata nel contesto della MAN Napoletana della Ricerca è già disponibile in fibra G.652 (1 coppia dedicabile) • Corso Umberto – Enea Portici (circa 17 Km) va realizzata in fibra ottica G.652 al costo ~ 350K€ 16 Interconnessione PI2S2 • Le tratte interne Catania Cittadella-Palermo-Mazara del Vallo e Messina-Palermo saranno realizzate nel contesto del Lotto A.9 della gara GARR-X per cui è previsto il completamento a 10 mesi dall’inizio dei lavori. 17 Interconnessione CYBERSAR • la tratta sottomarina Sa Illetta-Mazara del Vallo (377km – fibra G.654) è già stata realizzata nel contesto del consorzio Janna • la tratta sottomarina Olbia – Civitavecchia (250km – fibra G.652) è già stata realizzata nel contesto del consorzio Janna • la tratta Civitavecchia-Roma sarà realizzata nel contesto del Lotto A.13 della gara GARRX completamento a 10 mesi dalla consegna lavori. • La tratta Cagliari (Sa Illetta) –Sassari (Macao) - Olbia sarà realizzata nel contesto del Lotto A.11 della gara GARR-X completamento a 10 mesi • la tratta interna Sa Illetta (landing point di Janna) -Pula (parco Polaris - CRS4) di circa 40Km è già disponibile (Fibra Telecom/Tiscali già Acquisita in IRU dalla Regione nell’ambito diCyberSAR) e fornita in comodato d’uso gratuito a CRS4 18 INTEROPERABILITA’ fra i progetti Avviso 1575/2004 http://www.ponricerca.miur.it/OrganizationFolders/CentriSuperC/6705.DOC documento approvato nella riunione del CTI del 25-10-2007 19 L’obiettivo dell’ interoperabilità fra i progetti dell’Avviso 1575/04 è in corso di realizzazione attraverso l’adozione di uno standard comune di comunicazione e di servizi di base comuni ed è compatibile con l’interoperabilità e la facile integrazione con le altre infrastrutture di calcolo distribuito nazionali ed internazionali basate sulla tecnologia Grid. L’interoperabilità è già stata realizzata in versione limitata e prototipale con risorse proprie dei singoli progetti già esistenti (pre-esistenze) e sarà completa entro pochi mesi e comunque entro la conclusione dei progetti. A regime: -- potenza di calcolo di alcune migliaia di “core” per progetto -- centinaia di TB per progetto -- servizi Grid in parte centralizzati in parte replicati localmente 20 Preesistenze SCoPE Le principali preesistenze di risorse di calcolo riguardano i settori scientifici Fisica-Chimica-Matematica che operano nel Campus di Monte Sant’Angelo dove è già attiva un’infrastruttura di Campus Grid, e i poli di Ingegneria e di Medicina, tutti collegati in MAN con fibra a 2.4Gb/s. Preesistenze PI2S2 La grid siciliana è attualmente organizzata in poli di calcolo dislocati geograficamente. Preesistenze CRESCO La GRID ENEA è attualmente costituita da sei poli situati nei centri ENEA di Portici, Frascati, Roma (ENEA-Casaccia); Bologna; Brindisi, Matera (ENEA-Trisaia). Il progetto coinvolge, oltre a Portici, i centri ENEA di Brindisi e Trisaia (MT). Preesistenze CYBERSAR E’ organizzato in poli di calcolo, dislocati geograficamente, interconnessi da una fibra ottica dedicata ed integrati tra loro da una architettura di tipo 21 grid. L’adozione di uno strato middleware comune (anche tramite appositi gateway) è necessario al fine di creare una comune Infrastruttura di calcolo integrata e interoperabile sia a livello italiano che europeo anche con Grid che adottano standard diversi. Scelte strategiche: Standard comune di comunicazione: gLite Implementazione di servizi basati su gLite e LCG (LHC Computing Grid) Certification Authority riconosciuta a livello mondiale 22 Servizi di base (o di primo livello): Collective: Core: VOMS (Virtual Organization Memebership Service), RB/WMS (Resource Broker), BDII (Information Index) CE (Computing Element), WN (Worker Node), SE (Storage Element), UI (User Interface) Servizi aggiuntivi (o di secondo livello): Cataloghi virtuali dei file (LFC, AMGA, ecc.) Portale d’accesso (Genius, line-mode, ecc.) Monitoring (GridIce, Service Availability Montoring, ecc.) Tickets (Xoops/Xhelp, ecc.) Accounting (DGAS, APEL, ecc.) Tags (descrizione risorse, ecc.) Service Level Agreement 23 GARR GARR Altri Enti e realtà PI2S2 24 Servizi centralizzati e Servizi distribuiti I servizi di primo livello sono replicati nelle varie sedi come stabilito nel documento di interoperabilità. Per quanto riguarda i servizi di secondo livello tecnicamente appare opportuno centralizzare alcuni di essi per evitare eccessivo carico sulla rete Grid. 25 Vantaggi visione unica dell’intera infrastruttura nessuna modifica alla configurazione del RB locale assenza di un servizio centralizzato dedicato alla gestione del Grid Information Service e del Resource Broker implementazione semplice ed immediata 26 Applicazioni SCoPE (prime applicazioni “esportabili” per l’inteoperabilità) Applicazioni computazionali chimiche Gaussian 03 (codice di riferimento per i calcoli quantistici) sfrutta l’architettura SMP, mentre AMBER e GROMACS (codici di dinamica molecolare classica) lavorano efficacemente su architettura cluster. Applicazioni di Imaging medico (MedIGrid) 1) Effettuare la ricostruzione 3D di immagini SPECT mediante l’utilizzo di una libreria di software parallelo basata su MPI. 2) Effettuare denoising di sequenze ecocardiografiche mediante l’utilizzo di una libreria di software parallelo basata su PETSc. Applicazioni di Elettromagnetismo e Telecomunicazioni Previsione e il monitoraggio del campo elettromagnetico in centri urbani; pianificazione di reti wireless, una volta note le sorgenti di campo (antenne da installare, o già operanti, per le comunicazioni GSM), le condizioni iniziali e al contorno. Applicazioni di Fisica subnucleare e di astrofisica Studio delle interazioni protone-protone ad altissima energia presso l'acceleratore LHC (Large Hadron Collider) del CERN (esperimento ATLAS). Ricerca di onde gravitazionali (esperimento VIRGO). Astrofisica 27 di Survey Applicazioni PI2S2 (prime applicazioni “esportabili” per l’interoperabilità) FLASH (www.flash.uchicago.edu) è un programma sviluppato da Alliances Center for Astrophysical Termonuclear Flashes per studiare il problema dei lampi termonucleari sulla superficie di stelle compatte, ed e’ molto usato da comunità di astrofisica. Questa applicazione richiede MPICH2. OpenFOAM (www.opencfd.co.uk/openfoam) Open Field Operation and Manipulation, una applicazione per la simulazione di campi basata sulla risoluzione di equazioni differenziali alle derivate parziali e completamente basato sull’uso di MPICH2. Largamente usata da comunità di ingegneria e, in particolare, all’interno del progetto per calcoli di fluidodinamica che descrivono la combustione nei motori a scoppio. 28 Applicazioni CRESCO IDL Codice commerciale con licenza non parallelo ma con un elevato numero di casi da eseguire (es. analisi immagini, analisi immagini satellitari ...). L’ENEA può mettere a disposizione attraverso il suo portale l’accesso allo sviluppo e la possibilità di eseguire fino ad 80 casi in contemporanea a livello geografico e multipiattaforma. FLUENT Codice commerciale con licenza parallelo ad alto accoppiamento, il numero di licenze è limitato ma sufficienti ad una sperimentazione. CPMD Codice OpenSource parallelo per la modellazione di materiali. 29 Applicazioni CYBERSAR Chimica Mdynamix è un codice parallelo scalabile di simulazione di dinamiche molecolari di sistemi molecolari di varia natura. Meteorologia MOLOCH viene utilizzato per scopi di ricerca per la simulazione, ad alta risoluzione spaziale e a breve scadenza temporale, dello sviluppo di temporali, di flussi sopra orografie complesse e di processi fisici responsabili di precipitazioni intense. Idrologia CODESA-3D è un modello matematico-numerico che descrive il flusso di acqua sotterranea e il trasporto di inquinanti in essa disciolti nel suolo e sottosuolo. Astrofisica codice per simulazioni TD-DFT di molecole in tempo e spazio reale Ingegneria strutturale ed industriale simulazione e modellistica nell'ingegneria di processo e della produzione e la pianifcazione territoriale ed ambientale Fisica delle alte energie Esperimento ALICE (A Large Ion Collider Experiment) del CERN di Ginevra Fisica della Materia CMPTool (Caspur Model Potentials Tool), applicazione multi piattaforma sviluppata per simulazioni di dinamica molecolare Biofisica ORAC e' un codice di dinamica molecolare classica per simulare sistemi e processi con applicazioni nel campo biologico/medico alla scala microscopica 30 IMPLEMENTAZIONE TECNICA DELL’INTEROPERABILITA’ Documento Tecnico Operativo in corso di elaborazione 31 Documento Tecnico Operativo SOMMARIO 1. TAG DI RUNTIME 2. JOB QUEUE 3. SERVIZI COLLECTIVE CENTRALI E DISTRIBUITI 4. SERVIZI DI MONITORAGGIO 5. ISTALLAZIONE SOFTWARE APPLICATIVO OK 6. INTERFACCE E PROTOCOLLI PER LO STORAGE 7. ACCOUNTING 8. GESTIONE DOWNTIME E SISTEMA DI TICKET 9. SERVICE LEVEL AGREEMENT 10. ABILITAZIONE DELLE VO COMUNI 11. INTEROPERABILITA’ CON ALTRE INFRASTRUTTURE32 TAG DI RUNTIME Sono stati definiti i TAG che descrivono - secondo gli standard europei che si è deciso di adottare - le caratteristiche delle risorse hardware e software. TAG SPECIFICA MIDDLEWARE LCG-X_Y_Z Supporta versione del middleware LCG-X_Y_Z GLITE-X_Y_Z Supporta versione del middleware GLITE-X_Y_Z ANAGRAFICA CITTA’ (XXXX) Città dove è situato il sito PROJECT-NAME (XXXX) Nome del progetto SITE-NAME (XXXX) Nome del sito LIBRERIE E SOFTWARE MPICH Libreria MPICH MPICH2 Libreria MPICH versione 2 MPI_HOME_SHARED Architettura MPI con directory Shared tra i worker node MPI_HOME_NOTSHARED Architettura MPI con directory NON Shared tra i worker node IDL-X.Y Supporto per IDL versione X.Y ABAQUS-X.Y Supporto per ABAQUS versione X.Y 33 JOB QUEUE Tutti i progetti implementano tre code job per ogni progetto, short, long e infinite più la coda poncert (per la certificazione dei sw) con differenti policies di CPUTIME e WALLTIME e differenti priorità. Nome Coda TIPO CPUTIME (minuti) WALLTIME (minuti) PRIORITY jobmanager-<lsf/pbs>-poncert Coda di Certificazione 2880 4320 Prioritaria jobmanager-<lsf/pbs>-crescocert Coda di Certificazione 2880 4320 Prioritaria jobmanager-<lsf/pbs>-cybrcert Coda di Certificazione 2880 4320 Prioritaria jobmanager-<lsf/pbs>-pi2s2cert Coda di Certificazione 2880 4320 Prioritaria jobmanager-<lsf/pbs>-scopecert Coda di Certificazione 2880 4320 Prioritaria jobmanager-<lsf/pbs>-cresco_short Coda Job Cresco 15 120 Alta jobmanager-<lsf/pbs>-cresco_long Coda Job Cresco 720 1440 Media jobmanager-<lsf/pbs>-cresco_infinite Coda Job Cresco 2880 4320 Bassa jobmanager-<lsf/pbs>-cybr_short Coda Job Crybersar 15 120 Alta jobmanager-<lsf/pbs>-cybr_long Coda Job Crybersar 720 1440 Media jobmanager-<lsf/pbs>-cybr_infinite Coda Job Crybersar 2880 4320 Bassa jobmanager-<lsf/pbs>-pi2s2_short Coda Job PI2S2 15 120 Alta jobmanager-<lsf/pbs>-pi2s2_long Coda Job PI2S2 720 1440 Media jobmanager-<lsf/pbs>-pi2s2_infinite Coda Job PI2S2 2880 4320 Bassa 34 SERVIZI “COLLECTIVE” CENTRALI E DISTRIBUITI E’ stata adottata la seguente organizzazione: Servizi distribuiti: VOMS, BDII, RB/WMS, CE, SE, WN, UI LFC, Ticketing Servizi centralizzati: Monitoring, Accounting 35 SERVIZI DI MONITORAGGIO I servizi di monitoraggio sono stati implementati in maniera centrale e suddivisi tra i progetti in modo da avere molti tools attivi ma senza una eccessiva ridondanza che produrrebbe un eccessivo traffico di interrogazioni. Web LDAP Browser (in ogni sito) GridICE (centralizzato presso SCoPE) GStat (centralizzato presso il server goc.grid.sinica.edu.tw ) SAM +VO poncert (centralizzato presso CYBERSAR) Real-Time Monitoring (centralizzato presso PI2S2) 36 Monitoraggio SAM – CYBERSAR https://sam-cybr.ca.infn.it/sam/sam.py GRIDICE – SCoPE DOWN-TIME - PI2S2 GSTAT http://gridice.scope.unina.it http://trigrid-advices.trigrid.it/support/calendar/ 37 ISTALLAZIONE SOFTWARE APPLICATIVO Soluzione tecnica: Realizzare tool-kit di applicazione Pubblicare nella variabile di RUNTIME Installare il software tramite utenti SGM (Software Grid Manager ) E’ in corso la definizione delle applicazioni comuni e dei relativi tool-kit 38 INTERFACCE E PROTOCOLLI PER LO STORAGE Protocolli di trasferimento Per mantenere il sistema di autenticazione basato sui certificati, i progetti abiliteranno il protocollo di trasferimento griftp per il trasferimento dati. Interfacce SRM (Storage Resource Manager) e configurazioni Per garantire piena compatibilità ed interoperabilità con le altre strutture internazionali gli Storage Element impiegati per l’interoperabilità dai progetti utilizzeranno interfaccia SRM supportando srmv1.1 e srmv2.2. Ogni progetto abiliterà sugli storage element impegnati nell’interoperabilità una quantità di spazio disco da definire creando le seguenti aree logiche: /home/cresco, /home/cyersar, /home/pi2s2, /home/scope 39 ACCOUNTING DGAS (Distributed Grid Accounting System ) Si utilizzerà per le informazioni di accounting il sistema DGAS (ref. http://www.to.infn.it/grid/accounting/main.html) installando il sensore DGAS Gianduia sui Computing Element. HLR (Home Location Register ) Ogni sito installerà un HLR_RESOURCE ed un HLR_USER Server sul quale verranno registrate tutte le risorse disponibili per l’interoperabilità, in termini di code job. Sarà possibile individuare un HLR di secondo livello per raccogliere le informazioni dei differenti progetti in un unico punto, utilizzando il tool grafico HLR MON. 40 GESTIONE DOWNTIME E SISTEMA DI TICKET Ogni progetto utilizzerà il proprio sistema di ticketing locale. Per la gestione dei ticket interprogetto, se un utente del progetto X riscontra problemi sul sito del progetto Y, può aprire una segnalazione direttamente sul sistema di ticketing del progetto Y. I sistemi di ticketing devono prevedere almeno 3 aree per la suddivisione dei ticket: SITE – per i problemi tecnici di installazione VO – per le questioni relative alla singola virtual organization, certificazioni ecc. APPLICATION – per il supporto delle applicazioni. 41 SCOPE TICKET TICKET PI2S2 TICKET-CYBERSAR 42 SERVICE LEVEL AGREEMENT E’ stato preparato un documento per definire il livello di servizi che i progetti si impegnano a garantire. Ci si basa sull’esperienza del Regional Operation Center (ROC) italiano di EGEE. 43 E’ in corso la discussione dei seguenti punti principali: DURATA DELL’AGREEMENT RESPONSABILITA’ SUPPORTO DI SECONDO LIVELLO HARDWARE E CRITERI DI CONNETTIVITA’ DESCRIZONE DEI SERVIZI MINIMI OFFERTI (Numero di CPU e di spazio disco) SERVICE HOURS DOWNTIME SUPPORTO VO 44 Memorandum of Understanding Progetti Avviso 1575 Definizione del Service Level Agreement per l’interoperabilità tra i quattro progetti dell’Avviso 1575 (IN DISCUSSIONE) Ogni sito coinvolto nell’infrastruttura interoperabile dovrà : Fornire risorse di calcolo, storage e servizi: numero di CPU pari al 25% delle forniture ……………………… Garantire man power sufficiente per l’interoperabilità: almeno 2 persone, per un totale minimo di 1 FTE Gestire efficacemente le risorse del sito: a) effettuare gli aggiornamenti relativi al software applicativo per le applicazioni di interoperabilità. b) modificare le configurazioni coordinandosi durante le riunioni telefoniche. Prendere in carico e aggiornare i ticket relativi all’interoperabilità: tempo massimo di risposta: 48 ore dal lunedì al venerdì. 45 Monitorare “proattivamente” il sito, controllando periodicamente lo stato delle risorse e dei servizi mediante tools di monitoraggio concordati: GridICE, Gstat, SFT, ecc. Garantire continuità al supporto ed alla gestione del sito; durante i periodi unattended, si dovrà mettere in down-time il sito chiudendo le code. Garantire la partecipazione dei tecnici operativi dell’ interoperabilità alle phone conference quindicinali. Compilare i pre-report settimanali: entro il venerdì. Supportare le VO di test e controllo (coda poncert) con priorità maggiore rispetto alle altre VO. Questo MoU dovrà essere sottoscritto dal responsabile del progetto e potrà essere aggiornato in base ai feedback ottenuti durante la sperimentazione. 46 ABILITAZIONE DELLE VO COMUNI INTEROPERABILITA’ CON ALTRE INFRASTRUTTURE E’ attualmente in corso un’indagine per individuare aree applicative di interesse comune ai 4 progetti con l’obiettivo di creare VO tematiche trasversali. Tali VO costituiranno un valore aggiunto per l’integrazione e la coesione tra le infrastrutture nascenti ed avranno, tra le altre attività, l’obiettivo di individuare e manutenere il software applicativo di interesse specifico. Le soluzioni tecniche fin ora adottate sono adeguate per realizzare l’e-infrastruttura dell’Italia meridionale e per l’integrazione nell’ e-infrastruttura Grid italiana ed europea. 47 E’ ASSOLUTAMENTE NECESSARIO NON DISPERDERE AL TERMINE DEI PROGETTI IL PATRIMONIO DI RISORSE, COMPETENZE, SINERGIE E RISULTATI SCIENTIFICI ACQUISITI. OCCORRE ASSICURARE LA CONTINUITA’ DELLA COMUNITA’ CHE HA DATO VITA AL “1575” ESPORTANDO ANCHE L’ESPERIENZA AD ALTRE REALTA’ SCIENTIFICHE E NON. 48 PROGRAMMAZIONE 2007-2013 PON RICERCA E COMPETITIVITA’ Asse I: Sostegno ai mutamenti strutturali Asse II: Sostegno all’innovazione Asse I Obiettivo operativo: Potenziamento delle strutture e delle dotazioni scientifiche e tecnologiche Azione: Rafforzamento strutturale L’azione prevede lo sviluppo del GRID computing su una dimensione pluriregionale, in modo da assicurare il rafforzamento di un’infrastruttura strategica per la soluzione al problema del calcolo distribuito e ad alte prestazioni attraverso l’accesso a risorse di diversa natura (calcolatori, banche dati, librerie software). Ciò consentirà di valorizzare gli interventi realizzati nella programmazione 2000-2006 e di integrare quanto verrà compiuto attraverso la politica nazionale per le aree sottoutilizzate. Gli interventi sono mirati ad accrescere il ruolo che gli attori scientifici dell’obiettivo Convergenza potranno svolgere nell’ambito del VII Programma Quadro. 49 Conferenza Nazionale IES08 - Italian e-Science 2008 Napoli, 27–29 maggio 2008 Universita’ degli di Studi di Napoli Federico II Aula Magna, Complesso Universitario Monte S. Angelo, via Cintia, Napoli