INTEROPERABILITA’
TRA I PROGETTI DELL’AVVISO 1575/2004
STRATEGIE E STATO DELL’ARTE
MUR, 14/02/2008 - L.Merola
1
12/02/2007: Primo Concertation Meeting dei progetti dell’Avviso 1575
Favorire una proficua sinergia finalizzata a delineare la struttura portante
dell’ infrastruttura GRID nazionale che presenti fattori manifesti o latenti di
attrattività per il sistema industriale.
Creare nell’ambito del sito web del PON Ricerca una community web
dedicata all’Avviso 1575/2004.
Attivare un Tavolo Tecnico a cui demandare la definizione di un programma
volto a supportare l’ interoperabilità tra i 4 progetti cofinanziati.
 Aprire ad altri soggetti che operano in ambito GRID per promuovere un proficuo
interscambio nazionale ed internazionale.
2
12/05/2007: Avvio del Tavolo Tecnico sull’interoperabilità
Azioni:
Realizzare, in più steps, l’integrazione e il consolidamento operativo delle
risorse informatiche predisposte dai progetti finanziati con le risorse assegnate
dall’Avviso 1575 in una comune e-Infrastruttura meridionale integrata a livello
italiano ed europeo,con particolare riguardo a:
-
-
-
Miglioramento della connettivita’ interna tra le sedi in OB1 ed esterna
verso l’e-Infrastruttura nazionale.
Definizione e realizzazione di comuni condizioni operative con Service
Level Agreement e policies d’interoperabilita’ concordate a livello
interno e con le e-Infrastrutture di riferimento nazionale ed europeo.
Miglioramento ed evoluzione coordinato dei servizi di middleware
secondo le necessità di comuni applicazioni all’interno del quadro di
riferimento nazionale ed internazionale.
Scelta e supporto integrato di possibili applicazioni comuni.
Definizione realizzazione di un comune portale di accesso.
3
COMITATO TECNICO SULL’INTEOPERABILITA’ (AVVISO 1575/2004)
PI2S2
Dr. Giuseppe Andronico
[email protected]
effettivo
PI2S2
Prof. Antonella Di Stefano
[email protected]
sostituto
PI2S2
Prof. Antonio Puliafito
[email protected]
sostituto
SCoPE
Prof. Leonardo Merola
(ccordinatore)
[email protected]
effettivo
SCoPE
Prof. Guido Russo
[email protected]
sostituto
SCoPE
Prof. Almerico Murli
[email protected]
sostituto
CRESCO
Dr. Silvio Migliori
[email protected]
effettivo
CRESCO
Dr. Giovanni Bracco
[email protected]
sostituto
CRESCO
Dr. Andrea Quintiliani
[email protected]
sostituto
CYBERSAR
dr Alberto Masoni
[email protected]
effettivo
CYBERSAR
Dr. Daniele Mura
[email protected]
sostituto
CYBERSAR
Gianluigi Zanetti
[email protected]
sostituto
ESPERTO MUR
Prof. Mirco Mazzuccato
[email protected]
ESPERTO MUR
Prof. Francesco Beltrame
[email protected]
Riunioni del Comitato Tecnico sull’Interoperabilità:
19/07/2007
27/09/2007 25/10/2007 29/11/2007 20/12/2007
24/01/2008
Documenti strategici e operativi:
Documento sulla Connettività
OK
Documento sull’Interoperabilità OK
Documento tecnico operativo
in corso
Service Level Agreement
in corso
Prossime riunioni:
28/02/2008
27/03/2008
23/04/2008
22/05/2008
5
 E’ stato costituito un gruppo di lavoro tecnico
operativo composto da esperti dei quattro progetti, che
riferiscono al Comitato Tecnico sull’Interoperabilità (CTI).
Il gruppo tecnico operativo ha il mandato di:

elaborare un Documento Tecnico Operativo che
adotti le direttive strategiche fornite dal Comitato
Tecnico sull’interoperabilità;

proporre soluzioni tecniche implementative di
dettaglio;

gestire tecnicamente ed operativamente
l’infrastruttura comune.
6
Gruppo TECNICO OPERATIVO (AVVISO 1575/2004)
SCOPE (Napoli):
Silvio Pardi [email protected] (coordinatore del gruppo)
Gennaro Tortone [email protected]
Fulvio Serio [email protected]
Marco Scognamiglio [email protected]
Davide Bottalico [email protected]
Vania Boccia [email protected]
PI2S2 (Sicilia):
Rosanna Catania [email protected]
Giuseppe Platania [email protected]
Gianni Mario Ricciardi [email protected]
Gianluca Passaro [email protected]
Alberto Falzone [email protected]
Daniele Zito [email protected]
Emilio Mastriani [email protected]
CRESCO (ENEA):
Giovanni Bracco [email protected]
Carlo Scio [email protected]
Andrea Santoro [email protected]
Alessio Rocchi [email protected]
CYBERSAR (Sardegna):
Daniele Mura [email protected]
Gianmario Mereu [email protected]
7
 E’ in fase avanzata di realizzazione la prima fase:
L’ INTEROPERABILITA’ DELLE INFRASTRUTTURE
 Si sta avviando la seconda fase:
L’ INTEROPERABILITA’ DELLE APPLICAZIONI
 Si è avviata la discussione sulla programmazione
2007-2013:
LA REALIZZAZIONE DELL’e-INFRASTRUTTURA
ITALIANA APERTA ALLA COLLABORAZIONE
E ALL’INTERAZIONE TRA RICERCA E IMPRESA
8
TEMPISTICA
27/09/07
25/10/07
29/11/07
20/12/07
24/01/08
28/02/08
INIZIO DEL TESTBED
ATTIVAZIONE VO NEI SITI
PROVVISTI DI SERVIZI
COLLETTIVI
INTEGRAZIONE DEI 4
PON
IMPLEMENTAZIONE DEI SERVIZI COLLETTIVI
NEI SITI ANCORA SPROVVISTI
SPECIFICHE DEI SERVIZI
DI PRIMO LIVELLO
INTEGRAZIONE DEI 4
PON
SPECIFICHE SERVIZI DI SECONDO LIVELLO E
SERVICES LEVEL AGREEMENT
TESTBED SU TUTTA LA
NUOVA GRIGLIA
A
P
P
L
I
C
A
Z
I
O
N
I
9
C
O
M
U
N
I
Community web Avviso 1575: OK
CONNETTIVITA’
fra i progetti Avviso 1575/2004
http://www.ponricerca.miur.it/OrganizationFolders/CentriSuperC/6704.DOC
documento approvato nella riunione del CTI del 25-10-2007
12
 Per la realizzazione dell’interoperabilità dell’infrastruttura Grid dei
progetti dell’Avviso 1575/2004 è cruciale che la connettività (reti e
comunicazioni) sia adeguata in termini di prestazioni, affidabilità,
efficienza, ridondanza.
 E’ essenziale il ruolo che il Consortium GARR potrà svolgere
anche in futuro.
Obiettivo immediato
E’ indispensabile che i quattro progetti possano contare
subito su interconnessioni a 622 Mb/s con una banda
garantita di almeno 400 Mb/s in questa fase iniziale di
interoperabilità con successivo ampliamento quando sarà
realizzata l’interconnessione per tutti al Gb/s e oltre, come
peraltro è già previsto nei progetti GARR di potenziamento
della rete a 10 Gb/s (GARRX).
OTTOBRE 2007:
E’ stata inviata una lettera al MUR affinché sostenga presso il Consortium GARR la
priorità del potenziamento della CONNETTIVITA’ fra i progetti dell’Avviso 1575/2004
13
Obiettivo a medio-termine
Realizzare un anello di fibre
che interconnetta i siti relativi
ai progetti finanziati dal PON
utilizzando WDM
(Multiplazione a Divisione
di Lunghezza d’onda)
con l’implementazione di
collegamenti IP dedicati in
tecnologia 10GigaEthernet
e la remotizzazione di
collegamenti fra le strutture
di Storage in tecnologia FC
o SCSI.
Acquisizione fibre dedicate
(dark fiber) in IRU
(Indefeasible Right of Use):
diritto di utilizzazione
pluriennale di una
infrastruttura in fibra
ottica già esistente
14
La realizzazione
• L’infrastruttura sarà costituita da tratte geografiche
terrestri e marine e drop locali di collegamento
• Le tratte a copertura geografica interregionale o
interprovinciale saranno mutuabili dalla futura
infrastruttura di GARR-X
• Per le tratte locali (<70 Km) non condizionate da
problemi di amplificazione o rigenerazione intermedia
saranno utilizzate tratte locali di infrastrutture MAN
preesistenti o da acquisire
con appalti ad-hoc
15
Interconnessione SCOPE-CRESCO
• Napoli Monte S. Angelo - Roma Sapienza sarà realizzata nel contesto
del Lotto A.6 della gara GARR-X completamento a 5 mesi dalla
consegna lavori.
• Napoli Monte S. Angelo – Catania Cittadella sarà realizzata nel
contesto del Lotto A.7 della gara GARR-X completamento a 10 mesi
dall’inizio dei lavori.
• Napoli Monte S. Angelo –
Corso Umberto, realizzata
nel contesto della MAN
Napoletana della Ricerca è
già disponibile in fibra
G.652 (1 coppia
dedicabile)
• Corso Umberto – Enea
Portici (circa 17 Km) va
realizzata in fibra ottica
G.652 al costo ~ 350K€
16
Interconnessione PI2S2
• Le tratte interne Catania Cittadella-Palermo-Mazara del
Vallo e Messina-Palermo saranno realizzate nel
contesto del Lotto A.9 della gara GARR-X per cui è
previsto il completamento a
10 mesi dall’inizio dei lavori.
17
Interconnessione CYBERSAR
• la tratta sottomarina Sa Illetta-Mazara del
Vallo (377km – fibra G.654) è già stata
realizzata nel contesto del consorzio Janna
• la tratta sottomarina Olbia – Civitavecchia
(250km – fibra G.652) è già stata realizzata
nel contesto del consorzio Janna
• la tratta Civitavecchia-Roma sarà realizzata
nel contesto del Lotto A.13 della gara GARRX completamento a 10 mesi dalla consegna
lavori.
• La tratta Cagliari (Sa Illetta) –Sassari (Macao)
- Olbia sarà realizzata nel contesto del Lotto
A.11 della gara GARR-X completamento a 10
mesi
• la tratta interna Sa Illetta (landing point di
Janna) -Pula (parco Polaris - CRS4) di circa
40Km è già disponibile (Fibra Telecom/Tiscali
già Acquisita in IRU dalla Regione
nell’ambito diCyberSAR) e fornita in
comodato d’uso gratuito a CRS4
18
INTEROPERABILITA’
fra i progetti Avviso 1575/2004
http://www.ponricerca.miur.it/OrganizationFolders/CentriSuperC/6705.DOC
documento approvato nella riunione del CTI del 25-10-2007
19
L’obiettivo dell’ interoperabilità fra i progetti dell’Avviso 1575/04 è in
corso di realizzazione attraverso l’adozione di uno standard comune
di comunicazione e di servizi di base comuni ed è compatibile con
l’interoperabilità e la facile integrazione con le altre infrastrutture di
calcolo distribuito nazionali ed internazionali basate sulla tecnologia
Grid.
L’interoperabilità è già stata realizzata in versione limitata e prototipale
con risorse proprie dei singoli progetti già esistenti (pre-esistenze) e
sarà completa entro pochi mesi e comunque entro la conclusione dei
progetti.
A regime:
-- potenza di calcolo di alcune migliaia di “core” per progetto
-- centinaia di TB per progetto
-- servizi Grid in parte centralizzati in parte replicati localmente
20
Preesistenze SCoPE
Le principali preesistenze di risorse di calcolo riguardano i settori
scientifici Fisica-Chimica-Matematica che operano nel Campus di Monte
Sant’Angelo dove è già attiva un’infrastruttura di Campus Grid, e i poli di
Ingegneria e di Medicina, tutti collegati in MAN con fibra a 2.4Gb/s.
Preesistenze PI2S2
La grid siciliana è attualmente organizzata in poli di calcolo dislocati
geograficamente.
Preesistenze CRESCO
La GRID ENEA è attualmente costituita da sei poli situati nei centri ENEA
di Portici, Frascati, Roma (ENEA-Casaccia); Bologna; Brindisi, Matera
(ENEA-Trisaia). Il progetto coinvolge, oltre a Portici, i centri ENEA di
Brindisi e Trisaia (MT).
Preesistenze CYBERSAR
E’ organizzato in poli di calcolo, dislocati geograficamente, interconnessi
da una fibra ottica dedicata ed integrati tra loro da una architettura di tipo
21
grid.
L’adozione di uno strato middleware comune
(anche tramite appositi gateway) è necessario
al fine di creare una comune Infrastruttura di
calcolo integrata e interoperabile sia a livello
italiano che europeo anche con Grid che
adottano standard diversi.
Scelte strategiche:
 Standard comune di comunicazione: gLite
 Implementazione di servizi basati su gLite
e LCG (LHC Computing Grid)
 Certification Authority riconosciuta a livello mondiale
22
 Servizi di base (o di primo livello):
Collective:
Core:
VOMS (Virtual Organization Memebership Service),
RB/WMS (Resource Broker), BDII (Information Index)
CE (Computing Element), WN (Worker Node),
SE (Storage Element), UI (User Interface)
 Servizi aggiuntivi (o di secondo livello):
Cataloghi virtuali dei file (LFC, AMGA, ecc.)
Portale d’accesso (Genius, line-mode, ecc.)
Monitoring (GridIce, Service Availability Montoring, ecc.)
Tickets (Xoops/Xhelp, ecc.)
Accounting (DGAS, APEL, ecc.)
Tags (descrizione risorse, ecc.)
 Service Level Agreement
23
GARR
GARR
Altri Enti e realtà
PI2S2
24
Servizi centralizzati e Servizi distribuiti
I servizi di primo livello sono replicati nelle
varie sedi come stabilito nel documento di
interoperabilità.
Per quanto riguarda i servizi di secondo livello
tecnicamente appare opportuno centralizzare
alcuni di essi per evitare eccessivo carico sulla
rete Grid.
25
Vantaggi




visione unica dell’intera infrastruttura
nessuna modifica alla configurazione del RB
locale
assenza di un servizio centralizzato dedicato
alla gestione del Grid Information Service e
del Resource Broker
implementazione semplice ed immediata
26
Applicazioni SCoPE
(prime applicazioni “esportabili” per l’inteoperabilità)
 Applicazioni computazionali chimiche
Gaussian 03 (codice di riferimento per i calcoli quantistici) sfrutta
l’architettura SMP, mentre AMBER e GROMACS (codici di dinamica
molecolare classica) lavorano efficacemente su architettura cluster.
 Applicazioni di Imaging medico (MedIGrid)
1) Effettuare la ricostruzione 3D di immagini SPECT mediante l’utilizzo di
una libreria di software parallelo basata su MPI.
2) Effettuare denoising di sequenze ecocardiografiche mediante l’utilizzo
di una libreria di software parallelo basata su PETSc.
 Applicazioni di Elettromagnetismo e Telecomunicazioni
Previsione e il monitoraggio del campo elettromagnetico in centri urbani;
pianificazione di reti wireless, una volta note le sorgenti di campo (antenne
da installare, o già operanti, per le comunicazioni GSM), le condizioni
iniziali e al contorno.
 Applicazioni di Fisica subnucleare e di astrofisica
Studio delle interazioni protone-protone ad altissima energia presso
l'acceleratore LHC (Large Hadron Collider) del CERN (esperimento
ATLAS). Ricerca di onde gravitazionali (esperimento VIRGO). Astrofisica
27
di Survey
Applicazioni PI2S2
(prime applicazioni “esportabili” per l’interoperabilità)
 FLASH (www.flash.uchicago.edu) è un programma sviluppato da
Alliances Center for Astrophysical Termonuclear Flashes per
studiare il problema dei lampi termonucleari sulla superficie di
stelle compatte, ed e’ molto usato da comunità di astrofisica.
Questa applicazione richiede MPICH2.
 OpenFOAM
(www.opencfd.co.uk/openfoam)
Open
Field
Operation and Manipulation, una applicazione per la simulazione
di campi basata sulla risoluzione di equazioni differenziali alle
derivate parziali e completamente basato sull’uso di MPICH2.
Largamente usata da comunità di ingegneria e, in particolare,
all’interno del progetto per calcoli di fluidodinamica che
descrivono la combustione nei motori a scoppio.
28
Applicazioni CRESCO



IDL Codice commerciale con licenza non parallelo ma con un
elevato numero di casi da eseguire (es. analisi immagini, analisi
immagini satellitari ...). L’ENEA può mettere a disposizione
attraverso il suo portale l’accesso allo sviluppo e la possibilità di
eseguire fino ad 80 casi in contemporanea a livello geografico e
multipiattaforma.
FLUENT Codice commerciale con licenza parallelo ad alto
accoppiamento, il numero di licenze è limitato ma sufficienti ad
una sperimentazione.
CPMD Codice OpenSource parallelo per la modellazione di
materiali.
29
Applicazioni CYBERSAR








Chimica
Mdynamix è un codice parallelo scalabile di simulazione di dinamiche molecolari
di sistemi molecolari di varia natura.
Meteorologia
MOLOCH viene utilizzato per scopi di ricerca per la simulazione, ad alta
risoluzione spaziale e a breve scadenza temporale, dello sviluppo di temporali, di
flussi sopra orografie complesse e di processi fisici responsabili di
precipitazioni intense.
Idrologia
CODESA-3D è un modello matematico-numerico che descrive il flusso di acqua
sotterranea e il trasporto di inquinanti in essa disciolti nel suolo e sottosuolo.
Astrofisica
codice per simulazioni TD-DFT di molecole in tempo e spazio reale
Ingegneria strutturale ed industriale
simulazione e modellistica nell'ingegneria di processo e della produzione e la
pianifcazione territoriale ed ambientale
Fisica delle alte energie
Esperimento ALICE (A Large Ion Collider Experiment) del CERN di Ginevra
Fisica della Materia
CMPTool (Caspur Model Potentials Tool), applicazione multi piattaforma
sviluppata per simulazioni di dinamica molecolare
Biofisica
ORAC e' un codice di dinamica molecolare classica per simulare sistemi e
processi con applicazioni nel campo biologico/medico alla scala microscopica
30
IMPLEMENTAZIONE TECNICA
DELL’INTEROPERABILITA’
Documento Tecnico Operativo in corso di elaborazione
31
Documento Tecnico Operativo
SOMMARIO
 1. TAG DI RUNTIME
 2. JOB QUEUE
 3. SERVIZI COLLECTIVE CENTRALI E DISTRIBUITI
 4. SERVIZI DI MONITORAGGIO
 5. ISTALLAZIONE SOFTWARE APPLICATIVO
OK
 6. INTERFACCE E PROTOCOLLI PER LO STORAGE
 7. ACCOUNTING
 8. GESTIONE DOWNTIME E SISTEMA DI TICKET
 9. SERVICE LEVEL AGREEMENT
 10. ABILITAZIONE DELLE VO COMUNI
 11. INTEROPERABILITA’ CON ALTRE INFRASTRUTTURE32
TAG DI RUNTIME
Sono stati definiti i TAG che descrivono - secondo gli standard europei
che si è deciso di adottare - le caratteristiche delle risorse hardware e
software.
TAG
SPECIFICA
MIDDLEWARE
LCG-X_Y_Z
Supporta versione del middleware LCG-X_Y_Z
GLITE-X_Y_Z
Supporta versione del middleware GLITE-X_Y_Z
ANAGRAFICA
CITTA’ (XXXX)
Città dove è situato il sito
PROJECT-NAME (XXXX)
Nome del progetto
SITE-NAME (XXXX)
Nome del sito
LIBRERIE E SOFTWARE
MPICH
Libreria MPICH
MPICH2
Libreria MPICH versione 2
MPI_HOME_SHARED
Architettura MPI con directory Shared tra i worker node
MPI_HOME_NOTSHARED
Architettura MPI con directory NON Shared tra i worker node
IDL-X.Y
Supporto per IDL versione X.Y
ABAQUS-X.Y
Supporto per ABAQUS versione X.Y
33
JOB QUEUE
Tutti i progetti implementano tre code job per ogni progetto, short, long e
infinite più la coda poncert (per la certificazione dei sw) con differenti
policies di CPUTIME e WALLTIME e differenti priorità.
Nome Coda
TIPO
CPUTIME (minuti)
WALLTIME (minuti)
PRIORITY
jobmanager-<lsf/pbs>-poncert
Coda di Certificazione
2880
4320
Prioritaria
jobmanager-<lsf/pbs>-crescocert
Coda di Certificazione
2880
4320
Prioritaria
jobmanager-<lsf/pbs>-cybrcert
Coda di Certificazione
2880
4320
Prioritaria
jobmanager-<lsf/pbs>-pi2s2cert
Coda di Certificazione
2880
4320
Prioritaria
jobmanager-<lsf/pbs>-scopecert
Coda di Certificazione
2880
4320
Prioritaria
jobmanager-<lsf/pbs>-cresco_short
Coda Job Cresco
15
120
Alta
jobmanager-<lsf/pbs>-cresco_long
Coda Job Cresco
720
1440
Media
jobmanager-<lsf/pbs>-cresco_infinite
Coda Job Cresco
2880
4320
Bassa
jobmanager-<lsf/pbs>-cybr_short
Coda Job Crybersar
15
120
Alta
jobmanager-<lsf/pbs>-cybr_long
Coda Job Crybersar
720
1440
Media
jobmanager-<lsf/pbs>-cybr_infinite
Coda Job Crybersar
2880
4320
Bassa
jobmanager-<lsf/pbs>-pi2s2_short
Coda Job PI2S2
15
120
Alta
jobmanager-<lsf/pbs>-pi2s2_long
Coda Job PI2S2
720
1440
Media
jobmanager-<lsf/pbs>-pi2s2_infinite
Coda Job PI2S2
2880
4320
Bassa
34
SERVIZI “COLLECTIVE” CENTRALI E DISTRIBUITI
E’ stata adottata la seguente organizzazione:
Servizi distribuiti:
VOMS, BDII, RB/WMS, CE, SE, WN, UI
LFC, Ticketing
Servizi centralizzati:
Monitoring, Accounting
35
SERVIZI DI MONITORAGGIO
I servizi di monitoraggio sono stati implementati in maniera
centrale e suddivisi tra i progetti in modo da avere molti tools
attivi ma senza una eccessiva ridondanza che produrrebbe un
eccessivo traffico di interrogazioni.
 Web LDAP Browser (in ogni sito)
 GridICE (centralizzato presso SCoPE)
 GStat (centralizzato presso il server goc.grid.sinica.edu.tw )
 SAM +VO poncert (centralizzato presso CYBERSAR)
 Real-Time Monitoring (centralizzato presso PI2S2)
36
Monitoraggio
SAM – CYBERSAR
https://sam-cybr.ca.infn.it/sam/sam.py
GRIDICE – SCoPE
DOWN-TIME
- PI2S2
GSTAT
http://gridice.scope.unina.it
http://trigrid-advices.trigrid.it/support/calendar/
37
ISTALLAZIONE SOFTWARE APPLICATIVO
Soluzione tecnica:
 Realizzare tool-kit di applicazione
 Pubblicare nella variabile di RUNTIME
 Installare il software tramite utenti SGM (Software
Grid Manager )
E’ in corso la definizione
delle applicazioni comuni e dei relativi tool-kit
38
INTERFACCE E PROTOCOLLI PER LO STORAGE
 Protocolli di trasferimento
Per mantenere il sistema di autenticazione basato sui certificati,
i progetti abiliteranno il protocollo di trasferimento griftp per il
trasferimento dati.
 Interfacce SRM (Storage Resource Manager) e
configurazioni
Per garantire piena compatibilità ed interoperabilità con le altre
strutture internazionali gli Storage Element impiegati per
l’interoperabilità dai progetti utilizzeranno interfaccia SRM
supportando srmv1.1 e srmv2.2.
Ogni progetto abiliterà sugli storage element impegnati
nell’interoperabilità una quantità di spazio disco da definire
creando le seguenti aree logiche:
/home/cresco, /home/cyersar, /home/pi2s2, /home/scope
39
ACCOUNTING
DGAS (Distributed Grid Accounting System )
Si utilizzerà per le informazioni di accounting il sistema DGAS
(ref. http://www.to.infn.it/grid/accounting/main.html) installando il
sensore DGAS Gianduia sui Computing Element.
HLR (Home Location Register )
Ogni sito installerà un HLR_RESOURCE ed un HLR_USER
Server sul quale verranno registrate tutte le risorse disponibili
per l’interoperabilità, in termini di code job.
Sarà possibile individuare un HLR di secondo livello per
raccogliere le informazioni dei differenti progetti in un unico
punto, utilizzando il tool grafico HLR MON.
40
GESTIONE DOWNTIME E SISTEMA DI TICKET
 Ogni progetto utilizzerà il proprio sistema di ticketing
locale.
 Per la gestione dei ticket interprogetto, se un utente del
progetto X riscontra problemi sul sito del progetto Y, può
aprire una segnalazione direttamente sul sistema di
ticketing del progetto Y.
 I sistemi di ticketing devono prevedere almeno 3 aree
per la suddivisione dei ticket:
 SITE – per i problemi tecnici di installazione
 VO – per le questioni relative alla singola virtual organization,
certificazioni ecc.
 APPLICATION – per il supporto delle applicazioni.
41
SCOPE TICKET
TICKET
PI2S2
TICKET-CYBERSAR
42
SERVICE LEVEL AGREEMENT
E’ stato preparato un documento per definire il livello
di servizi che i progetti si impegnano a garantire.
Ci si basa sull’esperienza del Regional Operation
Center (ROC) italiano di EGEE.
43
E’ in corso la discussione dei seguenti punti principali:








DURATA DELL’AGREEMENT
RESPONSABILITA’
SUPPORTO DI SECONDO LIVELLO
HARDWARE E CRITERI DI CONNETTIVITA’
DESCRIZONE DEI SERVIZI MINIMI OFFERTI
(Numero di CPU e di spazio disco)
SERVICE HOURS
DOWNTIME
SUPPORTO VO
44
Memorandum of Understanding Progetti Avviso 1575
Definizione del Service Level Agreement
per l’interoperabilità tra i quattro progetti dell’Avviso 1575
(IN DISCUSSIONE)
Ogni sito coinvolto nell’infrastruttura interoperabile dovrà :
 Fornire risorse di calcolo, storage e servizi:
numero di CPU pari al 25% delle forniture
………………………
 Garantire man power sufficiente per l’interoperabilità:
almeno 2 persone, per un totale minimo di 1 FTE
 Gestire efficacemente le risorse del sito:
a) effettuare gli aggiornamenti relativi al software applicativo per le
applicazioni di interoperabilità.
b) modificare le configurazioni coordinandosi durante le riunioni
telefoniche.
 Prendere in carico e aggiornare i ticket relativi all’interoperabilità:
tempo massimo di risposta: 48 ore dal lunedì al venerdì.
45
 Monitorare “proattivamente” il sito, controllando periodicamente lo stato
delle risorse e dei servizi mediante tools di monitoraggio concordati:
GridICE, Gstat, SFT, ecc.
 Garantire continuità al supporto ed alla gestione del sito; durante i periodi
unattended, si dovrà mettere in down-time il sito chiudendo le code.
 Garantire la partecipazione dei tecnici operativi dell’ interoperabilità alle
phone conference quindicinali.
 Compilare i pre-report settimanali: entro il venerdì.
 Supportare le VO di test e controllo (coda poncert) con priorità maggiore
rispetto alle altre VO.
Questo MoU dovrà essere sottoscritto dal responsabile del progetto e potrà
essere aggiornato in base ai feedback ottenuti durante la sperimentazione. 46
ABILITAZIONE DELLE VO COMUNI
INTEROPERABILITA’ CON ALTRE INFRASTRUTTURE
E’ attualmente in corso un’indagine per individuare aree applicative
di interesse comune ai 4 progetti con l’obiettivo di creare VO
tematiche trasversali.
Tali VO costituiranno un valore aggiunto per l’integrazione e la
coesione tra le infrastrutture nascenti ed avranno, tra le altre attività,
l’obiettivo di individuare e manutenere il software applicativo di
interesse specifico.
Le soluzioni tecniche fin ora adottate sono adeguate per realizzare
l’e-infrastruttura dell’Italia meridionale e per l’integrazione nell’
e-infrastruttura Grid italiana ed europea.
47
E’ ASSOLUTAMENTE NECESSARIO NON DISPERDERE
AL TERMINE DEI PROGETTI IL PATRIMONIO DI RISORSE,
COMPETENZE, SINERGIE E RISULTATI SCIENTIFICI ACQUISITI.
OCCORRE ASSICURARE LA CONTINUITA’ DELLA COMUNITA’
CHE HA DATO VITA AL “1575” ESPORTANDO ANCHE
L’ESPERIENZA AD ALTRE REALTA’ SCIENTIFICHE E NON.
48
PROGRAMMAZIONE 2007-2013
PON RICERCA E COMPETITIVITA’
 Asse I: Sostegno ai mutamenti strutturali
 Asse II: Sostegno all’innovazione
Asse I
Obiettivo operativo: Potenziamento delle strutture e delle
dotazioni scientifiche e tecnologiche
Azione: Rafforzamento strutturale
L’azione prevede lo sviluppo del GRID computing su una dimensione
pluriregionale, in modo da assicurare il rafforzamento di un’infrastruttura
strategica per la soluzione al problema del calcolo distribuito e ad alte
prestazioni attraverso l’accesso a risorse di diversa natura (calcolatori, banche
dati, librerie software).
Ciò consentirà di valorizzare gli interventi realizzati nella programmazione
2000-2006 e di integrare quanto verrà compiuto attraverso la politica nazionale
per le aree sottoutilizzate. Gli interventi sono mirati ad accrescere il ruolo che gli
attori scientifici dell’obiettivo Convergenza potranno svolgere nell’ambito del VII
Programma Quadro.
49
Conferenza Nazionale
IES08 - Italian e-Science 2008
Napoli, 27–29 maggio 2008
Universita’ degli di Studi di Napoli Federico II
Aula Magna, Complesso Universitario Monte S. Angelo, via Cintia, Napoli
Scarica

Stato_Interoperabilita`_14_02_2008(L.Merola)