Calcolo CMS
Per dettagli sulle attività svolte, vedi CSN1 di Pisa (22 Giugno 04)
Due attività dominanti nel 2005:
 Computing TDR
 Physics TDR
Entrambe richiedono:
 Simulazione (“produzione”)
 Analisi (“distribuita”)
Evoluzione da una attività a “Data Challenges” ad
una “Permanent Production and Analysis effort”
P. Capiluppi - CSN1 Assisi
22/09/2004
CMS Computing schedule
 2004
 Oct
RRB for MoUs structures agreement
 Dec
Computing TDR in initial draft form
 2005
 April
RRB Comp MoUs (Exps and LCG) final document
[to be signed in June]
 July
LCG TDR and CMS Computing TDR submission
 Dec
Physics TDR submission
[Based on “steady state” prod and analysis]

2006
 ~Spring
 Dec
(Final) Data Challenge 06
Computing Systems Operational
2
P. Capiluppi - CSN1 Assisi
22/09/2004
Organizzazione del Computing di CMS
(Computing-and-Core-Software e PhysicsReconstruction-and-Selection)

CCS new tasks arrangement:
1)
Computing and Software Infrastructure:
Nick Sinanis
Core Software (Architecture, framework
and toolkits): Vincenzo Innocente
Production: Tony Wildish and Luciano
Barone
2)
3)

4)
5)
Subtasks: Operation and Tools
Data Management: Lothar Bauerdick
Workload Management: Stefano
Lacaprara

PRS Groups:
1)
2)
3)
4)
5)
6)
7)
8)
E-gamma/ECAL: Chris Seez & Yves Sirois
B-tau/Tracker: Marcello Mannelli & Lucia
Silvestris
Muons/Muon: Ugo Gasparini & Darin
Acosta
Jet-met/HCAL: Jim Rohlf & Chris Tully
Higgs: Sasha Nikitenko
Standard Model: Joachim Mnich
SUSY: Luc Pape
Heavy Ions: Bolec Wyslouch
“Cross” CCS and PRS (+TriDAS) PROjects Management





RPROM (Reconstruction Software): Stephan Wynhoff
SPROM (Simulation Software): Albert de Roeck
APROM (Analysis Software): Lucia Silvestris
CMSCCC (Computing Coordinating Committee): a CMS Collaboration Board
sub-committee

One computing expert and one senior physicist per major Agency/Country
contributing to Computing (CERN, France, Germany, Italy, Spain, UK, USA, Taipei) +
CPT managers + CB chair: Roberto Tenchini & Paolo Capiluppi
3
P. Capiluppi - CSN1 Assisi
22/09/2004
Attivita’ svolte 2004(03)
Produzione (simulazione) di ~ 15 M eventi
 Di interesse dei Gruppi di Fisica (PRS) italiani
 Usando le Farm in locale e via Grid (LCG)
Partecipazione al DC04 in maniera sostanziale
 Responsabilita’ della implementazione in LCG per il DC04
 Tier1 del CNAF e Tier2 di LNL
 Miglior
rate di trasferimento dei files (insieme a PIC-Barcellona)
 Coinvolgimento del Tier2 LNL (unico altro Tier2: CIEMAT-Madrid)
 Real-time analysis realizzata al Tier1 e Tier2 (Bari, Bologna, Padova)
 Tutti
i tools e setup di “marca”italiana
Misure e feed-back dal DC04 per il Computing Model
 Prestazioni
 L’archietteura del software
Sviluppo del software di ricostruzione (e simulazione) e
partecipazione all’analisi per i PRS sostanziale dall’INFN :






Muons
Tracker
E-gamma
Higgs
SUSY/BSM
SM
P. Capiluppi - CSN1 Assisi
4
22/09/2004
Physics TDR

Outline





“Special” chapters go to corresponding piece




Volume I: one person to provide overall coherence, etc. Parts split to
the detector PRS group responsibles.
Volume II, part I: given all that is presented in Volume I, a detailed
expose of early procedures and physics. A first-run, explanation of
deployment of various tools, turning CMS from a 12,500-ton object to
a detector – and last the 1fb-1 physics reach.
Volume II, part II: full analyses, given Vol I and all that will have been
achieved in Vol II part I.
Volume II, part III: the physics of 10 and 30 fb-1. Include a chapter on
asymptotic (300 fb-1) reach.
Diffractive Physics – the CMS-TOTEM combination – goes to Vol I (detectors), Vol 2.1, 2.2,
2.3
Luminosity measurement (and monitor): in Vol I. Also in Vol II.1
Startup scenario/procedure: this is now a whole “part” in Vol II (II.1)
Heavy Ions

Include it directly in Phys-TDR. Means special mention for heavy-ion response in Vol I and
a special section (part?) in Vol II

Decision: add a part IV to Vol II
P. Sphicas
PRS Status and Plan of Work
P. Capiluppi - CSN1 Assisi
22/09/2004
5
Attivita’ italiane 2005(04) di CMS
Calcolo (1/2)
Le due attivita’ 2005 dominanti richiedono:
 Analisi distribuita dei dati simulati durante (PCP incluso) e dopo il
DC04
 Inclusi
gli studi di calibrazione/allineamento
 Produzione (simulazione) dei nuovi dati necessari per il Physics
TDR (inclusa la High Luminosity) e la preparazione al
commissioning
 Distribuzione dei dati e accesso ad essi in modo distribuito
Questa attivita’ portera’ a:
 Definire un CMS Computing Model, “misurato” anche nella parte
dell’analisi
 Definire l’uso delle componenti di “Grid” (LCG)
 Produrre il Computing TDR di CMS e contribuire a quello di LCG
 Definire i contenuti dei Computing MoUs
 Produrre il Physics TDR
6
P. Capiluppi - CSN1 Assisi
22/09/2004
Attivita’ italiane 2005(04) di CMS
Calcolo (2/2)
E’ intenzione di CMS (e di CMS Italia) di usare il piu’
possibile LCG:
 Sia per l’Analisi (anche con “ARDA/GLite”) che per la Produzione
Attivita’ di Analisi “continua” (PRS in cui gli italiani
sono coinvolti, vedi dopo):
 Accesso attraverso User Interfaces (LCG-UI) dei Tier2/3
 Dati principalmente presso il Tier1-CNAF e il Tier2-LNL (e altri Tier2,
Pisa, Bari, etc.)
 Data
samples completi (MC truth, Digi, DST, EOD, …)
 Dati parzialmente replicati presso i Tier2/3
 In
funzione delle responsabilita’ nei PRS
Attivita’ di Produzione “continua” (privilegiati i canali
di interesse italiano)
 Il target di CMS e’ ~10M eventi/mese (dall’Autunno 2004 al Settembre
2005):
upper-limit ~2M eventi/mese in Italia
 Tier1-CNAF, Tier2 LNL/Pi/etc. dominanti, ma contributo sostanziale di
“alcuni” Tier2/3 sia nella produzione (via LCG/Grid-it o meno) che nello
sviluppo dei Tools
7
P. Capiluppi - CSN1 Assisi
22/09/2004
Attivita’ delle sedi italiane (1/2)
Attivita’ locali in TUTTE le sedi:
 simulazioni, studi dei detectors, sviluppo software, tools, Farm system
admin, Grid a vario livello
 per il supporto a laureandi, dottorandi, costruzione degli apparati
 usando l’environment comune di CMS
Leading support nell’analisi dei dati da Test Beams
 Pd, Bo, To: Muons DC
 Ba, Pi, Fi, Pg: Tracker
 Rm1, Mi: ECAL
Leading nel supporto al “early commissioning” dei Detectors
(dall’allineamento, alla calibrazione al commissioning)
 Tracker, Muons, ECAL
Leading nel supporto e sviluppo del sw di ricostruzione (ORCA)
 To, Pd, Bo: Muons DC
 Pi, Ba: Tracker
 Ba, Na: Muons RPC
Leading nel supporto e sviluppo dei tools di Computing:
 Bo: core tools e architettura distribuita
 Pd, Bo, Ba: tools e integrazione nel calcolo distribuito (Grid)
 Pd, Bo, Ba, RM1: integrazione e sviluppo dei tools di job submission e production
 Na, To, Fi: sviluppo di algoritmi OO di ricostruzione
 Ba, Bo, Pd: sviluppo di tools di analisi distribuita
 CNAF, LNL, Rm1, Ba, Bo: supporto alle produzioni
P. Capiluppi - CSN1 Assisi
22/09/2004
8
Attivita’ delle sedi italiane (2/2)
Coinvolgimento in varie attivita’ di analisi nei PRS, inclusi quelli di
“Physics reach”:







e-gamma: Rm1, Mi
b-tau: Ba, Fi, Pg, Pi
Muons: Bo, Pd, To
Higgs: Ba, Bo
SUSY/BSM: Ct, To
SM: Pi, To, …
Etc.
Principali servizi di accesso, distribuzione e archivio dati:
 CNAF verso e da tutti i Tier2/3 e verso/dal Tier0-CERN (e altri Tier1)
 LNL verso/dal CNAF e i Tier2
 CNAF per archivio di tutti i dati su Nastro
Supporto al Tier1-CNAF da parte di CMS Italia
 Contributo principale di Bo
Supporto al Tier2-LNL da parte di CMS Italia
 Contributo principale di Pd
Contributo alla definizione del Computing Model di CMS (C-TDR) e
LCG
 Principalmente: Ba, Bo, …
9
P. Capiluppi - CSN1 Assisi
22/09/2004
Computing Memoranda of Understanding
1) LCG MoU and 2) Addendum to M&O
 LCG Computing MoU
Annual Review
CCS
– Covers CERN + major Computing Centres for 4 expts
– Dedicated task force (I. Willers for CMS)
David Stickland
CPT-AR
19 Sept 2004
Page 10/60
 Addendum to CMS M&O MoU
– Covers CMS-specific efforts – Categories A and B
– Mostly manpower, small amount of hardware
– Addendum annexes cover
•
WBS tasks (CCS + CPT_TriDAS) for Cat A and B
•
Institutes and responsibilities (snapshot – will evolve)
•
Resource needs (firm in short-term, rough projections to 2010)
•
Category A (FTE and CHF) by country
•
Category B voluntary commitments
Computing Memorandum of Understanding
L”RRB approva una
“Collaboration”?
 LCG phase II
Annual Review
CCS
– Collaboration in the Deployment and Exploitation of the LHC
Computing GRID
David Stickland
CPT-AR
19 Sept 2004
Page 11/60
 Partners are:
Experiments?
of LCGofas
a
– CERN as host laboratory, “Coordinator”
Tier0, Tier1 and coordinator
LCG
– Funding agencies/institutes qualifyingPartner!?
as Tier1 or Tier2 centers
 Aim to provide the computing resources needed to
process and analyze the data gathered by the LHC
experiments
Chi decide quali, dove e
quante risorse sono
necessarie?
Computing Memoranda of Understanding Computing
Manpower
(N.B. numbers are preliminary!)
M&O
category
WBS Tasks
Project
1. CCS
Annual Review
CCS
A
1.1.1 Project management
1.1.2 Liaison with non-CMS Projects
1.2.1 Central Computing Environment
Infrastructure & Services
1.2.2 User support
1.2.3 Software Process Service
1.2.4 Software Process Tools
Core Applications Software 1.3.1 Application Framework
1.3.2 Basic Toolkits
1.3.3 Development and integration of data / metadata systems
1.3.4 User Interfaces and Graphics
1.4.1 Production tools
Production
1.4.2 Production Operations
1.5.1 Architecture and basic services
Data Management
1.5.2 Integration with Production
1.6.1 Architecture and basic services
Workflow Management
1.6.2 Batch job management tools
1.6.3 User Tools
1.6.5 Validation of Grid for users
1.6.6 Integration with EGEE / ARDA
1.7.1 Editorial
Computing TDR
1.7.2 Computing Model
1.7.3 Validation of Computing Model
2.1.1 Coordination
Online Filter Framework
2.1.2 Input Data Handling
2.1.3 Output Data Handling
2.1.4 Control and Monitoring of filter system
2.1.5 Code guidelines, validation, quality control
2.1.6 Run condition and calibration tracking
2.2.1 Online Farm system management
Online Farm management / monitoring
2.2.2 Cluster Monitoring and Administration
1.3
1.4
1.5
1.6
1.7
2. TRIDAS 2.1
2.2
David Stickland
CPT-AR
19 Sept 2004
B
2.4
0.9
1.1 Management
1.2
Page 12/60
Subtask
Task
 Category A
– General support and
infrastructure tasks
“category”
III (ilon scope with
– Agreement
Mancano la
manpower nei Centri• Regionali)
ATLAS (in detail)
e il manpower distribuito
per
i
• ALICE
(in principle)
tools di computing • LHCb has no Cat A
6.0
2.0
3.9
3.4
2.5
4.3
2.7
1.5
4.4
4.1
1.9
2.8
1.3
1.4
4.1
2.4
1.5
0.4
2.5
1.0
0.5
1.0
0.0
1.9
0.7
0.7
1.1
0.5
 Note: We are still chasing much
of our promised manpower
– Pro-rata cost sharing
•
~17 FTE’s needed
•
~8 FTE’s missing
 Category B
– Voluntary adoption of
responsibilities
•
~58 FTE’s needed
• ~13 FTE’s missing
Inclusi i due FTE “in arrivo”
dall’INFN per CMS
Stato delle risorse CMS Italia
Stato al Settembre 2004
Tier
Bari
Bologna
Catania
Firenze
Legnaro
Milano
Napoli
Padova
Pavia
Perugia
Pisa
Roma1
Torino
Tier2
Tier2
Tier3
Tier3
Tier2+
Tier3
Tier3
Tier2
Tier3
Tier3
Tier2
Tier2
Tier3
Total
LNL LCG
Tier1 CNAF
LCG
Tier1
Grand Total
Boxes
#
16
15
9
6
72
12
5
32
SI2000
13600
13200
10800
7200
73000
12400
6000
35000
Disks
TBs
4.0
5.8
1.0
5.2
24.0
1.0
1.0
3.8
12
9
13
11
14400
16800
12400
10400
2.4
5.0
5.0
2.8
212
225200
61.0
40
120
54000
164000
22.0
60
372
443200
143
Comments
?? ~80 kSI2000 e 20 TB disk ??
13
P. Capiluppi - CSN1 Assisi
22/09/2004
Hardware
Annual Review
CCS
 CPUs are not an issue
– we have done similar amounts during PCP and now we have more
and more powerful
– although relevant resources (T1s etc.) are now under LCG (see
below)
 Storage may be more critical
– depends on the model of data distribution to T1s
– if all DSTs everywhere, then needs at least 3 new TB/site/month
– is a matter of money and procurement
Necessita’ di spazio disco!
David Stickland
CPT-AR
19 Sept 2004
Page 14/60
E accesso distribuito ai dati con “qualche” CPU!
Milestones 2005: specifiche
 CMS Computing TDR (e TDR-LCG) [Luglio 2005]
 Definizione delle risorse del Tier1 e dei Tier2 che partecipano al Computing
Model [Febbraio 2005]
 Definizione dei servizi (dati, software, LCG) disponibili in Italia [Febbraio
2005]
 Definizione della partecipazione di CMS Italia a LCG e INFN Grid [Maggio
2005]

Produzione ed analisi dei dati per il P-TDR [Gennaio 2006]
Gruppi di fisica di responsabilità e interesse italiano: b-tau, muon, e-gamma,
Higgs, SYSY, SM
Partecipano il Tier1 e almeno metà dei Tier2/3 [Luglio 2005]
Produzione di ~2 M eventi/mese [Gennaio 2005]
Analisi preliminare di almeno 4 canali (es. H->WW->2mu2nu) [Febbraio 2005]
Partecipano il Tier1, tutti i Tier2 e piu’ della metà dei Tier3 [Ottobre 2005]
Produzione di ~ 20 M eventi [Dicembre 2005]
Analisi di almeno 8 canali per il P-TDR [Dicembre 2005]






 Deployment di un prototipo di sistema di analisi distribuito su LCG
[Aprile 2005]



Definizione delle componenti [Gennaio 2005]
Definizione e implementazione dell’infrastruttura organizzativa italiana
[Febbraio 2005]
Data
Challenge 05 completato (~20% INFN) [Dicembre 2005]
===========================================
15
P. Capiluppi - CSN1 Assisi
22/09/2004
Milestones 2004: specifiche (1/2)
Partecipazione di almeno tre sedi al DC04 [Marzo]
 Importare in Italia (Tier1-CNAF) tutti gli eventi ricostruiti al T0
 Distribuire gli streams
selezionati
almeno
sedi (~ 6 streams, ~ 20 M
Fine
del DC04su
slittata
adtre
Aprile
eventi, ~ 5TB di AOD)
Sedi: Ba,
Bo, Fi, di
LNL,
Pd, Pi,
Pg, CNAF-Tier1
 La selezione riguarda
l’analisi
almeno
4 canali
di segnale e relativi fondi,
ai quali vanno aggiunti
gli studima
di calibrazione
2 Streams,
4 canali di analisi
 Deliverable: contributo italianoDONE,
al report
DC04, in funzione del C-TDR e
100%
della “preparazione” del P-TDR. Risultati dell'analisi dei canali assegnati
all'Italia (almeno 3 stream e 4 canali di segnale)
Integrazione del sistema di calcolo CMS Italia in LCG [Giugno]
 Il Tier1, meta’ dei Tier2 (LNL, Ba, Bo, Pd, Pi, Rm1) e un terzo dei Tier3 (Ct,
Sedihanno
integrate
in LCG:diCNAF-Tier1,
LNL,
Ba,
Fi, Mi, Na, Pg, To)
il software
LCG installato
e hanno
la capacita’
Bo, Pi, Fi
di lavorare nell’environment diPd,
LCG
 Comporta la installazione
dei
pacchetti dei
software
provenienti
Il prolungarsi
dell’analisi
risultati
del DC04 da LCG AA e
da LCG GDA (da Pool a fa
RLS
etc.) di almeno 4 mesi
slittare
 Completamento analisi utilizzando
infrastruttura
LCG e ulteriori produzioni
In progress,
60%
per circa 2 M di eventi
 Deliverable: CMS Italia e’ integrata in LCG per piu’ della meta’ delle risorse
16
P. Capiluppi - CSN1 Assisi
22/09/2004
Milestones 2004: specifiche (2/2)
Partecipazione al C-TDR [Ottobre]
 Include la definizione della partecipazione italiana al C-TDR in termini di:
Il Computing
TDR
e’ ora dovuto per Luglio 2005
 Risorse e sedi
(possibilmente
tutte)
 Man-power
 Finanziamenti
La milestone slitta di conseguenza
e piano di Stand-by/progress,
interventi
20%
 Deliverable: drafts del C-TDR col contributo italiano
Partecipazione al PCP DC05 di almeno il Tier1 e i Tier2 [Dicembre]
 Il Tier1 e’ il CNAF e i Tier2 sono: LNL, Ba, Bo, Pd, Pi, Rm1
Data
05per
e’ stato
cancellato
e sostituito
 ProduzioneIldi
~ 20Challenge
M di eventi
lo studio
del P-TDR,
o equivalenti (lo
dallarichiedere
produzione
ed analisi
continua
per il P-TDR
studio potrebbe
fast-MC
o speciali
programmi)
La milestone
e’ annullata
 Contributo alla definizione
del LCG-TDR
0%
 Deliverable: produzione degli eventi
necessari alla validazione dei tools
di fast-simulation e allo studio dei P-TDR (~20 M eventi sul Tier1 + i
Tier2/3)
17
P. Capiluppi - CSN1 Assisi
22/09/2004
Conclusioni
Sequenza temporale non ottimale dei MoUs
 Computing TDR (inclusa la analisi)
 Approvazione scientifica
 MoUs
CMS “on track” per definire
 Computing Model
 Software/framework per l’analisi
 Componenti di Grid (LCG)
 Infrastruttura di Calcolo
 Physics TDR
CMS Calcolo Italia ha un ruolo proporzionato alla
partecipazione globale: ~20%
 Ed e’ leading in molti campi del Computing e dell’analisi
18
P. Capiluppi - CSN1 Assisi
22/09/2004
Additional slides
19
P. Capiluppi - CSN1 Assisi
22/09/2004
Computing Milestone Revisions
Annual Review
CCS
Identifier Task
Update Jan
04
v34.0 Revised: 21
May 04
Jun 04
CS-1039 Delivery of baseline core software for CCS and
Physics TDR's
CS-1041 DC04 (5%) data challenge complete
Level 1
1-Mar-04
31-Jul-04
1-Feb-05
Level 2
1-Apr-04
1-Jan-05
31-Aug-04
CS-1040 First Draft CCS Technical Design Report
Level 2
1-Apr-04
1-Jan-05
1-Jan-05
CS-1042 CCS TDR submission
Level 1
1-Oct-04
31-Jul-05
31-Jul-05
CS-1057 DC05 (10 %) Data challenge complete
Level 2
1-Apr-05
1-Dec-05
1-Dec-05
Cancelled
 DC04: challenge is complete and conclusions will be
presented at CHEP ‘04
 CCS TDR will be aligned with LCG TDR submission
David Stickland
CPT-AR
19 Sept 2004
Page 20/60
 DC05: cancelled
LCG e INFN-Grid
CMS Calcolo Italia continua a supportare e sviluppare la
integrazione del Calcolo in LCG, con ruolo leading





Produzione su CMS-LCG/0 worldwide (Stress Test)
Produzione PCP DC04 su LCG-1 EU-wide
DC04 su LCG-2 EU-wide
Unica misura realistica delle potenzialita’ di LCG-GRID ad oggi
Analisi coi tools LCG e collegamento con gLite/Arda
In LCG sono coinvolte (per CMS) le sedi di:




CNAF-Tier1 per (anche) CMS
LNL
Pisa dal 2005
Progressivamente le altre sedi (Tier2/3) si stanno aggiungendo
In INFN-Grid sono coinvolte le Farm di CMS di:




LNL, Pd, Ba, Pi da tempo
Bo dal Giugno 2004
Fi e Na tra la fine del 2004 e l’inizio del 2005
Altre si aggiungeranno …
21
P. Capiluppi - CSN1 Assisi
22/09/2004
Continuous Operation

Instead of DC05 we need to progressively bring up a full time operation
–
–

Generic GRID resources (for Generation/Simulation)
Annual Review
CCS
–

–
–
–

CPU means current generation ~2.4+GHz
CMS T1 resources (Grid with significant Disk and MSS)
Needed for data intensive Digitization and Reconstruction steps
~750 CPU Continuous
Now 60TB +20TB/month (Spread across T1 centers)
T1/T2 resources (probably not generic)
–
–
150C CPU Continuous
Now 40TB Analysis disk space to grow by about 2-5TB/month (T1+T2)
We intend to run all this within LCG
–
Page 22/60
~750 CPU Continuous
•

David Stickland
CPT-AR
19 Sept 2004
Not a test or a challenge.
Physicist access to data required.
“LCG” being all those resources available to CMS being steady migration from/between LCG2,
GRID3, gLite, …

We need to reach the 10M event/month level soon ( Autumn)

We need to make the resources available to a growing CMS user base in the same
time scale
Scarica

capiluppi_calcolo_lhc_cms