CMS Computing Paolo Capiluppi Dept. of Physics and INFN Bologna P. Capiluppi - CSN1 Perugia 11/11/2002 Outline Organizzazione Modello di Calcolo Software baseline e tools comuni Coinvolgimento in Progetti “Grid” Data Challenges Come usare i dati del DC04? Verso il Physics TDR e computing TDR Conclusioni 2 P. Capiluppi - CSN1 Perugia 11/11/2002 Legenda CPT : Progetto CMS per il “Calcolo” C = CCS (Core Computing and Software) P = PRS (Physics and Reconstruction Software) Studi di HLT (High Level Trigger) T = TriDAS (Trigger and Data Acquisition Systems) PRS Groups ( Physics Groups) Muons (Muon Detector) B/Tau (Tracker) E/Gamma (ECAL) Jet/MissingEt (HCAL) ORCA : Programma di ricostruzione (e analisi) OSCAR : Programma di simulazione (Geant4) CMSIM : Programma di simulazione (Geant3) IGUANA : Programma di visualizzazione IMPALA : Tool di sottomissione job di produzione BOSS : Tool di logging/bookkeeping dei job di produzione RefDB : Data Base di riferimento per le produzioni P. Capiluppi - CSN1 Perugia 11/11/2002 3 CPT & CCS CCS PM David Stickland Technical Coordinator Lucas Taylor Resource Manager Ian Willers Regional Center Coordination Lothar Bauerdick Architecture Frameworks &Toolkits Vincenzo Innocente Production Processing & Data Mgmt Tony Wildish Computing & Software Infrastructure Nick Sinanis GRID Integration Claudio Grandi CMS Librarian Shaun Ashby CMS CB CMS MB CMS SC CPT Managers CCS PM (Deputy) PRS PM (Deputy) TriDAS PM Deputy 4 P. Capiluppi - CSN1 Perugia 11/11/2002 Computing Model TDR TDR sul Computing: Ottobre 2004 Basato sui risultati del DC04 e sui Computing e Physics Models Planning Draft Risorse e “cost-book” Data Types, Rates, Flow Calibration and Analysis Core software: architettura e scelte concrete On-line and Off-line tasks Grid tools Rapporti con LCG Etc. Richiede il commitment “da ora” Per la partecipazione e la definizione del modo di operare Per attivita’ legate ad esso (es. DC04) NON e’ il TDR per la costruzione di un Detector. Il Calcolo e’ in troppo rapida evoluzione Ma deve essere una possibile e realizzabile soluzione Input di CMS per il TDR di LCG ( 9 mesi dopo) Base del Computing MoU ? (All’interno di LCG ?) 5 P. Capiluppi - CSN1 Perugia 11/11/2002 Modello di Calcolo come arrivarci ? (1/2) CMS Italia ha scelto uno schema di “calcolo” distribuito sulle Sedi: con differenziazione delle responsabilita’ valorizzazione degli “interessi” e “competenze” locali Questo sistema ha dimostrato di funzionare Compresa l’analisi (LNL, Bo, Pd, Pi, …) Alcune funzioni e specificita’ (chiamate in gergo “services”) sono tipiche di una gerarchia Modello di Tier0, Tier1, Tier2, Tier3 … Altre sono tipiche di una distribuzione paritaria Modello distribuito alla “GRID” Queste due cose NON sono incompatibili I “services” possono essere differenziati in funzione delle responsabilita’, competenze e tecnologia software/middleware CMS (tutta) ha intrapreso questa strada ed in particolare ha un forte commitment in LCG Per l’infrastruttura comune e il software comune Speranza di ottenere “2” spendendo “1” (sinergia tra gli Esperimenti LHC) 6 P. Capiluppi - CSN1 Perugia 11/11/2002 Production in the RCs RC name CMSIM (K) 2x1033 (K) 1034 (K) Objy size (TB) CERN 870 1670 1970 10.4 Bristol/RAL 547 60 20 0.4 Caltech 214 146 Fermilab 345 251 332 2.5 INFN (9 sites) 1545 719 709 3.0 IN2P3 200 Moscow (4 sites) 425 UCSD 338 278 288 1.8 UFL 540 40 40 0.2 Wisconsin 67 54 Imperial College 878 147 0.5 0.2 0.3 121 1.4 Thanks to: Giovanni Organtini (Rm), Luciano Barone (Rm), Alessandra Fanfani (Bo), Daniele Bonacorsi (Bo), Stefano Lacaprara (Pd), Massimo Biasotto (LNL), Simone Gennai (Pi), Nicola Amapane (To), et al. P. Capiluppi - CSN1 Perugia 11/11/2002 7 Modello di Calcolo, come arrivarci ? (2/2) CMS Italia ha scelto fin dall’inizio di avere una propria Sede di riferimento (con le competenze e interessi locali): Tier2 di riferimento a Legnaro 50% delle produzioni 2002 Il Disegno globale a breve termine: Ruolo del Tier1 (comune per l’INFN) ~40% del commitment italiano Assorbimento dei picchi di CPU (shared con gli altri Esperimenti) Mass Storage e accentramento dei dati di simulazione e analisi Riferimento core software (supporto) Ruolo dei Tier2 (incluso il Tier2 di riferimento) ~40% del commitment italiano CPU e storage (solo dischi e/o archive) per l’analisi (distributa, non solo plots!) Dimensionamento delle attivita’ in funzione delle competenze ed interessi locali (dal farming alla analisi) Ruolo dei Tier3 ~20% del commitment italiano Punto di forza in item specifici sia di analisi che di software e/o supporto e/o middleware 8 P. Capiluppi - CSN1 Perugia 11/11/2002 Spring02: CPU Resources 11 RCs (~20 sites) About 1000 CPUs and 30 people CMS-wide Some new sites & people, but lots of experience too UFL 5% Wisconsin 18% UCSD 3% Bristol 3% RAL 6% Caltech 4% Moscow 10% FNAL 8% HIP 1% INFN 18% CERN 15% IN2P3 10% IC 6% MA non erano ancora entrati in gioco i Tier1 ! P. Capiluppi - CSN1 Perugia 11/11/2002 9 Cosa si e’ ottenuto? Coinvolgimento e partecipazione di tutte le Sedi Attraverso i vari interessi e le varie competenze Diffusione della conoscenza delle problematiche di calcolo ed analisi Produzione ed Analisi in Italia in modo consistente Risultati dei PRS anche per il DAQ TDR Il Software di ricostruzione e’ un “deliverable” dei Rivelatori (Il Computing e’ compreso nei commitments) 10 P. Capiluppi - CSN1 Perugia 11/11/2002 Software Baseline and Common Tools Cosa puo’ esserci in comune con gli altri esperimenti LHC (o HEP tutta)? (LCG Application Area e HEPCAL…) Prodotti software che non hanno a che fare con “Dati e Calcolo distribuiti” (Grid independent): es. Generatori di Fisica, (Detector Description DataBase), … Prodotti software (middleware) che gestiscono la distribuzione dei dati e del calcolo (Grid dependent): es. Brokering dei job, Data replication, Information System, Monitoring, … Prodotti software che sono influenzati dalla caratteristica distribuita del Calcolo (Grid-aware): es. Persistenza, meta-data structure, Bookkeeping… Ovviamente ci sono Prodotti che NON “possono” essere comuni: programmi di ricostruzione dei vari detector, tools di gestione specifici dell’architettura del Computing Model, … In attesa dello sviluppo delle parti “comuni”, CMS ha sviluppato propri tools, oltre alle parti specifiche “non-comuni” 11 P. Capiluppi - CSN1 Perugia 11/11/2002 Software Baseline e Tools comuni Persistenza: Da Objectivity a Pool/ROOT First public release foreseen before Xmas 02 Simulazione : Da CMSIM (Geant3) a OSCAR (Geant4) Visualizzazione : IGUANA (basato su Oggetti) Test beam software : ORCA + OSCAR (stessi programmi) 12 P. Capiluppi - CSN1 Perugia 11/11/2002 Dependencies on LCG and External Software EDG/VDT Catalog ROOT Objectivity/DB was not just a persistency solution Catalog, Replication, Shallow Copying, AMS, Request Redirection, etc POOL We must establish the explicit dependencies so as to ensure full bidirectional understanding with these projects on detailed implementation schedules CCS Preparations for DC04 LCG/GDB work-plan for this Autumn CMS Data Challenge DC04 13 P. Capiluppi - CSN1 Perugia 11/11/2002 Test-Beam and data-handling Analysis and simulation of both Test-beam and simulated data Fully integrated in ORCA/OSCAR framework Calibration of FED parameters with ORCA/ApvAnalysis • Simulation of FED algorithms (Zero Suppression, Noise evaluation, Pedestal subtraction) •Study different FED algorithms in the whole Tracker, data rates and calibration of the FEDs in a real data taking •Test different alignment algorithms on real data •Integrated with Geant4 simulation Simulated Pion in G4/ORCA 14 P. Capiluppi - CSN1 Perugia 11/11/2002 OSCAR/Geant4 Simulation OSCAR/G4 v1.3 ok for the Tracker: validated by detailed comparison with Cmsim position of SimHits Cmsim simulated hits per track OSCAR 1 tracking resolution tracking efficiency DDD + OSCAR2 OSCAR 2 complete rewriting of the framework, same physics part 15 P. Capiluppi - CSN1 Perugia 11/11/2002 PRS Tracker Contributions to IGUANA Tracker selection map: display a layer/ring in a 3D window; open a 2D map of a layer/ring. Detector units along sim tracks Draw sim hits for selected modules Custom tracker selection Vertex visualisation Tracker reconstruction geometry 2D selection maps: display a module in a 3D window. P. Capiluppi - CSN1 Perugia Print information for selected module 16 11/11/2002 CMS common or specific products “IMPALA” Interface Job Scripts Generator Web Interface for Production Requests Central Input Parameters DB Interface Monitoring Schema & Scripts “RefDB” “BOSS” Web Interface for Browsing of Metadata & Data Location Interface Local Job Monitoring DB Central Output Metadata DB Interface Job Scheduler Plus: Executables Distribution =“DAR”; Data Transfer Tools = “Tony’s scripts”; Data Storage 17 P. Capiluppi - CSN1 Perugia 11/11/2002 GRID cose’? Non solo per CMS ! 18 P. Capiluppi - CSN1 Perugia 11/11/2002 Logical components diagram Software release Experiment Software Software Repository New dataset request Data Management System Data Materializer Job Definition Job Monitoring Definition Data management operations Storage Service Dataset Catalogue Input data location Dataset Definition Software Release Manager Data Resource Monitoring System Retrieve Resource status Workload Management System Job submission Resource Directory Job assignment to resources Job Catalogue Publish Resource status Computing Service Job Monitoring System Job type definition By Claudio Grandi P. Capiluppi - CSN1 Perugia Job Book-keeping 11/11/2002 Push data or info Pull info 19 Spring 2002 diagram Software release CMKIN/SIM ORCA DAR files CVS repository Production web portal New dataset request AMS POSIX Data management operations GDMP RefDB Input data location Dataset Definition SCRAM/DAR IMPALA Data Web page with links to RC home pages Retrieve Resource status Resource Directory Publish Resource status Local Batch System (or Grid Scheduler) IMPALA scripts Job assignment to resources Farm node (or GRAM) Scheduler Job catalog BOSS Schema Filter files Push data or info Pull info Job type definition By Claudio Grandi P. Capiluppi - CSN1 Perugia BOSS DB 20 11/11/2002 Proposal for a DC04 diagram Software release Experiment Software Dataset Definition REPTOR/Giggle? PACMAN? Dataset Catalogue New dataset request REPTOR/Giggle + Chimera? EDG SE Data management operations VDT Server Dataset Catalogue Data Input data location MDS VDT Planner IMPALA/MOP EDG UI VDT Client DAG/JDL +scripts Retrieve Resource status EDG Workload Management System Publish Resource status LDAP Job assignment to resources Job submission EDG L&B EDG CE VDT server BOSS&R-GMA Job Monitoring Definition Push data or info Pull info Job type definition By Claudio Grandi P. Capiluppi - CSN1 Perugia BOSS-DB 21 11/11/2002 Grid in CMS oggi Vedi le presentazioni su Grid Produzione ufficiale in corso in US su Grid MOP Production Produzione ufficiale in partenza in EU su Grid Stress Test per provare la compatibilita’ dei prodotti CMS con EDG/EDT (~1 M eventi) CMS/EDG Task Force ufficiale, con la partecipazione di personale LCG e EDT L’Integrazione e la Interoperabilita’ sono essenziali per CMS Es di Legnaro 22 P. Capiluppi - CSN1 Perugia 11/11/2002 IGT E-Gamma Production Production progressing – Disk on Master Filled over the weekend Magically Data continues to come in after space was cleared without explicit restarting ??? Still exploring this... Condor DAGMAN model of fault tolerance and/or use of ftsh suspected... 23 P. Capiluppi - CSN1 Perugia 11/11/2002 IMPALA/BOSS Stress Test implementation CE RefDB BOSS DB parameters UI IMPALA SE Job output filtering Runtime monitoring RC data registration JDL CE JobExecuter dbUpdator WN Write data CMS sw SE GRID SERVICES CE CE CMS sw SE SE By Alessandra Fanfani 24 P. Capiluppi - CSN1 Perugia 11/11/2002 Layout farm LNL 2002: production + analysis + grid = grid enabled element Production N1 computing nodes N24 N24 N1 N24 N1 FastEth FastEth FastEth SWITCH SWITCH SWITCH To WAN 34 Mbps 2001 ~ 1Gbps 2002 Analysis computing nodes 32 – GigaEth 1000 BT GW S1 S9 Production servers Production control P. Capiluppi - CSN1 Perugia CE SE S10 S11 S12 G1 Analysis servers Remote login Analysis UI G2 Grid enabled Analysis 25 11/11/2002 Verso il “Computing” di CMS: Data Challenges I Data Challenges servono a: Provare le soluzioni proposte nella realta’ (hardware e software) Coordinare lo sviluppo e garantirne la mantenibilita’ (commitments) selezionando i partecipanti ed il personale Verificare la scalabilita’ delle soluzioni dai prototipi al Sistema finale (iniziale, in verita’. Evolvera’ per la vita di CMS) Programmare gli investimenti (monetari e di personale) Distribure e preparare la conoscenza per l’ANALISI FISICA CMS ha gia’ realizzato almeno un paio di Data Challenges 2000-01: pre-produzioni e sviluppo del software secondo il Computing Technical Proposal(1998?). Usato per gli studi di Trigger. 2002: Full deployment del Software e delle risorse distribuite nei pre-Regional Centres. “Spring Production” (6 M events), compresa l’analisi. Usato per gli studi di HLT del DAQ TDR. Le Sezioni (Tiers) CMS Italia hanno contribuito per circa il 20% dello sforzo totale di CMS 26 P. Capiluppi - CSN1 Perugia 11/11/2002 Verso il “Computing” di CMS: Data Challenges di CPT! I prossimi Data Challenge di CMS (con LCG-1, LCG-3) DC04 (detto 5% DC): finito per Aprile 2004 Scopo e dimensioni, vedi dopo DC05 (detto 10% DC): finito per Aprile 2005 Un mese a ~50 Hz (L=0.2x1034 cm-2 s-1) ~ 108 eventi Validazione del Grid Model realizzato da LCG (Tier0, Tier1s and Tier2s) In tempo per la fine della fase 1 di LCG (Dicembre 2005, LCG TDR) e per MoU(s) sul Computing Catena completa dei prodotti per l’analisi In sincronia con il Physics TDR di CMS dovuto per la fine del 2005 DC06 (detto 20% DC): finito per Aprile 2006 Un mese a ~100 Hz (L=0.2x1034 cm-2 s-1) ~ 2x108 eventi In tempo per comprendere ed eventualmente modificare la realizzazione del Computing Model di CMS prima della presa dati nel 2007. Dimostrazione della scalabilita’, includendo tutte le possibili operazioni in un sistema distribuito di Tiers alla Grid. P. Capiluppi - CSN1 Perugia 11/11/2002 27 DC04: Two Phases Pre-Challenge (2003 Q3, Q4) (Must be successful) Introduce GRID tools Large scale simulation and digitization As available and tested Will prepare the samples for the challenge Will prepare the samples for the Physics TDR work to get fully underway Progressive shakedown of tools and centers All centers taking part in challenge should participate to pre-challenge The Physics TDR and the Challenge depend on successful completion Ensure a solid baseline is available, worry less about being on the cutting edge Challenge (2004 Q1, Q2) Reconstruction at “T0”(CERN) Distribution to “T1s” Subsequent distribution to “T2s” (Must be able to fail) Make full use of LCG-1 GRID. Test the functionality they deliver Assign “streams” and “pre-configured analyses” to people at T1 and T2 centers Some will be able to work entirely within one center Others will require analysis of data at multiple-centers GRID tools tested for data movement and job migration 28 P. Capiluppi - CSN1 Perugia 11/11/2002 DC04 Setting the Scale Challenge Pre-Challenge Aim is 1 month of “running” at 25 Hz, 20 hours per day 50 Million reconstructed events (passing L1 Trigger and mostly passing HLT, but some background samples also required)) Simulation (GEANT4!) 100TB 300 kSI95.Months 1GHz P3 is 50 SI95 Working assumption that most farms will be at 50SI95/CPU in late 2003 Six months running for 1000 CPUS (Worldwide) (Actually aim for more CPU’s to get production time down) Digitization 75TB 15 kSI95.Months 175MB/s Pileup bandwidth (if allow two months for digitization) Reconstruction at T0-CERN 25TB 23 kSI95 for 1 month (460 CPU @ 50SI95/CPU) Analysis at T1-T2s Design a set of tasks such that offsite requirement during challenge is about twice that of the “T0” 29 P. Capiluppi - CSN1 Perugia 11/11/2002 CMS Italia e il DC04, e oltre Partecipare al Challenge : contribuire per ~ 20% Possibilmente tutte le risorse parteciperanno al pre-challenge Coordinare la partecipazione attraverso LCG Il Tier1/INFN deve essere “fully functional” ~70 CPU boxes e ~20 TB Le risorse conferite in LCG cresceranno in funzione del successo Inizialmente Legnaro (gia’ “dinamico”) e il Tier1 gia’ “committed” A seguire le altre risorse Definire i commitment delle Sedi Italiane Ruoli in funzione delle competenze del personale Definire la meteodologia Definire il “data flow” E le “analisi pre-confezionate” Aumento delle risorse di un fattore 3 per il DC05 (2004-05) 30 P. Capiluppi - CSN1 Perugia 11/11/2002 Resource Needs vs Pledged 04 Estimates for CPU and Storage Requirements for CMS Data Challenge DC04 Ye ar.Quarte r 03Q3 03Q4 04Q1 100 215 25 50 25 17 33 Com puting Pow e r (k SI95 M onths ) Total Require m e nt for Sim ulation, Pile -up, Re con Total Require m e nt for Analys is / Challe nge Prope r CERN T0 (1/3 s im ulation, all Re con) CERN T1 (1/3 of Challe nge prope r) Offs ite T1+T2 (Challe nge only), ass um i 33 Storage (Te raByte s ) Data Ge ne rated CERN Data Ge ne rated Offsite Data Trans ferre d to CERN Sum Data Store d CERN Active Data at CERN Sum Data Store d Offs ite (3 T1) 72 67 143 19 39 17 36 25 39 39 78 33 108 75 117 04Q2 50 17 33 25 133 100 192 133 100 192 Estimated CMS resources outside CERN (prelim. & incompl.) at end of 2003 De Es Fi CPU [kSI95] Disk [TB] Tape fast Tape archive 6 10 2.5 5 2 1.2 30 5 1.2 Peak CPU(?) 12 7.5 Fr It 10 0.5 20 10 30 15 20 20 Kr 7 30 Ru 2.5 1.2 15 5 UK USA CMS total 20 20 50 31 41 100 91 kSI95 139 Tbyte 200 Tbyte fast 40 60 160 kSI95 Peak Q: how many FTE are available for CMS production at the RCs?31 P. Capiluppi - CSN1 Perugia 11/11/2002 Risorse CMS Italia 2003 CMS Computing + “tasca” Computing 2003? 2003 resources status # # Average Total TBs on Farm CPUs Boxes CPU Si95 disk (% of (MHz) servers use) DC04 estimates SI95 TB Bari Bologna Catania Firenze Legnaro Milano Napoli Padova Perugia Pisa Roma1 Torino 28 34 16 42 160 14 14 17 8 21 80 7 1000 1100 1600 1000 1200 1800 1400 1870 1280 2100 9600 1260 2.7 3.3 1.1 1.6 9 1.6 100 100 100 30 100 50 1400 1870 1280 630 9600 2.7 3.3 1.1 1.6 9 40 16 30 24 22 20 8 15 14 11 900 1000 1000 1000 1180 1800 800 1500 1200 1298 0.4 1 2.5 2 2.6 100 90 100 100 100 1800 0.4 1500 1200 1298 2.5 2 2.6 Total 426 215 24108 27.8 20578 25.2 Tier1 CNAF 140 70 8400 11 7560 11 Grand Tot 566 P. Capiluppi - CSN1 Perugia 285 38.8 11/11/2002 28138 36.2 1200 32508 90 32 Conclusioni Il “Sistema” di Calcolo di CMS Italia funziona (disegno corretto) Non solo “Core Computing & Software”, ma anche “Physics Reconstruction Software” e “Trigger & Data Acquisition” Partecipazione sostanziale a LCG e ai progetti Grid Commitment per partecipare al DC04 Ufficialmente oggi in LCG-1 per CMS: Tier1 e Legnaro Partecipazione al pre-DC04 di tutti i Tier2/3 Partecipazione al DC04 di Tier selezionati (interesse) Contributo Italiano importante ( alla frazione INFN di CMS) nei PRS, in Tridas, nella “Produzione / Analisi” e in GRID … ma “scarso” nel CCS Occorre investire di piu’ sul “Core Software”! 33 P. Capiluppi - CSN1 Perugia 11/11/2002 “Pool” off the Grid Experiment Framework User Application Collections MySQL or RootIO Collection File Catalog XML / MySQL Catalog RootI/O Meta Data LCG POOL MySQL Disconnected Laptop By Vincenzo Innocente 34 P. Capiluppi - CSN1 Perugia 11/11/2002 Pool on the Grid Grid Dataset Registry File Catalog Replica Location Replica Manager Service RootI/O Meta Data LCG POOL Meta Data Catalog Grid Resources Experiment Framework User Application Collections Grid Middleware By Vincenzo Innocente 35 P. Capiluppi - CSN1 Perugia 11/11/2002