La rete per l’INFN: oggi e domani per LHC [email protected] Riunione sul Calcolo INFN CSN1 Perugia, 11-12 Novembre 2002 “il GARR” e “la Rete GARR” • GARR e’ il nome dell’associazione tra Universita’ ed enti di ricerca governativi promossa da CRUI, CNR, ENEA e INFN con la ‘benedizione’ del MIUR. • GARR e’ anche il nome assegnato alla Rete informatica dell’ Universita’ e della Ricerca Scientifica italiana. • La Rete GARR interconnette tutte le Universita’ (Statali e non) e tutte le sedi degli enti di ricerca scientifica (CNR, ENEA, INFN, Osservatori, etc.), nonche’ istituzioni culturali o di ricerca a carattere accademico, scientifico e tecnologico per un totale di circa 300 siti. E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 2 La Storia della Rete GARR • Armonizzazione e sinergia tra Universita’ e Enti di Ricerca • 1973-1990: reti indipendenti di CNR, ENEA,INFN e Universita’. • 1990-1994: rete GARR(-1), prima rete unitaria di Universita’ e Ricerca • 1994-1998: rete GARR-2, evoluzione di GARR-1 • 1998-2002: rete GARR-B (Broadband) • 2003-2006: rete GARR-G (Giganet) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 3 La Storia della Rete GARR (1/5) • 1973-1990: reti indipendenti di CNR, ENEA,INFN e Universita’ (consorzi CILEA,CINECA,CSATA, etc.) – Banda passante di accesso e trasporto tra 9.6 e 64Kbps (ma inizialmente anche dial up a 300-2400 Bit/sec) – collegamenti internazionali: - CNR(Pisa)-USA a 64Kbit/sec (SatNet, Maggio ’86) - INFN-CNAF(Bologna)-CERN(Ginevra) a 2Mbit/sec (Luglio ’89) - Accessi diretti e indiretti a EBONE e EARN – Partecipazione a Iniziativa Europea COSINE (2.o PQ europeo) – Protocolli ‘proprietari’, Bitnet, Decnet, TCP/IP e X25 – Applicazioni di remote login, mail, file transfer/access – ‘gateway’ per l’interconnessione tra le reti E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 4 La Storia della Rete GARR (2/5) • 1990-1994: rete GARR, prima rete unitaria di Universita’ e Ricerca • infrastruttura su 7 PoP interconnessi a 2 Mbit/sec (AS137) • Milano-CILEA, Bologna-CINECA, Bologna-CNAF, Pisa-CNUCE, Frascati-ENEA, Roma-INFN, Bari-CSATA – collegamenti internazionali da INFN-CNAF (Bologna): • CERN-Ginevra (2Mbit/sec dal 27 Luglio 1989) • ESNet-Princeton (64Kbit/sec) • Reti Europee COSINE (64Kbps su X25) e Europanet (2Mbps su IP) – – – – – – – – accessi sedi universitarie e enti di ricerca fino a 2Mbit/sec Protocollo TCP-IP e compatibilita’ Decnet e Bitnet Partecipazione ai progetti europei del 3.o Programma Quadro GARR fondatore e membro di Associazioni RARE, RIPE e ISOC. GARR membro di EARN cofinanziamento MURST di 5GL (CRCS-MURST) Gestione amm.va Progetto: CILEA. Gestione GARR-NOC: CINECA E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 5 La Storia della Rete GARR (3/5) • 1994-1998: rete GARR-2, evoluzione di GARR-1 – infrastruttura basata su 15 PoP (in sedi di universita’, di consorzi o di enti di ricerca) interconnessi con circuiti di capacita’ compresa tra 2Mbps e 34Mbit/sec (15 AS) e capacita’ aggregata del backbone da 30Mbit/sec iniziali a 200Mbit/sec a finali – collegamenti internazionali (AS137): • ESNet-(USA) a 1.5 Mbit/sec (fino a Marzo 2000) • EuropaNet e CERN a 2Mbit/sec (fino a meta’ ’97) • TEN-34 (ATM-24Mbit/sec con Ginevra e ATM-20Mbit/sec con Francoforte) a 34Mbit/sec (dalla meta’ del ’97) – – – – protocolli TCP-IP e compatibilita’ con Decnet; gw con Bitnet accessi a velocita’ tra 64Kbit/sec e 34Mbit/sec in CDN,F/R e ATM Partecipazione a Progetti R&D su ATM nel 4.o PQ europeo GARR fondatore e membro dell’associazione TERENA (fusione di RARE e di EARN) e della Societa’ DANTE (1995) – rete autofinanziata da CNR, ENEA, INFN, Universita’ e Consorzi – Gestione amm.va Progetto coordinata da OTS-GARR – Gestione GARR-NOC: INFN-CNAF E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 6 La Storia della Rete GARR (4/5) • 1998-2002: rete GARR-B (Broadband) – Convenzione Quadro MURST-INFN per realizzazione e gestione ‘Progetto GARR-B’ (promotori: CRUI, CNR, ENEA, INFN) – autofinanziamento per sedi in aree ‘fuori obiettivo’ – cofinanziamento MURST (ex-488) per le sedi in ‘aree di obiettivo’ – Rete Nazionale (progetto iniziale) • • • • 16 punti di presenza (PoP) per l’accesso delle sedi degli enti backbone su 4 nodi di trasporto, (capacita’ aggregata di ~2.5Gbps) ATM (VC e VPN) e IPv4 circa 200 circuiti di accesso ai PoP in F/R o CDN fino a 155Mbit/sec (per un aggregato di ~1.8Gbit/sec) (al Marzo 2002) • commodity nazionale a Roma (NAMEX) e Milano (MIX) [350Mbps] – Collegamenti con le Reti della Ricerca internazionali • TEN-34 (fino a Febbraio ‘99) a 34Mbit/sec • TEN-155 (Feb.99-Nov.2001) a 200Mbit/sec • GEANT (dal Dicembre 2001) a 2.5Gbit/sec – Global Internet (da 20Mbit/sec [Giu.’97] a 2.5Gbit/sec [Mar.’02]) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 7 La Rete del Progetto GARR-B Fase2 (1999) • • • • • • 4 nodi di Backbone su dorsale ridondata a 155M 16 PoP di accesso collegati a 34M155M con il Backbone Capacita’ Aggregata del Backbone: circa 2.5Gbps (al Marzo 2002) Siti GARR connessi ai PoP con velocita’ tra 2M e 155Mbps Peering di commodity e di ricerca internazionale a 155 Mbps vedi: C.Vistoli, “Progetto tecnico GARR-B”, CRCS-97/2 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 8 Gestione Progetto GARR-B (1998-2002) MIUR Convenzione Quadro INFN (DURST) Nomina Nomina CRCS (MIUR) OTS-GARR (MIUR) Direzione Progetto GARR-B (INFN-GARR) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 9 Gestione Progetto GARR-B • • Alla Direzione INFN-GARR sono demandate la realizzazione e la gestione del Progetto GARR-B. La Direzione INFN-GARR, secondo quanto previsto dal Progetto GARR-B e in accordo con le decisioni discusse in GARR-OTS ed approvate dalla CRCS, cura: – la pianificazione, l’evoluzione, il coordinamento tecnico e il funzionamento della rete (gruppo GARR-TEC, [email protected]) in accordo con gli APM (Access Port Manager) dei siti connessi alla rete – il coordinamento della sperimentazione di nuove tecnologie della rete GARR e la partecipazione nei comitati e nei progetti internazionali – la gestione amministrativa e scientifica ([email protected]) Servizi di network del GARR sono: • GARR-NOC (call centre, [email protected]) • GARR-LIR (assegnazione indirizzi e reti IP, [email protected]) • GARR-NIC (domini di II livello SOLO per GARR, [email protected]) • GARR-CERT (CSIRT, security, [email protected]) [INFN- Firenze] • GARR-MCAST (multicast, [email protected]) • Web-Cache, FTP-Mirror ([email protected],[email protected]) [CILEA] • Usenet News ([email protected]) [SerRA, Universita’ di Pisa] E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 10 APA, APM e AUP del GARR • Le AUP (Acceptable Use Policies) sono le norme di comportamento per gli utenti della rete GARR (http://www.garr.it/docs/garr-b-aup.shtml) – Sono armonizzate con quelle delle Reti della Ricerca dei paesi europei – Tra l’altro, vietano espressamente il transito di traffico commerciale sulla Rete. • L’APA (Access Port Administrator) di una sede GARR e’ il responsabile “amministrativo” dell’accesso alla Rete. – E’ il delegato del Rettore dell’Universita’ o del Direttore del Laboratorio di Ricerca per gli aspetti amministrativi e strategici – Fa riferimento alle AUP e le fa rispettare – Interagisce con la Direzione GARR-B per questioni amministrative – Interagisce con la sua Comunita’ di Riferimento (CRUI, CNR, etc.) • L’APM (Access Port Manager) e’ il responsabile “tecnico” dell’accesso di una sede GARR alla Rete. – E’ nominato dall’APA e le sue prerogative sono descritte in http://www.garr.it/docs/garr-apm-00.shtml – Interagisce con i gruppi di Network Services (NOC, CERT, etc. ) del GARR E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 11 Lo stato dell’arte del Progetto di Rete GARR-B (Fase 4, Novembre 2002) Infrastruttura di Rete Nazionale (GARR-B Fase4, Novembre 2002) • • • • • 7 Nodi di Backbone : MI-G, BO-G, RM-G, MI, BO, RM, NA 3 Circuiti di Backbone a 155Mbps: RM-NA, NA-MI, MI-BO 3 Circuiti di Backbone a 2.5Gbps: triangolo MI-G,BO-G,RM-G 5 Circuiti Inter B-B : MI-G a 2.5G, BO-G a 2*155M, RM-G a 2*155M Capacita’ Aggregata del Backbone: circa 11Gbps • 22 PoP: 2*MI, TO(155M), GE(2*34M), PD(155M), TS(2*34M), 2*BO, FI (155M), PI(155M), PD (155M) 2*RM, Frascati (155M), CA(2*34M), AQ (2*34M), PG(34M), NA, PA(34M), CT(2*34M), BA(2*34M) , CS(34M) • 30 Router e 17 Switch ATM di Backbone • Accessi Utente: circa 300 siti con circuiti tra 2Mbps e 1Gbps • Peering di Commodity: MIX@155M, NAMEX@200M E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 13 GARR-B Fase 4 (Novembre 2002) • Backbone – 3*155Mbps (RM-NA-MI-BO) – 3*2.5Gbps (MI-BO-RM-MI) – 1*2.5Gbps+4*155M inter BB • 22 PoP di accesso dei siti GARR • Accessi: • ~300 siti @2M-1Gbps Peering di Ricerca (su Milano-G) - [email protected] (produzione) - [email protected] (sperimentazione) • Peering di Commodity Nazionali: - Roma (NAMEX@200Mbps) - Milano (MIX@155Mbps) • Peering di commodity internazionali: - [email protected] (31/03/02) - Roma-Telia@622Mbps (15/05/02) ) - [backup su GEANT] E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 14 Evoluzione del Backbone di Rete Nazionale • • • • 1990-1994: rete GARR 1994-1998: rete GARR-2 1998-2002: rete GARR-B 2003-2006: rete GARR-G 12Mbit/sec 30-200Mbit/sec 2.5-10Gbit/sec ... • Fattore di crescita backbone rete GARR: >50 in 4 anni E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 15 Connettivita’ Internazionale • Peering Ricerca Europea (GEANT) – [Chiusura accesso a 200Mbps a TEN155 il 30 novembre 2001] – Accesso a 2.5Gbps per produzione (IPv4, IP-Premium, IP-LBE, Multicast) – Accesso a 2.5Gbps per sperimentazione (QoS,VC,VPN,etc.) • Peering Ricerca Intercontinentale – 3*2.5Gbit/sec tra GEANT e NordAmerica (Abilene,Esnet, Canarie, …) – 155M tra GEANT e Giappone, 2Mbps con SudCorea, 155M con Russia – Transito attraverso Abilene per tutte le altre reti della Ricerca mondiali. • Peering Commodity Internazionale (Global Internet) – [Chiusura circuito diretto MI-NY a 622 Mbps il Marzo 2002]) – Circuito Global Crossing da Milano (2.5Gbps ridondati dal 14/3/02) – Circuito Telia da Roma (622Mbps dal 30/5/02). • Peering 6Net – Accesso a 2*155M (IPv6 nativo) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 16 Peering nazionali (Giugno 2002) • NAP Milano (MIX) – • attraverso MIX: – – • Infostrada, Inet, etc. 94 peering con ISP privati NAP Roma (NAMEX) – • 155Mbps ATM 200Mbps attraverso NAMEX: – – Interbusiness, Wind, etc. 89 peering con ISP privati E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 17 Evoluzione dei Peering di Commodity internazionale • Accesso al Global Internet da GARR-B – Giugno 1997: 20Mbps Milano (TEN-34) – Agosto 1999: 45Mbps Napoli - NY – Giugno 2000: 155Mbps Napoli - NY – Settembre 2000: 622Mbps Milano - NY – Mar-Mag 2002: 2.5Gbps Milano (GX), 622Mbps Roma (Telia) • Fattore di crescita peering GARR: >100 in 5 anni E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 18 Accessi a GARR-B Fase 4 (Novembre 2002) Circa 300 siti di istituzioni accademiche e di ricerca - 75 Universita’ (statali e non statali) - 56 siti CNR - 9 siti ENEA - 37 siti INFN - 7 siti ASI - 12 siti INAF (Osservatori Astronomici) - 2 siti INFM - 8 siti INGV - 12 Biblioteche (Centrali e Nazionali) e ICCU - 41 siti di altre istituzioni di ricerca - 3 Consorzi di Supercomputing (CILEA,CINECA,CASPUR) sede MIUR di P.le Kennedy (a 34Mbit/sec) sede MIUR di V.le Trastevere (a 8Mbit/sec) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 19 Capacita’ aggregata di Accesso [BGA] di tutti i siti GARR(Giugno 2002) BGA fuori obiettivo BGA in obiettivo BGA Totale 2,000,000 1,800,000 Total access capacity 1,600,000 1,400,000 Kbps 1,200,000 1,000,000 Highly developed areas 800,000 600,000 400,000 Less developed areas 200,000 0 Oct-98 Apr-99 Oct-99 Apr-00 Oct-00 Apr-01 Oct-01 Apr-02 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 20 Capacita’ aggregata di accesso (BGA) delle sedi INFN 800,000 700,000 600,000 Kbps 500,000 400,000 300,000 200,000 100,000 0 Oct-98 Apr-99 Oct-99 Apr-00 Oct-00 Apr-01 Oct-01 Apr-02 Oct-02 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 21 Accessi Sedi INFN alla rete GARR (1/3) Circuito Attuale BGA Attuale Data Attivazione Circuito Previsto BGA Prevista Data Attivazione Prevista Note U-BA 34M 12288 01/09/2000 34M-ATM 16384 17/12/2001 LS1010 INFN - Cagliari 2*2M 4096 26/10/1999 34M-ATM 8192 30/01/2002 - INFN - Catania 2*2M 4096 14/10/1999 34M-ATM 8192 17/12/2001 Cavi persi?? INFN - Cosenza 2M-F/R 1024 26/11/1999 - - - Trasloco a PoP-CS INFN - L'Aquila 2*2M 4096 07/06/2001 - - - - INFN - Lecce 2M-F/R 1024 11/10/1999 U-LE 34M 8192 21/12/2001 - INFN - LNGS 34M-ATM 16384 12/03/2001 - - - - 2*2M 4096 08/11/1999 34M-ATM 8192 17/12/2001 router INFN 2M-F/R 1024 02/12/1999 - - - CAR con U-ME? INFN - Napoli U-NA 34M 8192 14/12/1999 U-NA 155M 32768 30/11/2001 Problema Uni-NA? INFN - Pisa - S.Piero 34M-ATM 30720 30/11/2001 - - - Trasloco? INFN - Pisa - Virgo 3*2M 6124 28/11/2001 6*2M 12288 17/12/2001 34M-ATM giu. 2002 INFN - GC-Salerno 2M-F/R 1024 03/11/1999 - - - CAR con U-SA? 34M-ATM 8192 11/09/2000 34M-ATM 16384 19/12/2001 CAR? SEDE Aree in obiettivo INFN - Bari INFN - LNS INFN - GC-Messina INFN - Trieste E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 22 Accessi Sedi INFN alla rete GARR (2/3) Circuito Attuale BGA Attuale Data Attivazione Circuito Previsto BGA Prevista Data Attivazione Prevista Note INFN - AC Frascati LNF 155M via LNF 27/01/2000 - - - - INFN - Bologna CNAF 34M 12288 01/09/2000 34M-ATM 30720 12/12/2001 17/12? I-BO 34M 12288 23/11/2000 155M-ATM 98304 11/12/2001 14/12? 2*2M 4096 01/10/2001 - - - - INFN - Firenze-Arcetri 2M 2048 28/08/2000 - - - - INFN - Firenze-Sesto 2M 2048 28/08/2000 34M-ATM 8192 31/01/2002 - 2*2M 4096 07/10/1999 34M-ATM 8192 11/12/2001 Cavi persi? INFN - LNF 155M-ATM 16384 27/01/2000 - - - Fibra locale INFN - LNL 34M-ATM 30720 10/12/2001 - - - - INFN - Milano U-MI 155M 28672 10/07/2001 - - - - INFN - Milano - Bicocca 34M-ATM 16384 11/09/2000 - - - - INFN - Padova 34M-ATM 28672 12/03/2001 34M-ATM 30720 19/12/2001 - 2M-F/R 1024 24/11/1999 - - - - 2*2M 4096 05/04/2001 34M-ATM 8192 11/12/2001 Trasloco switch SEDE Aree in obiettivo INFN - CNAF Bologna INFN - Ferrara INFN - Genova INFN - GC-Parma INFN - Pavia E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 23 Accessi Sedi INFN alla rete GARR (3/3) Circuito Attuale BGA Attuale Data Attivazione Circuito Previsto BGA Prevista Data Attivazione Prevista Note 2M-F/R 1024 15/11/1999 155M-ATM 12288 10/12/2001 Guasto sw. RM INFN - Presidenza I-RM1 155M via Roma1 03/11/1999 - - - - INFN - Roma1 2*155M-ATM 32768 14/09/2001 - - - - INFN - Roma2 2*2M 4096 03/12/2001 - - - - INFN - Roma3 2M 2048 06/10/1999 - - - - I-RM1 155M via Roma1 03/11/1999 - - - - 34M-ATM 12288 31/08/2000 34M-ATM 30720 17/12/2001 - INFN - GC-Trento 2M-F/R 1024 11/11/1999 - - - CAR con U-TN? INFN - GC-Udine 2M-F/R 1024 11/11/1999 - - - CAR con U-UD? SEDE Aree in obiettivo INFN - Perugia INFN - GC-Sanita' INFN - Torino E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 24 Weathermap di GARR-B E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 25 Andamento delle Tariffe (ascissa in Mbit/sec, ordinata in MLit/anno) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 26 La partecipazione del GARR ai Progetti di Ricerca e Sviluppo Internazionali Partecipazioni Internazionali –TERENA (TF-NGN, Serenate, CSIRT, …) –IETF (Messaging, IPv6, Optical,…) –RIPE (Registry, Routing, IPv6, DNS,…) –INTERNET2 (Multicast, videoconferenza, …) –Collaborazioni trasversali con altri Progetti Europei E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 28 Partecipazione GARR ai Programmi (in corso) della Commissione Europea Inizio Durata Costo GARR Contributo CE CAESAR Fase 1 e 2 (ALIS o @LIS) 01/04/2002 4+18 mesi - 80% GEANT rete europea della Ricerca (IST-RN1) 01/11/2000 48 mesi 13.2 ML € 48% 6NET (IPv6 Backbone) 01/01/2002 24 mesi 591.347 € 50% EUMEDCONNECT Fase 1 e 2 (EUMEDIS) 01/01/2002 4+ 20(47) mesi - 80% eCSIRT (security) 01/04/2002 15 53.200 € 55% Nome Progetto E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 29 Progetto Europeo GEANT • • • • GEANT e’ un Progetto approvato nell’ambito del 5.PQ della Unione Europea per l’interconnessione delle Reti della Ricerca Europee e tra queste e le reti della ricerca: -del Nordamerica -del Sudamerica -del bacino del Mediterraneo -dei Paesi Asiatici sul Pacifico -in futuro, forse, dei Paesi sull’Oceano Indiano e dell’Africa Questo Progetto, successore di TEN-34 e TEN-155 (Trans European Network) del 4.o PQ e di EuropaNet del 3.o PQ, ha una durata di 48 mesi (2000-2004), un costo stimato di circa 170Meuro e un cofinanziamento europeo di 80Meuro. Al Progetto GEANT partecipano 32 reti della ricerca europee, tra cui il GARR per l’Italia Lo sviluppo del Progetto e’ regolato dal Consorzio (virtuale) delle Reti della Ricerca Europee E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 30 EUMEDIS-EUMedConnect • 1. 2. EUMEDIS e’ un Programma della Unione Europea per lo sviluppo della Societa’ dell’Informazione a beneficio di 12 paesi del Mediterraneo. Il Programma prevede la cooperazione tra i paesi dell’unione europea e i paesi del mediterraneo su diversi temi. Esso e’ suddiviso in: -Strand 1: 35 Meuro per applicazioni (16 Progetti approvati) -Strand 2: 10 Meuro per infrastruttura di rete (fino a Giugno 2006) Per lo Strand 2 e’ stato accettato e approvato un solo progetto, cioe’ EUMEDCONNECT, per la Interconnessione tra GEANT e le Reti della Ricerca di: -Marocco, Algeria, Tunisia, Egitto, Palestina, Giordania, Siria, Libano, Turchia (cofinanziati da EUMEDIS) -Malta, Cipro, Israele (cofinanziati dal 5.o e 6.o PQ-IST) Al Progetto EUMEDCONNECT partecipano anche le reti della ricerca di Spagna, Francia, Italia (GARR) e Grecia (coordinatore DANTE) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 31 ALIS-CAESAR • ALIS (o @LIS) e’ un Programma della Unione Europea per lo sviluppo della Societa’ dell’Informazione a beneficio di tutti i paesi dell’America Latina. Il Programma prevede la cooperazione tra i paesi dell’unione europea e i paesi del Centro e Sudamerica su diversi temi. 1. L’Unione Europea ha affidato al Consorzio delle Reti della Ricerca Europee il progetto, denominato CAESAR, per la Interconnessione tra la Rete della Ricerca Europea GEANT e le Reti della Ricerca di tutti i paesi dell’America Latina • Al Progetto CAESAR partecipano, in rappresentanza delle Reti della Ricerca Europee, le organizzazioni per le reti della ricerca di Spagna, Francia, Italia (GARR) e Portogallo (coordinatore DANTE) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 32 Progetto Europeo 6NET • 6NET e’ un Progetto approvato nell’ambito del 5.PQ-IST della Commissione Europea (durata 24 mesi da Gen.2002 a Dic.2003) • Ha per scopo il test a livello internazionale di un’infrastruttura nativa di rete basata su protocollo IPv6 e di applicazioni native IPv6. • Il Progetto 6NET, cui partecipano reti della ricerca europee, tra cui il GARR, e’ in stretta collaborazione con il Progetto analogo EURO6IX, cui partecipano principalmente operatori di tlc. • • Partecipanti italiani (GARR): CNR, INFN, 10 Universita’ e CASPUR Contatto per il GARR: [email protected] E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 33 Network The Provided by 6NET partners Circuit dedicated – initially 155Mbit/s Dedicated circuit added for redundancy (optional) Asia-Pacific Tunneled solution for cost reasons SE UK NL DE North America FR CH IT AT GR E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 34 Network in Italy The POLITECNICO DI TORINO POLITECNICO DI MILANO (s.j.) PoP TORINO 6NET BACKBONE UNIVERSITA’ DI MILANO MILANO GARR 6NET-GW CNR / IAT PoP PISA UNIVERSITA’ DI PISA UNIVERSITA’ DI FERRARA PoP BOLOGNA PoP ROMA INFN/CNAF UNIVERSITA’ DI FIRENZE GARR UNIVERSITA’ DI ROMA3 CASPUR UNIVERSITA’ DI NAPOLI UNIVERSITA’ DI BOLOGNA UNIVERSITA’ DI BARI E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 35 eCSIRT:Sicurezza della Rete • Sistemi di calcolo sicuri e protetti (esigenza primaria per le griglie computazionali) • CERT e CSIRT nelle reti della Ricerca per la gestione di interventi immediati legati alla sicurezza della rete • Protezione proattiva da violazione dei sistemi, in coordinamento con gli APM nazionali e internazionali delle Reti • Certification Authority: – coordinamento internazionale certificati X.509 – Autenticazione, Autorizzazione, Accounting • Partecipanti: DE, IT, FR, UK, DK, NO, CH, PL, SI, ES, NL • Progetto Europeo, 24 mesi (Aprile 2002 - Marzo 2004) • Contatto per il GARR: [email protected] E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 36 SErvice QUality over Interconnected Domains (SEQUIN) • Studio, Progettazione e Realizzazione di QoS a livello IP in GEANT e nelle Reti della Ricerca Europee • Coordinamento con Task Force TF-TANT e TF-NGN • Tra l’altro: definizione Servizio Premium IP end to end su scala europea [gia’ reso operativo su GEANT] • Progetto Europeo, 18 mesi (Nov. 2000 - Apr. 2002) [concluso] • Partecipanti: Switch, DFN, Renater, GARR, UKERNA, Pol34, Grnet • Contatto per il GARR: [email protected] E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 37 Il GARR e le Reti della Ricerca internazionali La rete della ricerca Europea TEN-155 (1998-2001) • • • • • • Progetto e Rete TEN-155 (evoluzione della rete TEN-34) Cofinanziamento CE (4th FP) per 80M€ su un costo di ~170M€ Durata 36 mesi (1/12/98 – 30/11/01) Partecipanti: 20 NREN europee Rete operativa dall’1 Dic. 1998 Peculiarita’ di TEN-155: – – – – • Backbone a 155-622Mbit/sec Accesso iniziale fino a 155M Gbit/sec Peering con tutte le reti della ricerca Supporto VC, VPN Accesso GARR-B – 200Mbit/sec su 2x155Mbps ATM: – 155Mbit/sec produzione – 45Mbit/sec sperimentazione E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 39 La Rete della Ricerca Europea GÉANT (2001-2004) • • • • • • Progetto e Rete GÉANT (evoluzione della rete TEN-155) Cofinanziamento CE (5th FP-IST-RN1) per 80M€ su un costo di ~170M€ Durata 48 mesi (1/12/00 – 30/11/04) Partecipanti: 32 NREN europee Rete operativa dall’1 Dic. 2001 Peculiarita’ di GÉANT: – – – – – • Backbone a 10Gbit/sec Accesso iniziale fino a 2.5 Gbit/sec Uso di circuiti su lambda Peering con tutte le reti della ricerca Supporto per QoS, VPN, MCAST 2001 2001 Accesso GARR a 2.5Gbit/sec per produzione e 2.5Gbit/sec per sperimentazione E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 40 L’evoluzione delle Reti della Ricerca Europee • Pan-European Research Networks: • Caratteristiche • • • • • GÉANT 2001-2004 32 countries 2.5-10 Gbps Backbone TEN-155 1998-2001 19 countries 155-622 Mbps Backbone TEN-34 1997-1998 18 countries 34 Mbps Backbone EuropaNET 1993-1997 18 countries 2 Mbps Backbone COSINE 1986-1993 15 countries 64 Kbps Backbone • TEN-34 network emerged from the TEN-34 project in 1997. The accompanying Advanced ATM Testing programme was carried out by Task Force TEN (TF-TEN). The QUANTUM project produced the TEN-155 network in 1998; its accompanying testing programme is called QUANTUM Testing Programme (QTP), carried out by Task Force TANT (TF-TANT, Testing of Advanced Networking Technologies). In the case of GÉANT, the project and network will carry the same name. The Managed Bandwidth Service and the testing programme will be continued as part of GÉANT, the latter by TF-NGN (Task Force New Generation Networks) and by other projects like SEQUIN. • • Accesso GARR IPv4 [v6] IP, ATM IP, ATM IP, CDN IP, X25 2.5[+2.5]Gbps 200Mbps 34Mbps 2Mbps 64Kbps • Fattore di crescita peering GARR: >100 in 5 anni E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 41 La rete a supporto delle Computing Grid • Problemi particolarmente complessi oggi richiedono sofisticate infrastrutture di calcolo (software e hardware) • Ad esempio: per i futuri esperimenti di Fisica delle Alte Energie la potenza di calcolo necessaria non sara’ piu’ “confinabile” in un singolo sito – potenza di calcolo (K-SI95 7.500 200.000 PIII 800MHz !!! ) – PetaByte di dati • I modelli di calcolo distribuito oggi esistenti non sono sufficenti a risolvere il problema: – clusters fabrics – produzioni/analisi locali produzioni/analisi distribuite – collaborazioni internazionali sempre piu’ grandi E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Grid 42 Che cos’e’ la “Grid Technology”? • L’obiettivo principale dei progetti di Grid e’ lo sviluppo di un insieme coerente di risorse di calcolo (“Grid”), distribuite su scala geografica. • La Grid dovra’ garantire la gestione di data-sets di differenti “Virtual Organizations” (fino alla scala del “Peta-Byte”) utilizzando computing power e storage distribuiti. • Una Griglia Computazionale dovra’ fornire una interfaccia uniforme ai suoi utilizzatori (ed alle sue risorse), distribuendo un servizio affidabile e accessibile da “qualsiasi luogo” • Paradigma delle Grid: – analogia con le griglie-elettriche (si inserisce un “dispositivo” nella presa nel muro e si opera senza preoccuparsi delle centrali elettriche di produzione, della rete di distribuzione, del trasporto su cavi ad alta tensione, etc.); – si usa qualsiasi risorsa di calcolo e di storage disponibile sulla rete, similmente a quanto si fa col WWW. E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 43 LHC Data Grid Hierarchy (by H.Newman at HEP-CCC 18-nov-2002) CERN/Outside Resource Ratio ~1:2 Tier0/( Tier1)/( Tier2) ~1:1:1 ~PByte/sec ~100-400 MBytes/sec Online System Experiment Tier 0 +1 Tier1 ~2.5 Gbits/sec IN2P3 Center INFN Center RAL Center ~2.5 Gbps CERN 700k SI95 ~1 PB Disk; Tape Robot Tier2 FNAL: 200k SI95; 600 TB 2.5 Gbps Tier2 Center Tier2 Center Tier2 Center Tier2 Center Tier2 Center Tier3 InstituteInstitute Institute ~0.25TIPS Physics data cache Institute 100 - 1000 Mbits/sec Tier 4 Tens of Petabytes by 2007-8. An Exabyte within ~5 Years later. Workstations E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 44 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 45 GÉANT E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 46 ICFA SCIC: R&E Backbone and International Link Progress (by H.Newman, 18-nov-2002) [1/2] • GEANT Pan-European Backbone (http://www.dante.net/geant) – Now interconnects >31 countries; many trunks 2.5 and 10 Gbps OK • UK: SuperJANET Core at 10 Gbps – 2.5 Gbps NY-London, with 622 Mbps to ESnet and Abilene (???) • France (IN2P3): 2.5 Gbps RENATER backbone by mid-October – Lyon-CERN Link being Upgraded to 1 Gbps Ethernet OK – Proposal for dark fiber to CERN by end 2003 ! • SuperSINET (Japan): 10 Gbps IP and 10 Gbps Wavelength Core – Tokyo to NY Links: Now 2 X 2.5 Gbps; Need to get to Starlight • CA*net4 (Canada): Interconnect customer-owned dark fiber nets across Canada at 10 Gbps, started July 2002 – “Lambda-Grids” by ~2004-5 • GWIN (Germany): 2.5 Gbps Core; Connect to US at 2 X 2.5 Gbps; (???) Support for SILK Project: Satellite links to FSU Republics • Russia: Now 155 Mbps links to Moscow – Moscow-Starlight Link to 155 Mbps (US NSF + Russia Support) – Moscow-Stockholm Link; connect to GEANT at 155 Mbps E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 47 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 48 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 49 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 50 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 51 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 52 Canet*3 network map E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 53 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 54 Accesso GARR a GEANT PoP GEANT Ginevra [GEANT Backbone] 10 Gbit/sec 2.5 Gbit/sec (fibra locale) PoP GARR Milano| (produzione) PoP GEANT Francoforte 10 Gbit/sec PoP GEANT Milano 2.5 Gbit/sec (fibra locale) PoP GARR Milano| GE (1Gbit/sec) (sperimentazione) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 55 Accesso GARR a GEANT PoP GEANT Ginevra [GEANT Backbone] 10 Gbit/sec 2.5 Gbit/sec (fibra locale) PoP GARR Milano| (produzione) PoP GEANT Francoforte 10 Gbit/sec PoP GEANT Milano 2.5 Gbit/sec (fibra locale) PoP GARR Milano| GE (1Gbit/sec) (sperimentazione) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 56 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 57 Accesso CERN a GEANT PoP GEANT Parigi PoP GEANT Milano [GEANT Backbone] 10 Gbit/sec 2.5 Gbit/sec (fibra locale) 10 Gbit/sec PoP GEANT Ginevra PoP SWITCH Ginevra (produzione) 2.5 Gbit/sec (fibra locale) CERN (sperimentazione) GE (1Gbit/sec) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 58 La evoluzione del GARR e della sua Rete La Storia della Rete GARR (5/5) • 1973-1990: reti indipendenti di CNR, ENEA,INFN e Universita’. • 1990-1994: rete GARR, prima rete unitaria di Universita’ e Ricerca • 1994-1998: rete GARR-2, evoluzione di GARR-1 • 1998-2002: rete GARR-B (Broadband) • 2003-2006: rete GARR-G (Giganet) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 60 Evoluzione delle tecnologie trasmissive • • • • • • • • • Dal rame alla fibra, moltiplicazione delle fibre Fibra multimodale e fibra monomodale (G65x) Dai circuiti su fibra ai circuiti su ‘lambda’ Evoluzione tecnologica: piu’ lambda per fibra + maggiore velocita’ per lambda ==> ==> maggiore capacita’ per fibra. ‘Illuminate’ solo il 5-6% delle fibre installate IRU: Indefeasible Right of Use Effetto sul ‘prezzo’ delle killer technology Nuovo tipo di fibre ===> nuove tecnologie trasmissive Coesistenza di piu’ operatori: competizione e accordi di interoperabilita’ E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 61 Flexible OADM Band 1 B S M Band 2 Band 3 Band 4 Ch 8 B S M A/D 8 Ch 1 A/D 1 Local interface Passive Low Cost OADM Format and Bit Rate Transparent 8 Ch. OADM Modularity up to 32 Capacity E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 62 Evoluzione degli apparati per la trasmissione dati • • • • • • • • • • Dal TDM all’HD-WDM. L’integrazione dei servizi (dati, video, voce, etc.) Le alte velocita’ (2.5,10,40,160Gbit/sec) Nuovo tipo di fibre ===> nuove tecnologie trasmissive Dai circuiti su fibra ai circuiti su ‘lambda’ Optical Networks (R&D): Circuit switching, Optical switching, Optical Routing Tecnologie apparati di Routing e interfacce di linea Wireless e Protocolli (IPv4 ==> IPv6 ==> ?) Turnover degli apparati sempre piu’ frequente Coesistenza di piu’ costruttori: competizione e standard per l’interoperabilita’ E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 63 Evoluzione della Rete SDH ATM IP GbE Escon ... DWDM Strato Client IP, ATM, SDH, GbE, ... Strato Server Ottico Router IP Switch ATM Elaboratore con porte GbE, ... Apparato SDH OADM OXC E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 64 Progetto GARR-G Pilot • Scopo: studio di fattibilita’ di GARR-Giganet – Indagine con operatori di telecomunicazioni (TI, Infostrada, Wind, Interoute, e-Via, Albacom, Atlanet+Edisontel, Autostrade TLC) – Indagine con Fornitori di Apparati (CISCO, Juniper, Riverstone, Marconi, Alcatel, Foundry, Spirent, RIPE-NCC) – Test di circuiti a 2.5G su Lambda con terminazione SDH con generatori di traffico Smartbit e slow-monitor con Ripe-Box – Test di Giga-switch-router CISCO, Juniper e Riverstone – Test di Multiplexer SDH Alcatel 1660SM (Milano-Pisa-Roma) • Risultato: Documento Tecnico-Implementativo Progetto GARR-Giganet • Durata: 30 mesi (Lug.2000-Dic.2002) • Partecipanti (GARR): CNR, INFN , Universita’ di Pisa, Universita’ di Milano • Contatto per il GARR: [email protected] E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 65 GARR-G Pilot (stato all’ 1/3/2002) 2x2.5Gbps PISA GARR (Centro SERRA) Lan Pisa Alcatel 1660SM MILANO GARR Lan Milano Alcatel 1660SM 1x2.5Gbps 3x2.5Gbps Direzione GARR-B Lan Roma SH+RM HP Server Giga BACKBONE L0 Alcatel 1660SM ROMA GARR PC L1 hub E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 66 GARR-G Pilot • 3 circuiti Telecom Italia a 2.5G su lambda – Tecnologia basata su Fibra G.653 e apparati WDM Marconi MSH73 – Test di apparati CISCO 12016, Juniper M20 e Riverstone 8600 – Generatori di traffico Spirent-Smartbit e slow-monitor con RIPE-Box • 2 circuiti Interoute a 2.5G su Lambda tra Pisa e Milano – Tecnologia basata su Fibra G.655 e apparati WDM Alcatel 1640WM – Test di 2 circuiti a 2.5G su Lambda con terminazione SDH • Infrastruttura Atlanet end-to-end WDM (16 ) tra Pisa e Roma – Tecnologia basata su Fibra G.655 e apparati WDM Marconi PLA16 – Test di 1 circuito a 2.5G su Lambda con terminazione PLT16 – Possibile test a 10Gbps (SDH o Giga Ethernet) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 67 Obiettivi GARR con GARR-Giganet (2003-2006) * “Consortium” GARR per le Università e Enti Pubblici di Ricerca, aperto anche a istituti di ricerca privati * Investimenti in infrastrutture nelle regioni meridionali * Connessione delle scuole * Servizi avanzati: QoS (peer to peer), VPNs, IPv6 nativo e dual stack con IPv4, Multicast, etc. * Supporto per richieste di Larga Banda (Grids, Tele-medicine, Distance Learning, etc.) * Applicazioni Multimediali (Musei e Biblioteche digitali) * Sviluppo di Reti Regionali, MAN e LAN estese * Supporto per sperimentazione Progetti Lambda Switching * Sicurezza della Rete (per quanto e’ possibile…) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 68 Routing Multicast in GARR-B • Il routing multicast all’interno della rete GARR utilizza il protocollo PIM (Protocol Indipendent Multicast) per l’inoltro del traffico, ed il protocollo MSDP (Multicast Source Discovery Protocol) per la notifica della presenza di sorgenti attive. • I Rendez-Vous Point sono definiti sui router di trasporto di Bologna e Napoli • La rete GARR mantiene un collegamento internazionale multicast tramite Geant verso GARR – AS137 tutte le reti della ricerca Europea e Nordamericana. Il Napoli RT collegamento multicast e’ ottenuto mediante peering MSDP e MBGP (Multiprotocol Border Gateway Protocol). GEANT – AS20965 eMBGP eMSDP Milano RT iMSDP iMSDP Bologna RT iMSDP E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 69 Propagazione dei worm Nimda Numero di righe per giorno in error_log del server web di GARR-CERT Code Red II E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 70 Struttura della Rete GARR-G (2003-2006) • Infrastruttura di trasporto di capacita’ aggregata di 100Gbit/sec • Capacita’ trasmissiva dei singoli circuiti di backbone tra 155Mbit/sec e 10Gbit/sec (su SDH, lambda, dark fiber) • OVERPROVISIONING • Ridondanza link e apparati di switch-routing • PoP: ~10 punti di presenza primari (Giga-PoP) (2.5-10Gbit/sec) ~20 punti di presenza secondari (Mega-PoP) (155M-2.5Gbit/sec) • Peering internazionali (ricerca e commodity) adeguati • Peering commodity anche a livello regionale • I PoP GARR saranno ospitati in sedi “neutre” gestite da GARR • Servizi di supporto (NOC, CERT, etc.) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 71 Accessi a GARR-G – Circuiti di accesso tra 2Mbit/sec e 1Gbit/sec [2003-2004] [accessi a piu’ alta velocita’ possibili subito per sperimentazione e dopo il 2004 per produzione] – Accessi da MAN e da extended LAN al backbone [distinti per sito] – ATM non piu’ usato sul Backbone, ma supportato sugli accessi fino a 155Mbit/sec – Affidabilita’ e ridondanza accessi (backup) – IP best effort e Servizi Avanzati (VPN,QoS,IPv6,Multicast,etc.) • funzionalita’ peer-to-peer – Tariffazione basata su BGA (Banda Garantita di Accesso), capacita’ del circuito e 95o percentile – [semplificazione procedure convenzioni, contratti, rendicontazioni] E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 72 Gestione Progetto GARR-B (1998-2002) Convenzione Quadro MURST INFN Nomina Nomina CRCS (MURST) OTS-GARR (MURST) DIR.GARR-B (INFN) E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 73 “Consortium” GARR (dal 2003) Consorzio privato di enti pubblici CRCS-MIUR Associazione Consortium GARR Indirizzo Consiglio d’Amm.ne Consortium (7 membri) Comitato Tecnico-Scientifico Direzione GARR E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 74 Sommario attivita’ GARR in corso • Caratteristiche della rete GARR-Giganet definite in base alle necessita’ dei suoi utilizzatori, sia in termini di banda richiesta che di tipologia di servizi • Rete GARR-G sulla linea di partenza: – Gara per fornitura di connettivita’ in atto – Housing PoP GARR presso i siti piu’ idonei – Gara per fornitura apparati in preparazione – Ridefinizione tariffe (BGA/BEA/percentile) • “Consortium” GARR inizia ad operare dall’anno 2003 • Partecipazione ai Progetti Europei del 6.o PQ • Workshop, Conferenze, Formazione E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 75 Evoluzione del Backbone di Rete Nazionale • • • • 1990-1994: rete GARR 1994-1998: rete GARR-2 1998-2002: rete GARR-B 2003-2006: rete GARR-G 12Mbit/sec 30-200Mbit/sec 2.5-10Gbit/sec ... • Fattore di crescita backbone rete GARR: >50 in 4 anni E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 76 Evoluzione dei Peering di Commodity internazionale • Accesso al Global Internet da GARR-B – Giugno 1997: 20Mbps Milano (TEN-34) – Agosto 1999: 45Mbps Napoli - NY – Giugno 2000: 155Mbps Napoli - NY – Settembre 2000: 622Mbps Milano - NY – Mar-Mag 2002: 2.5Gbps Milano (GX), 622Mbps Roma (Telia) • Fattore di crescita peering GARR: >100 in 5 anni E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 77 L’evoluzione delle Reti della Ricerca Europee • Pan-European Research Networks: • Caratteristiche • • • • • GÉANT 2001-2004 32 countries 2.5-10 Gbps Backbone TEN-155 1998-2001 19 countries 155-622 Mbps Backbone TEN-34 1997-1998 18 countries 34 Mbps Backbone EuropaNET 1993-1997 18 countries 2 Mbps Backbone COSINE 1986-1993 15 countries 64 Kbps Backbone • TEN-34 network emerged from the TEN-34 project in 1997. The accompanying Advanced ATM Testing programme was carried out by Task Force TEN (TF-TEN). The QUANTUM project produced the TEN-155 network in 1998; its accompanying testing programme is called QUANTUM Testing Programme (QTP), carried out by Task Force TANT (TF-TANT, Testing of Advanced Networking Technologies). In the case of GÉANT, the project and network will carry the same name. The Managed Bandwidth Service and the testing programme will be continued as part of GÉANT, the latter by TF-NGN (Task Force New Generation Networks) and by other projects like SEQUIN. • • Accesso GARR IPv4 [v6] IP, ATM IP, ATM IP, CDN IP, X25 2.5[+2.5]Gbps 200Mbps 34Mbps 2Mbps 64Kbps • Fattore di crescita peering GARR: >100 in 5 anni E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 78 conclusione • La rete GARR, in collaborazione con le altre reti della ricerca europee, e’ in grado di mantenere continuita’ di funzionamento e garantire banda passante adeguata per soddisfare qualsiasi richiesta di applicazione scientifica • Tutti i gruppi di ricerca dell’INFN sono invitati a dare contributo allo sviluppo della rete GARR: - in termini di requirements (sia a livello nazionale che internazionale) - in termini di collaborazione a progetti di R&D. E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 79 La QoS per l’utente, arduo... E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 80