La rete per l’INFN: oggi e domani per LHC
[email protected]
Riunione sul Calcolo INFN
CSN1 Perugia, 11-12 Novembre 2002
“il GARR” e “la Rete GARR”
• GARR e’ il nome dell’associazione tra Universita’ ed enti
di ricerca governativi promossa da CRUI, CNR, ENEA e
INFN con la ‘benedizione’ del MIUR.
• GARR e’ anche il nome assegnato alla Rete informatica
dell’ Universita’ e della Ricerca Scientifica italiana.
• La Rete GARR interconnette tutte le Universita’ (Statali e
non) e tutte le sedi degli enti di ricerca scientifica (CNR,
ENEA, INFN, Osservatori, etc.), nonche’ istituzioni
culturali o di ricerca a carattere accademico, scientifico e
tecnologico per un totale di circa 300 siti.
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
2
La Storia della Rete GARR
• Armonizzazione e sinergia tra Universita’ e Enti di Ricerca
• 1973-1990: reti indipendenti di CNR, ENEA,INFN e
Universita’.
• 1990-1994: rete GARR(-1), prima rete unitaria di Universita’ e
Ricerca
• 1994-1998: rete GARR-2, evoluzione di GARR-1
• 1998-2002: rete GARR-B (Broadband)
• 2003-2006: rete GARR-G (Giganet)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
3
La Storia della Rete GARR (1/5)
• 1973-1990: reti indipendenti di CNR, ENEA,INFN e
Universita’ (consorzi CILEA,CINECA,CSATA, etc.)
– Banda passante di accesso e trasporto tra 9.6 e 64Kbps (ma
inizialmente anche dial up a 300-2400 Bit/sec)
– collegamenti internazionali:
- CNR(Pisa)-USA a 64Kbit/sec (SatNet, Maggio ’86)
- INFN-CNAF(Bologna)-CERN(Ginevra) a 2Mbit/sec (Luglio ’89)
- Accessi diretti e indiretti a EBONE e EARN
– Partecipazione a Iniziativa Europea COSINE (2.o PQ europeo)
– Protocolli ‘proprietari’, Bitnet, Decnet, TCP/IP e X25
– Applicazioni di remote login, mail, file transfer/access
– ‘gateway’ per l’interconnessione tra le reti
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
4
La Storia della Rete GARR (2/5)
• 1990-1994: rete GARR, prima rete unitaria di Universita’ e Ricerca
• infrastruttura su 7 PoP interconnessi a 2 Mbit/sec (AS137)
• Milano-CILEA, Bologna-CINECA, Bologna-CNAF, Pisa-CNUCE,
Frascati-ENEA, Roma-INFN, Bari-CSATA
– collegamenti internazionali da INFN-CNAF (Bologna):
• CERN-Ginevra (2Mbit/sec dal 27 Luglio 1989)
• ESNet-Princeton (64Kbit/sec)
• Reti Europee COSINE (64Kbps su X25) e Europanet (2Mbps su IP)
–
–
–
–
–
–
–
–
accessi sedi universitarie e enti di ricerca fino a 2Mbit/sec
Protocollo TCP-IP e compatibilita’ Decnet e Bitnet
Partecipazione ai progetti europei del 3.o Programma Quadro
GARR fondatore e membro di Associazioni RARE, RIPE e ISOC.
GARR membro di EARN
cofinanziamento MURST di 5GL (CRCS-MURST)
Gestione amm.va Progetto: CILEA.
Gestione GARR-NOC: CINECA
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
5
La Storia della Rete GARR (3/5)
• 1994-1998: rete GARR-2, evoluzione di GARR-1
– infrastruttura basata su 15 PoP (in sedi di universita’, di consorzi o di
enti di ricerca) interconnessi con circuiti di capacita’ compresa tra
2Mbps e 34Mbit/sec (15 AS) e capacita’ aggregata del backbone da
30Mbit/sec iniziali a 200Mbit/sec a finali
– collegamenti internazionali (AS137):
• ESNet-(USA) a 1.5 Mbit/sec (fino a Marzo 2000)
• EuropaNet e CERN a 2Mbit/sec (fino a meta’ ’97)
• TEN-34 (ATM-24Mbit/sec con Ginevra e ATM-20Mbit/sec con
Francoforte) a 34Mbit/sec (dalla meta’ del ’97)
–
–
–
–
protocolli TCP-IP e compatibilita’ con Decnet; gw con Bitnet
accessi a velocita’ tra 64Kbit/sec e 34Mbit/sec in CDN,F/R e ATM
Partecipazione a Progetti R&D su ATM nel 4.o PQ europeo
GARR fondatore e membro dell’associazione TERENA (fusione di
RARE e di EARN) e della Societa’ DANTE (1995)
– rete autofinanziata da CNR, ENEA, INFN, Universita’ e Consorzi
– Gestione amm.va Progetto coordinata da OTS-GARR
– Gestione GARR-NOC: INFN-CNAF
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
6
La Storia della Rete GARR (4/5)
• 1998-2002: rete GARR-B (Broadband)
– Convenzione Quadro MURST-INFN per realizzazione e gestione
‘Progetto GARR-B’ (promotori: CRUI, CNR, ENEA, INFN)
– autofinanziamento per sedi in aree ‘fuori obiettivo’
– cofinanziamento MURST (ex-488) per le sedi in ‘aree di obiettivo’
– Rete Nazionale (progetto iniziale)
•
•
•
•
16 punti di presenza (PoP) per l’accesso delle sedi degli enti
backbone su 4 nodi di trasporto, (capacita’ aggregata di ~2.5Gbps)
ATM (VC e VPN) e IPv4
circa 200 circuiti di accesso ai PoP in F/R o CDN fino a 155Mbit/sec
(per un aggregato di ~1.8Gbit/sec) (al Marzo 2002)
• commodity nazionale a Roma (NAMEX) e Milano (MIX) [350Mbps]
– Collegamenti con le Reti della Ricerca internazionali
• TEN-34 (fino a Febbraio ‘99) a 34Mbit/sec
• TEN-155 (Feb.99-Nov.2001) a 200Mbit/sec
• GEANT (dal Dicembre 2001) a 2.5Gbit/sec
– Global Internet (da 20Mbit/sec [Giu.’97] a 2.5Gbit/sec [Mar.’02])
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
7
La Rete del Progetto GARR-B Fase2 (1999)
•
•
•
•
•
•
4 nodi di Backbone su dorsale
ridondata a 155M
16 PoP di accesso collegati a 34M155M con il Backbone
Capacita’ Aggregata del Backbone:
circa 2.5Gbps (al Marzo 2002)
Siti GARR connessi ai PoP con
velocita’ tra 2M e 155Mbps
Peering di commodity e di
ricerca internazionale a
155 Mbps
vedi: C.Vistoli, “Progetto tecnico
GARR-B”, CRCS-97/2
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
8
Gestione Progetto GARR-B (1998-2002)
MIUR
Convenzione Quadro
INFN
(DURST)
Nomina
Nomina
CRCS
(MIUR)
OTS-GARR
(MIUR)
Direzione Progetto
GARR-B
(INFN-GARR)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
9
Gestione Progetto GARR-B
•
•
Alla Direzione INFN-GARR sono demandate la realizzazione e la gestione del
Progetto GARR-B. La Direzione INFN-GARR, secondo quanto previsto dal Progetto
GARR-B e in accordo con le decisioni discusse in GARR-OTS ed approvate dalla
CRCS, cura:
– la pianificazione, l’evoluzione, il coordinamento tecnico e il funzionamento della
rete (gruppo GARR-TEC, [email protected]) in accordo con gli APM (Access Port
Manager) dei siti connessi alla rete
– il coordinamento della sperimentazione di nuove tecnologie della rete GARR e la
partecipazione nei comitati e nei progetti internazionali
– la gestione amministrativa e scientifica ([email protected])
Servizi di network del GARR sono:
• GARR-NOC
(call centre, [email protected])
• GARR-LIR
(assegnazione indirizzi e reti IP, [email protected])
• GARR-NIC
(domini di II livello SOLO per GARR, [email protected])
• GARR-CERT
(CSIRT, security, [email protected]) [INFN- Firenze]
• GARR-MCAST
(multicast, [email protected])
• Web-Cache, FTP-Mirror ([email protected],[email protected]) [CILEA]
• Usenet News
([email protected]) [SerRA, Universita’ di Pisa]
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
10
APA, APM e AUP del GARR
• Le AUP (Acceptable Use Policies) sono le norme di comportamento per
gli utenti della rete GARR (http://www.garr.it/docs/garr-b-aup.shtml)
– Sono armonizzate con quelle delle Reti della Ricerca dei paesi europei
– Tra l’altro, vietano espressamente il transito di traffico commerciale sulla Rete.
• L’APA (Access Port Administrator) di una sede GARR e’ il
responsabile “amministrativo” dell’accesso alla Rete.
– E’ il delegato del Rettore dell’Universita’ o del Direttore del Laboratorio di
Ricerca per gli aspetti amministrativi e strategici
– Fa riferimento alle AUP e le fa rispettare
– Interagisce con la Direzione GARR-B per questioni amministrative
– Interagisce con la sua Comunita’ di Riferimento (CRUI, CNR, etc.)
• L’APM (Access Port Manager) e’ il responsabile “tecnico” dell’accesso
di una sede GARR alla Rete.
– E’ nominato dall’APA e le sue prerogative sono descritte in
http://www.garr.it/docs/garr-apm-00.shtml
– Interagisce con i gruppi di Network Services (NOC, CERT, etc. ) del GARR
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
11
Lo stato dell’arte
del Progetto di Rete GARR-B
(Fase 4, Novembre 2002)
Infrastruttura di Rete Nazionale
(GARR-B Fase4, Novembre 2002)
•
•
•
•
•
7 Nodi di Backbone : MI-G, BO-G, RM-G, MI, BO, RM, NA
3 Circuiti di Backbone a 155Mbps: RM-NA, NA-MI, MI-BO
3 Circuiti di Backbone a 2.5Gbps: triangolo MI-G,BO-G,RM-G
5 Circuiti Inter B-B : MI-G a 2.5G, BO-G a 2*155M, RM-G a 2*155M
Capacita’ Aggregata del Backbone: circa 11Gbps
• 22 PoP: 2*MI, TO(155M), GE(2*34M), PD(155M), TS(2*34M),
2*BO, FI (155M), PI(155M), PD (155M)
2*RM, Frascati (155M), CA(2*34M), AQ (2*34M), PG(34M),
NA, PA(34M), CT(2*34M), BA(2*34M) , CS(34M)
• 30 Router e 17 Switch ATM di Backbone
• Accessi Utente: circa 300 siti con circuiti tra 2Mbps e 1Gbps
• Peering di Commodity: MIX@155M, NAMEX@200M
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
13
GARR-B Fase 4 (Novembre 2002)
• Backbone
– 3*155Mbps (RM-NA-MI-BO)
– 3*2.5Gbps (MI-BO-RM-MI)
– 1*2.5Gbps+4*155M inter BB
• 22 PoP di accesso dei siti GARR
• Accessi:
•
~300 siti @2M-1Gbps
Peering di Ricerca (su Milano-G)
- [email protected] (produzione)
- [email protected] (sperimentazione)
• Peering di Commodity Nazionali:
- Roma
(NAMEX@200Mbps)
- Milano (MIX@155Mbps)
• Peering di commodity internazionali:
- [email protected] (31/03/02)
- Roma-Telia@622Mbps (15/05/02) )
-
[backup su GEANT]
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
14
Evoluzione del Backbone di Rete
Nazionale
•
•
•
•
1990-1994: rete GARR
1994-1998: rete GARR-2
1998-2002: rete GARR-B
2003-2006: rete GARR-G
12Mbit/sec
30-200Mbit/sec
2.5-10Gbit/sec
...
• Fattore di crescita backbone rete GARR: >50 in 4 anni
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
15
Connettivita’ Internazionale
• Peering Ricerca Europea (GEANT)
– [Chiusura accesso a 200Mbps a TEN155 il 30 novembre 2001]
– Accesso a 2.5Gbps per produzione (IPv4, IP-Premium, IP-LBE,
Multicast)
– Accesso a 2.5Gbps per sperimentazione (QoS,VC,VPN,etc.)
• Peering Ricerca Intercontinentale
– 3*2.5Gbit/sec tra GEANT e NordAmerica (Abilene,Esnet, Canarie, …)
– 155M tra GEANT e Giappone, 2Mbps con SudCorea, 155M con Russia
– Transito attraverso Abilene per tutte le altre reti della Ricerca mondiali.
• Peering Commodity Internazionale (Global Internet)
– [Chiusura circuito diretto MI-NY a 622 Mbps il Marzo 2002])
– Circuito Global Crossing da Milano (2.5Gbps ridondati dal 14/3/02)
– Circuito Telia da Roma (622Mbps dal 30/5/02).
• Peering 6Net
– Accesso a 2*155M (IPv6 nativo)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
16
Peering nazionali (Giugno 2002)
•
NAP Milano (MIX)
–
•
attraverso MIX:
–
–
•
Infostrada, Inet, etc.
94 peering con ISP privati
NAP Roma (NAMEX)
–
•
155Mbps ATM
200Mbps
attraverso NAMEX:
–
–
Interbusiness, Wind, etc.
89 peering con ISP privati
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
17
Evoluzione dei Peering
di Commodity internazionale
• Accesso al Global Internet da GARR-B
– Giugno 1997:
20Mbps Milano (TEN-34)
– Agosto 1999:
45Mbps Napoli - NY
– Giugno 2000:
155Mbps Napoli - NY
– Settembre 2000:
622Mbps Milano - NY
– Mar-Mag 2002:
2.5Gbps Milano (GX),
622Mbps Roma (Telia)
• Fattore di crescita peering GARR: >100 in 5 anni
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
18
Accessi a GARR-B Fase 4
(Novembre 2002)
Circa 300 siti di istituzioni accademiche e di ricerca
- 75 Universita’ (statali e non statali)
- 56 siti CNR
- 9 siti ENEA
- 37 siti INFN
- 7 siti ASI
- 12 siti INAF (Osservatori Astronomici)
- 2 siti INFM
- 8 siti INGV
- 12 Biblioteche (Centrali e Nazionali) e ICCU
- 41 siti di altre istituzioni di ricerca
- 3 Consorzi di Supercomputing (CILEA,CINECA,CASPUR)
sede MIUR di P.le Kennedy (a 34Mbit/sec)
sede MIUR di V.le Trastevere (a 8Mbit/sec)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
19
Capacita’ aggregata di Accesso [BGA]
di tutti i siti GARR(Giugno 2002)
BGA fuori obiettivo
BGA in obiettivo
BGA Totale
2,000,000
1,800,000
Total access
capacity
1,600,000
1,400,000
Kbps
1,200,000
1,000,000
Highly
developed areas
800,000
600,000
400,000
Less developed
areas
200,000
0
Oct-98 Apr-99
Oct-99 Apr-00
Oct-00 Apr-01
Oct-01 Apr-02
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
20
Capacita’ aggregata di accesso (BGA)
delle sedi INFN
800,000
700,000
600,000
Kbps
500,000
400,000
300,000
200,000
100,000
0
Oct-98 Apr-99 Oct-99 Apr-00 Oct-00 Apr-01 Oct-01 Apr-02 Oct-02
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
21
Accessi Sedi INFN alla rete GARR (1/3)
Circuito
Attuale
BGA
Attuale
Data
Attivazione
Circuito
Previsto
BGA
Prevista
Data
Attivazione
Prevista
Note
U-BA 34M
12288
01/09/2000
34M-ATM
16384
17/12/2001
LS1010
INFN - Cagliari
2*2M
4096
26/10/1999
34M-ATM
8192
30/01/2002
-
INFN - Catania
2*2M
4096
14/10/1999
34M-ATM
8192
17/12/2001
Cavi persi??
INFN - Cosenza
2M-F/R
1024
26/11/1999
-
-
-
Trasloco a PoP-CS
INFN - L'Aquila
2*2M
4096
07/06/2001
-
-
-
-
INFN - Lecce
2M-F/R
1024
11/10/1999
U-LE 34M
8192
21/12/2001
-
INFN - LNGS
34M-ATM
16384
12/03/2001
-
-
-
-
2*2M
4096
08/11/1999
34M-ATM
8192
17/12/2001
router INFN
2M-F/R
1024
02/12/1999
-
-
-
CAR con U-ME?
INFN - Napoli
U-NA 34M
8192
14/12/1999
U-NA 155M
32768
30/11/2001
Problema Uni-NA?
INFN - Pisa - S.Piero
34M-ATM
30720
30/11/2001
-
-
-
Trasloco?
INFN - Pisa - Virgo
3*2M
6124
28/11/2001
6*2M
12288
17/12/2001
34M-ATM giu. 2002
INFN - GC-Salerno
2M-F/R
1024
03/11/1999
-
-
-
CAR con U-SA?
34M-ATM
8192
11/09/2000
34M-ATM
16384
19/12/2001
CAR?
SEDE
Aree in obiettivo
INFN - Bari
INFN - LNS
INFN - GC-Messina
INFN - Trieste
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
22
Accessi Sedi INFN alla rete GARR (2/3)
Circuito
Attuale
BGA
Attuale
Data
Attivazione
Circuito
Previsto
BGA
Prevista
Data
Attivazione
Prevista
Note
INFN - AC Frascati
LNF 155M
via LNF
27/01/2000
-
-
-
-
INFN - Bologna
CNAF 34M
12288
01/09/2000
34M-ATM
30720
12/12/2001
17/12?
I-BO 34M
12288
23/11/2000
155M-ATM
98304
11/12/2001
14/12?
2*2M
4096
01/10/2001
-
-
-
-
INFN - Firenze-Arcetri
2M
2048
28/08/2000
-
-
-
-
INFN - Firenze-Sesto
2M
2048
28/08/2000
34M-ATM
8192
31/01/2002
-
2*2M
4096
07/10/1999
34M-ATM
8192
11/12/2001
Cavi persi?
INFN - LNF
155M-ATM
16384
27/01/2000
-
-
-
Fibra locale
INFN - LNL
34M-ATM
30720
10/12/2001
-
-
-
-
INFN - Milano
U-MI 155M
28672
10/07/2001
-
-
-
-
INFN - Milano - Bicocca
34M-ATM
16384
11/09/2000
-
-
-
-
INFN - Padova
34M-ATM
28672
12/03/2001
34M-ATM
30720
19/12/2001
-
2M-F/R
1024
24/11/1999
-
-
-
-
2*2M
4096
05/04/2001
34M-ATM
8192
11/12/2001
Trasloco switch
SEDE
Aree in obiettivo
INFN - CNAF Bologna
INFN - Ferrara
INFN - Genova
INFN - GC-Parma
INFN - Pavia
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
23
Accessi Sedi INFN alla rete GARR (3/3)
Circuito
Attuale
BGA
Attuale
Data
Attivazione
Circuito
Previsto
BGA
Prevista
Data
Attivazione
Prevista
Note
2M-F/R
1024
15/11/1999
155M-ATM
12288
10/12/2001
Guasto sw. RM
INFN - Presidenza
I-RM1 155M
via Roma1
03/11/1999
-
-
-
-
INFN - Roma1
2*155M-ATM
32768
14/09/2001
-
-
-
-
INFN - Roma2
2*2M
4096
03/12/2001
-
-
-
-
INFN - Roma3
2M
2048
06/10/1999
-
-
-
-
I-RM1 155M
via Roma1
03/11/1999
-
-
-
-
34M-ATM
12288
31/08/2000
34M-ATM
30720
17/12/2001
-
INFN - GC-Trento
2M-F/R
1024
11/11/1999
-
-
-
CAR con U-TN?
INFN - GC-Udine
2M-F/R
1024
11/11/1999
-
-
-
CAR con U-UD?
SEDE
Aree in obiettivo
INFN - Perugia
INFN - GC-Sanita'
INFN - Torino
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
24
Weathermap di GARR-B
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
25
Andamento delle Tariffe
(ascissa in Mbit/sec, ordinata in MLit/anno)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
26
La partecipazione del GARR ai Progetti di
Ricerca e Sviluppo Internazionali
Partecipazioni Internazionali
–TERENA (TF-NGN, Serenate, CSIRT, …)
–IETF (Messaging, IPv6, Optical,…)
–RIPE (Registry, Routing, IPv6, DNS,…)
–INTERNET2 (Multicast, videoconferenza, …)
–Collaborazioni trasversali con altri Progetti Europei
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
28
Partecipazione GARR ai Programmi
(in corso) della Commissione Europea
Inizio
Durata
Costo GARR
Contributo
CE
CAESAR Fase 1 e 2
(ALIS o @LIS)
01/04/2002
4+18
mesi
-
80%
GEANT rete europea
della Ricerca (IST-RN1)
01/11/2000
48 mesi
13.2 ML €
48%
6NET (IPv6 Backbone)
01/01/2002
24 mesi
591.347 €
50%
EUMEDCONNECT
Fase 1 e 2 (EUMEDIS)
01/01/2002
4+
20(47)
mesi
-
80%
eCSIRT (security)
01/04/2002
15
53.200 €
55%
Nome Progetto
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
29
Progetto Europeo GEANT
•
•
•
•
GEANT e’ un Progetto approvato nell’ambito del 5.PQ della Unione
Europea per l’interconnessione delle Reti della Ricerca Europee e tra
queste e le reti della ricerca:
-del Nordamerica
-del Sudamerica
-del bacino del Mediterraneo
-dei Paesi Asiatici sul Pacifico
-in futuro, forse, dei Paesi sull’Oceano Indiano e dell’Africa
Questo Progetto, successore di TEN-34 e TEN-155 (Trans European
Network) del 4.o PQ e di EuropaNet del 3.o PQ, ha una durata di 48
mesi (2000-2004), un costo stimato di circa 170Meuro e un
cofinanziamento europeo di 80Meuro.
Al Progetto GEANT partecipano 32 reti della ricerca europee, tra cui
il GARR per l’Italia
Lo sviluppo del Progetto e’ regolato dal Consorzio (virtuale) delle
Reti della Ricerca Europee
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
30
EUMEDIS-EUMedConnect
•
1.
2.
EUMEDIS e’ un Programma della Unione Europea per lo sviluppo
della Societa’ dell’Informazione a beneficio di 12 paesi del
Mediterraneo. Il Programma prevede la cooperazione tra i paesi
dell’unione europea e i paesi del mediterraneo su diversi temi. Esso e’
suddiviso in:
-Strand 1: 35 Meuro per applicazioni (16 Progetti approvati)
-Strand 2: 10 Meuro per infrastruttura di rete (fino a Giugno 2006)
Per lo Strand 2 e’ stato accettato e approvato un solo progetto,
cioe’ EUMEDCONNECT, per la Interconnessione tra GEANT e le
Reti della Ricerca di:
-Marocco, Algeria, Tunisia, Egitto, Palestina, Giordania,
Siria, Libano, Turchia (cofinanziati da EUMEDIS)
-Malta, Cipro, Israele (cofinanziati dal 5.o e 6.o PQ-IST)
Al Progetto EUMEDCONNECT partecipano anche le reti della
ricerca di Spagna, Francia, Italia (GARR) e Grecia (coordinatore
DANTE)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
31
ALIS-CAESAR
•
ALIS (o @LIS) e’ un Programma della Unione Europea per lo
sviluppo della Societa’ dell’Informazione a beneficio di tutti i paesi
dell’America Latina. Il Programma prevede la cooperazione tra i
paesi dell’unione europea e i paesi del Centro e Sudamerica su diversi
temi.
1.
L’Unione Europea ha affidato al Consorzio delle Reti della Ricerca
Europee il progetto, denominato CAESAR, per la Interconnessione
tra la Rete della Ricerca Europea GEANT e le Reti della Ricerca di
tutti i paesi dell’America Latina
•
Al Progetto CAESAR partecipano, in rappresentanza delle Reti della
Ricerca Europee, le organizzazioni per le reti della ricerca di Spagna,
Francia, Italia (GARR) e Portogallo (coordinatore DANTE)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
32
Progetto Europeo 6NET
•
6NET e’ un Progetto approvato nell’ambito del 5.PQ-IST della
Commissione Europea (durata 24 mesi da Gen.2002 a Dic.2003)
•
Ha per scopo il test a livello internazionale di un’infrastruttura nativa
di rete basata su protocollo IPv6 e di applicazioni native IPv6.
•
Il Progetto 6NET, cui partecipano reti della ricerca europee, tra cui il
GARR, e’ in stretta collaborazione con il Progetto analogo
EURO6IX, cui partecipano principalmente operatori di tlc.
•
•
Partecipanti italiani (GARR): CNR, INFN, 10 Universita’ e CASPUR
Contatto per il GARR: [email protected]
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
33
Network
The
Provided by 6NET partners
Circuit dedicated – initially 155Mbit/s
Dedicated circuit added for redundancy (optional)
Asia-Pacific
Tunneled solution for cost reasons
SE
UK
NL
DE
North America
FR
CH
IT
AT
GR
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
34
Network in Italy
The
POLITECNICO
DI TORINO
POLITECNICO
DI MILANO (s.j.)
PoP
TORINO
6NET
BACKBONE
UNIVERSITA’
DI MILANO
MILANO
GARR 6NET-GW
CNR / IAT
PoP
PISA
UNIVERSITA’
DI PISA
UNIVERSITA’
DI FERRARA
PoP
BOLOGNA
PoP
ROMA
INFN/CNAF
UNIVERSITA’
DI FIRENZE
GARR
UNIVERSITA’
DI ROMA3
CASPUR
UNIVERSITA’
DI NAPOLI
UNIVERSITA’
DI BOLOGNA
UNIVERSITA’
DI BARI
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
35
eCSIRT:Sicurezza della Rete
• Sistemi di calcolo sicuri e protetti (esigenza primaria per le griglie
computazionali)
• CERT e CSIRT nelle reti della Ricerca per la gestione di interventi
immediati legati alla sicurezza della rete
• Protezione proattiva da violazione dei sistemi, in coordinamento con gli
APM nazionali e internazionali delle Reti
• Certification Authority:
– coordinamento internazionale certificati X.509
– Autenticazione, Autorizzazione, Accounting
• Partecipanti: DE, IT, FR, UK, DK, NO, CH, PL, SI, ES, NL
• Progetto Europeo, 24 mesi (Aprile 2002 - Marzo 2004)
• Contatto per il GARR: [email protected]
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
36
SErvice QUality over
Interconnected Domains
(SEQUIN)
• Studio, Progettazione e Realizzazione di QoS a livello IP in GEANT
e nelle Reti della Ricerca Europee
• Coordinamento con Task Force TF-TANT e TF-NGN
• Tra l’altro: definizione Servizio Premium IP end to end su scala
europea [gia’ reso operativo su GEANT]
• Progetto Europeo, 18 mesi (Nov. 2000 - Apr. 2002) [concluso]
• Partecipanti: Switch, DFN, Renater, GARR, UKERNA, Pol34, Grnet
• Contatto per il GARR: [email protected]
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
37
Il GARR e le Reti della Ricerca internazionali
La rete della ricerca Europea TEN-155
(1998-2001)
•
•
•
•
•
•
Progetto e Rete TEN-155 (evoluzione
della rete TEN-34)
Cofinanziamento CE (4th FP) per 80M€
su un costo di ~170M€
Durata 36 mesi (1/12/98 – 30/11/01)
Partecipanti: 20 NREN europee
Rete operativa dall’1 Dic. 1998
Peculiarita’ di TEN-155:
–
–
–
–
•
Backbone a 155-622Mbit/sec
Accesso iniziale fino a 155M Gbit/sec
Peering con tutte le reti della ricerca
Supporto VC, VPN
Accesso GARR-B
– 200Mbit/sec su 2x155Mbps ATM:
– 155Mbit/sec produzione
– 45Mbit/sec sperimentazione
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
39
La Rete della Ricerca Europea GÉANT
(2001-2004)
•
•
•
•
•
•
Progetto e Rete GÉANT (evoluzione della
rete TEN-155)
Cofinanziamento CE (5th FP-IST-RN1) per
80M€ su un costo di ~170M€
Durata 48 mesi (1/12/00 – 30/11/04)
Partecipanti: 32 NREN europee
Rete operativa dall’1 Dic. 2001
Peculiarita’ di GÉANT:
–
–
–
–
–
•
Backbone a 10Gbit/sec
Accesso iniziale fino a 2.5 Gbit/sec
Uso di circuiti su lambda
Peering con tutte le reti della ricerca
Supporto per QoS, VPN, MCAST 2001 2001
Accesso GARR a 2.5Gbit/sec per produzione
e 2.5Gbit/sec per sperimentazione
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
40
L’evoluzione delle Reti della Ricerca Europee
•
Pan-European Research Networks:
•
Caratteristiche
•
•
•
•
•
GÉANT
2001-2004 32 countries 2.5-10 Gbps Backbone
TEN-155 1998-2001 19 countries 155-622 Mbps Backbone
TEN-34
1997-1998 18 countries
34 Mbps Backbone
EuropaNET 1993-1997 18 countries
2 Mbps Backbone
COSINE
1986-1993 15 countries
64 Kbps Backbone
•
TEN-34 network emerged from the TEN-34 project in 1997. The accompanying Advanced ATM Testing programme
was carried out by Task Force TEN (TF-TEN).
The QUANTUM project produced the TEN-155 network in 1998; its accompanying testing programme is called
QUANTUM Testing Programme (QTP), carried out by Task Force TANT (TF-TANT, Testing of Advanced
Networking Technologies).
In the case of GÉANT, the project and network will carry the same name. The Managed Bandwidth Service and the
testing programme will be continued as part of GÉANT, the latter by TF-NGN (Task Force New Generation
Networks) and by other projects like SEQUIN.
•
•
Accesso GARR
IPv4 [v6]
IP, ATM
IP, ATM
IP, CDN
IP, X25
2.5[+2.5]Gbps
200Mbps
34Mbps
2Mbps
64Kbps
• Fattore di crescita peering GARR: >100 in 5 anni
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
41
La rete a supporto delle Computing Grid
• Problemi particolarmente complessi oggi richiedono sofisticate
infrastrutture di calcolo (software e hardware)
• Ad esempio: per i futuri esperimenti di Fisica delle Alte Energie la
potenza di calcolo necessaria non sara’ piu’ “confinabile” in un
singolo sito
– potenza di calcolo (K-SI95 7.500  200.000 PIII 800MHz !!! )
– PetaByte di dati
• I modelli di calcolo distribuito oggi esistenti non sono sufficenti a
risolvere il problema:
– clusters  fabrics
– produzioni/analisi locali  produzioni/analisi distribuite
– collaborazioni internazionali sempre piu’ grandi
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
Grid
42
Che cos’e’ la “Grid Technology”?
•
L’obiettivo principale dei progetti di Grid e’ lo sviluppo di un insieme coerente di
risorse di calcolo (“Grid”), distribuite su scala geografica.
•
La Grid dovra’ garantire la gestione di data-sets di differenti “Virtual Organizations”
(fino alla scala del “Peta-Byte”) utilizzando computing power e storage distribuiti.
•
Una Griglia Computazionale dovra’ fornire una interfaccia uniforme ai suoi utilizzatori
(ed alle sue risorse), distribuendo un servizio affidabile e accessibile da “qualsiasi
luogo”
• Paradigma delle Grid:
– analogia con le griglie-elettriche (si inserisce un “dispositivo” nella presa
nel muro e si opera senza preoccuparsi delle centrali elettriche di
produzione, della rete di distribuzione, del trasporto su cavi ad alta
tensione, etc.);
– si usa qualsiasi risorsa di calcolo e di storage disponibile sulla rete,
similmente a quanto si fa col WWW.
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
43
LHC Data Grid Hierarchy
(by H.Newman at HEP-CCC 18-nov-2002)
CERN/Outside Resource Ratio ~1:2
Tier0/( Tier1)/( Tier2)
~1:1:1
~PByte/sec
~100-400
MBytes/sec
Online System
Experiment
Tier 0 +1
Tier1
~2.5 Gbits/sec
IN2P3 Center
INFN Center
RAL Center
~2.5 Gbps
CERN 700k SI95
~1 PB Disk;
Tape Robot
Tier2
FNAL: 200k
SI95; 600 TB
2.5 Gbps
Tier2 Center
Tier2 Center
Tier2 Center
Tier2 Center
Tier2 Center
Tier3
InstituteInstitute Institute
~0.25TIPS
Physics data cache
Institute
100 - 1000
Mbits/sec
Tier 4
Tens of Petabytes by 2007-8.
An Exabyte within ~5 Years
later.
Workstations
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
44
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
45
GÉANT
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
46
ICFA SCIC: R&E Backbone and International Link
Progress (by H.Newman, 18-nov-2002) [1/2]
• GEANT Pan-European Backbone (http://www.dante.net/geant)
– Now interconnects >31 countries; many trunks 2.5 and 10 Gbps
OK
• UK: SuperJANET Core at 10 Gbps
– 2.5 Gbps NY-London, with 622 Mbps to ESnet and Abilene
(???)
• France (IN2P3): 2.5 Gbps RENATER backbone by mid-October
– Lyon-CERN Link being Upgraded to 1 Gbps Ethernet
OK
– Proposal for dark fiber to CERN by end 2003
!
• SuperSINET (Japan): 10 Gbps IP and 10 Gbps Wavelength Core
– Tokyo to NY Links: Now 2 X 2.5 Gbps; Need to get to Starlight
• CA*net4 (Canada): Interconnect customer-owned dark fiber
nets across Canada at 10 Gbps, started July 2002
– “Lambda-Grids” by ~2004-5
• GWIN (Germany): 2.5 Gbps Core; Connect to US at 2 X 2.5 Gbps; (???)
Support for SILK Project: Satellite links to FSU Republics
• Russia: Now 155 Mbps links to Moscow
– Moscow-Starlight Link to 155 Mbps (US NSF + Russia Support)
– Moscow-Stockholm Link; connect to GEANT at 155 Mbps
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
47
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
48
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
49
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
50
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
51
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
52
Canet*3 network map
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
53
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
54
Accesso GARR a GEANT
PoP
GEANT
Ginevra
[GEANT
Backbone]
10 Gbit/sec
2.5 Gbit/sec (fibra locale)
PoP GARR
Milano|
(produzione)
PoP
GEANT
Francoforte
10 Gbit/sec
PoP
GEANT
Milano
2.5 Gbit/sec (fibra locale)
PoP GARR
Milano|
GE (1Gbit/sec)
(sperimentazione)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
55
Accesso GARR a GEANT
PoP
GEANT
Ginevra
[GEANT
Backbone]
10 Gbit/sec
2.5 Gbit/sec (fibra locale)
PoP GARR
Milano|
(produzione)
PoP
GEANT
Francoforte
10 Gbit/sec
PoP
GEANT
Milano
2.5 Gbit/sec (fibra locale)
PoP GARR
Milano|
GE (1Gbit/sec)
(sperimentazione)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
56
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
57
Accesso CERN a GEANT
PoP
GEANT
Parigi
PoP
GEANT
Milano
[GEANT
Backbone]
10 Gbit/sec
2.5 Gbit/sec (fibra locale)
10 Gbit/sec
PoP
GEANT
Ginevra
PoP SWITCH
Ginevra
(produzione)
2.5 Gbit/sec (fibra locale)
CERN
(sperimentazione)
GE (1Gbit/sec)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
58
La evoluzione del GARR e della sua Rete
La Storia della Rete GARR (5/5)
• 1973-1990: reti indipendenti di CNR, ENEA,INFN e
Universita’.
• 1990-1994: rete GARR, prima rete unitaria di Universita’ e
Ricerca
• 1994-1998: rete GARR-2, evoluzione di GARR-1
• 1998-2002: rete GARR-B (Broadband)
• 2003-2006: rete GARR-G (Giganet)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
60
Evoluzione delle tecnologie trasmissive
•
•
•
•
•
•
•
•
•
Dal rame alla fibra, moltiplicazione delle fibre
Fibra multimodale e fibra monomodale (G65x)
Dai circuiti su fibra ai circuiti su ‘lambda’
Evoluzione tecnologica:
piu’ lambda per fibra + maggiore velocita’ per lambda ==>
==> maggiore capacita’ per fibra.
‘Illuminate’ solo il 5-6% delle fibre installate
IRU: Indefeasible Right of Use
Effetto sul ‘prezzo’ delle killer technology
Nuovo tipo di fibre ===> nuove tecnologie trasmissive
Coesistenza di piu’ operatori:
competizione e accordi di interoperabilita’
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
61
Flexible OADM
Band 1
B
S
M
Band 2
Band 3
Band 4
Ch 8
B
S
M
A/D 8
Ch 1
A/D 1
Local interface
Passive Low Cost OADM
Format and Bit Rate Transparent
8 Ch. OADM Modularity up to 32 Capacity
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
62
Evoluzione degli apparati per la trasmissione dati
•
•
•
•
•
•
•
•
•
•
Dal TDM all’HD-WDM.
L’integrazione dei servizi (dati, video, voce, etc.)
Le alte velocita’ (2.5,10,40,160Gbit/sec)
Nuovo tipo di fibre ===> nuove tecnologie trasmissive
Dai circuiti su fibra ai circuiti su ‘lambda’
Optical Networks (R&D):
Circuit switching, Optical switching, Optical Routing
Tecnologie apparati di Routing e interfacce di linea
Wireless e Protocolli (IPv4 ==> IPv6 ==> ?)
Turnover degli apparati sempre piu’ frequente
Coesistenza di piu’ costruttori:
competizione e standard per l’interoperabilita’
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
63
Evoluzione della Rete
SDH
ATM
IP GbE Escon ...
DWDM
Strato Client
IP, ATM, SDH, GbE,
...
Strato
Server
Ottico
Router IP
Switch ATM
Elaboratore con porte GbE, ...
Apparato SDH
OADM
OXC
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
64
Progetto GARR-G Pilot
• Scopo: studio di fattibilita’ di GARR-Giganet
– Indagine con operatori di telecomunicazioni (TI, Infostrada, Wind,
Interoute, e-Via, Albacom, Atlanet+Edisontel, Autostrade TLC)
– Indagine con Fornitori di Apparati (CISCO, Juniper, Riverstone, Marconi,
Alcatel, Foundry, Spirent, RIPE-NCC)
– Test di circuiti a 2.5G su Lambda con terminazione SDH con generatori
di traffico Smartbit e slow-monitor con Ripe-Box
– Test di Giga-switch-router CISCO, Juniper e Riverstone
– Test di Multiplexer SDH Alcatel 1660SM (Milano-Pisa-Roma)
• Risultato: Documento Tecnico-Implementativo Progetto GARR-Giganet
• Durata: 30 mesi (Lug.2000-Dic.2002)
• Partecipanti (GARR): CNR, INFN , Universita’ di Pisa, Universita’ di Milano
• Contatto per il GARR: [email protected]
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
65
GARR-G Pilot (stato all’ 1/3/2002)
2x2.5Gbps
PISA
GARR
(Centro SERRA)
Lan
Pisa
Alcatel
1660SM
MILANO
GARR
Lan Milano
Alcatel
1660SM
1x2.5Gbps
3x2.5Gbps
Direzione GARR-B
Lan Roma
SH+RM
HP Server
Giga
BACKBONE
L0
Alcatel
1660SM
ROMA
GARR
PC
L1
hub
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
66
GARR-G Pilot
• 3 circuiti Telecom Italia a 2.5G su lambda
– Tecnologia basata su Fibra G.653 e apparati WDM Marconi MSH73
– Test di apparati CISCO 12016, Juniper M20 e Riverstone 8600
– Generatori di traffico Spirent-Smartbit e slow-monitor con RIPE-Box
• 2 circuiti Interoute a 2.5G su Lambda tra Pisa e Milano
– Tecnologia basata su Fibra G.655 e apparati WDM Alcatel 1640WM
– Test di 2 circuiti a 2.5G su Lambda con terminazione SDH
• Infrastruttura Atlanet end-to-end WDM (16 ) tra Pisa e Roma
– Tecnologia basata su Fibra G.655 e apparati WDM Marconi PLA16
– Test di 1 circuito a 2.5G su Lambda con terminazione PLT16
– Possibile test a 10Gbps (SDH o Giga Ethernet)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
67
Obiettivi GARR con GARR-Giganet
(2003-2006)
* “Consortium” GARR per le Università e Enti Pubblici di
Ricerca, aperto anche a istituti di ricerca privati
* Investimenti in infrastrutture nelle regioni meridionali
* Connessione delle scuole
* Servizi avanzati: QoS (peer to peer), VPNs, IPv6 nativo e dual
stack con IPv4, Multicast, etc.
* Supporto per richieste di Larga Banda (Grids, Tele-medicine,
Distance Learning, etc.)
* Applicazioni Multimediali (Musei e Biblioteche digitali)
* Sviluppo di Reti Regionali, MAN e LAN estese
* Supporto per sperimentazione Progetti Lambda Switching
* Sicurezza della Rete (per quanto e’ possibile…)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
68
Routing Multicast in GARR-B
•
Il routing multicast all’interno
della rete GARR utilizza il
protocollo
PIM
(Protocol
Indipendent
Multicast)
per
l’inoltro del traffico, ed il
protocollo
MSDP
(Multicast
Source Discovery Protocol) per
la notifica della presenza di
sorgenti attive.
• I Rendez-Vous Point sono
definiti sui router di trasporto
di Bologna e Napoli
• La rete GARR mantiene
un collegamento
internazionale multicast
tramite Geant verso
GARR – AS137
tutte le reti della ricerca
Europea e
Nordamericana. Il
Napoli RT
collegamento multicast
e’ ottenuto mediante
peering MSDP e MBGP
(Multiprotocol Border
Gateway Protocol).
GEANT – AS20965
eMBGP
eMSDP
Milano RT
iMSDP
iMSDP
Bologna RT
iMSDP
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
69
Propagazione dei worm
Nimda
Numero di righe per giorno
in error_log del server
web di GARR-CERT
Code Red II
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
70
Struttura della Rete GARR-G
(2003-2006)
• Infrastruttura di trasporto di capacita’ aggregata di 100Gbit/sec
• Capacita’ trasmissiva dei singoli circuiti di backbone tra
155Mbit/sec e 10Gbit/sec (su SDH, lambda, dark fiber)
• OVERPROVISIONING
• Ridondanza link e apparati di switch-routing
• PoP: ~10 punti di presenza primari (Giga-PoP) (2.5-10Gbit/sec)
~20 punti di presenza secondari (Mega-PoP) (155M-2.5Gbit/sec)
• Peering internazionali (ricerca e commodity) adeguati
• Peering commodity anche a livello regionale
• I PoP GARR saranno ospitati in sedi “neutre” gestite da GARR
• Servizi di supporto (NOC, CERT, etc.)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
71
Accessi a GARR-G
– Circuiti di accesso tra 2Mbit/sec e 1Gbit/sec [2003-2004]
[accessi a piu’ alta velocita’ possibili subito per sperimentazione
e dopo il 2004 per produzione]
– Accessi da MAN e da extended LAN al backbone [distinti per sito]
– ATM non piu’ usato sul Backbone, ma supportato sugli accessi fino
a 155Mbit/sec
– Affidabilita’ e ridondanza accessi (backup)
– IP best effort e Servizi Avanzati (VPN,QoS,IPv6,Multicast,etc.)
• funzionalita’ peer-to-peer
– Tariffazione basata su BGA (Banda Garantita di Accesso), capacita’
del circuito e 95o percentile
– [semplificazione procedure convenzioni, contratti, rendicontazioni]
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
72
Gestione Progetto GARR-B
(1998-2002)
Convenzione Quadro
MURST
INFN
Nomina
Nomina
CRCS
(MURST)
OTS-GARR
(MURST)
DIR.GARR-B
(INFN)
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
73
“Consortium” GARR (dal 2003)
Consorzio privato di enti pubblici
CRCS-MIUR
Associazione
Consortium GARR
Indirizzo
Consiglio d’Amm.ne
Consortium (7 membri)
Comitato
Tecnico-Scientifico
Direzione
GARR
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
74
Sommario attivita’ GARR in corso
• Caratteristiche della rete GARR-Giganet definite in base
alle necessita’ dei suoi utilizzatori, sia in termini di banda
richiesta che di tipologia di servizi
• Rete GARR-G sulla linea di partenza:
– Gara per fornitura di connettivita’ in atto
– Housing PoP GARR presso i siti piu’ idonei
– Gara per fornitura apparati in preparazione
– Ridefinizione tariffe (BGA/BEA/percentile)
• “Consortium” GARR inizia ad operare dall’anno 2003
• Partecipazione ai Progetti Europei del 6.o PQ
• Workshop, Conferenze, Formazione
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
75
Evoluzione del Backbone di Rete
Nazionale
•
•
•
•
1990-1994: rete GARR
1994-1998: rete GARR-2
1998-2002: rete GARR-B
2003-2006: rete GARR-G
12Mbit/sec
30-200Mbit/sec
2.5-10Gbit/sec
...
• Fattore di crescita backbone rete GARR: >50 in 4 anni
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
76
Evoluzione dei Peering
di Commodity internazionale
• Accesso al Global Internet da GARR-B
– Giugno 1997:
20Mbps Milano (TEN-34)
– Agosto 1999:
45Mbps Napoli - NY
– Giugno 2000:
155Mbps Napoli - NY
– Settembre 2000:
622Mbps Milano - NY
– Mar-Mag 2002:
2.5Gbps Milano (GX),
622Mbps Roma (Telia)
• Fattore di crescita peering GARR: >100 in 5 anni
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
77
L’evoluzione delle Reti della Ricerca Europee
•
Pan-European Research Networks:
•
Caratteristiche
•
•
•
•
•
GÉANT
2001-2004 32 countries 2.5-10 Gbps Backbone
TEN-155 1998-2001 19 countries 155-622 Mbps Backbone
TEN-34
1997-1998 18 countries
34 Mbps Backbone
EuropaNET 1993-1997 18 countries
2 Mbps Backbone
COSINE
1986-1993 15 countries
64 Kbps Backbone
•
TEN-34 network emerged from the TEN-34 project in 1997. The accompanying Advanced ATM Testing programme
was carried out by Task Force TEN (TF-TEN).
The QUANTUM project produced the TEN-155 network in 1998; its accompanying testing programme is called
QUANTUM Testing Programme (QTP), carried out by Task Force TANT (TF-TANT, Testing of Advanced
Networking Technologies).
In the case of GÉANT, the project and network will carry the same name. The Managed Bandwidth Service and the
testing programme will be continued as part of GÉANT, the latter by TF-NGN (Task Force New Generation
Networks) and by other projects like SEQUIN.
•
•
Accesso GARR
IPv4 [v6]
IP, ATM
IP, ATM
IP, CDN
IP, X25
2.5[+2.5]Gbps
200Mbps
34Mbps
2Mbps
64Kbps
• Fattore di crescita peering GARR: >100 in 5 anni
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
78
conclusione
• La rete GARR, in collaborazione con le altre reti della
ricerca europee, e’ in grado di mantenere continuita’ di
funzionamento e garantire banda passante adeguata per
soddisfare qualsiasi richiesta di applicazione scientifica
• Tutti i gruppi di ricerca dell’INFN sono invitati a dare
contributo allo sviluppo della rete GARR:
- in termini di requirements (sia a livello nazionale che
internazionale)
- in termini di collaborazione a progetti di R&D.
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
79
La QoS per l’utente, arduo...
E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002
80
Scarica

valente_rete_infn - INFN