End to End Servizi di Rete end-to-end WS CCR – INFN Otranto - Giugno 06 [email protected] 7 Giugno 2006 CCR-INFN 1 End to End Agenda Circuiti e servizi end-to-end Circuiti fisici dedicati (ligthpath, sdh,…) VPN e VPLS: • esperienze maturate • analisi vantaggi e svantaggi Servizi end-to-end su IP • IP Premium Evoluzione del modello end-to-end - Bandwidth on Demand in ambiente multidominio monitoring multidominio configurazione e gestione 7 Giugno 2006 CCR-INFN 2 End to End Le reti della ricerca sono MultiLayer Reti della Ricerca connettono molteplicitá di infrastrutture LAN MAN Regional Network NREN Continental backbones (GÉANT) Domini multipli Responsabilitá multiple 7 Giugno 2006 CCR-INFN 3 End to End Servizi e protocolli end-to-end IP è un protocollo di livello 3 end-to-end “lightpaths” è un canale L1 or L2 end-to-end Servizi L2 si possono ottenere utilizzando MPLS-L2VPNs and VPLS Nelle collaborazioni internazionali è necessario attraversare più domini E’ necessario lo “stitching”di servizi sui confini dei domini Condivedere gli stessi requisiti (MTU, buffer e dimensioni delle code) E’ indispensabile la collaborazione di piú persone 7 Giugno 2006 CCR-INFN 4 End to End EndToEnd versus EdgeToEdge Edge to Edge GEANT NREN A NREN B Utente B Utente A BB BB BB End To End 7 Giugno 2006 CCR-INFN 5 End to End Agenda Circuiti e servizi end-to-end Circuiti fisici dedicati (ligthpath, sdh,…) 7 Giugno 2006 CCR-INFN 6 End to End LHCOPN – LHC Optical Private Network Esempio di utilizzo di Lighpaths interdominio end-to-end di livello 1 Utilizzo di CBF Connessione di TIER1 al TIER0 Interconnessione TIER1 (anche come backup) Non è stata considerata l’interconnessione tra TIER2, e tra TIER2 e TIER1: VPLS potrebbe essere una proposta ? 7 Giugno 2006 CCR-INFN 7 End to End Agenda Circuiti e servizi end-to-end VPN e VPLS: • esperienze maturate • analisi vantaggi e svantaggi 7 Giugno 2006 CCR-INFN 8 End to End Virtual Private Network Una Virtual Private Network (VPN) è una rete privata realizzata tra utenti che si connettono ad una infrastruttura comune IP/MPLS Tale tecnologia permette agli utenti di diversi siti dello stesso progetto o della stessa organizzazione di “vedersi” come se si trovassero sullo stesso dominio di broadcast. Condivisione di risorse (calcolo, storage…) a livello geografico 7 Giugno 2006 CCR-INFN 9 End to End Multiprotocol Label Switching (MPLS) Integra funzionalità di routing L3 e di switching L2 (protocollo circuit-oriented) Integra l’infrastruttura IP preesistente Ottimizza l’uso delle Reti IP attraverso l’implementazione di tecniche di Traffic Engineering Offre la possibilità di creare su una rete una molteplicitá di servizi Integra reti private e pubbliche Permette il provisioning dinamico di banda su circuiti ottici Simile ad ATM e Frame Relay - senza garanzia di banda creazione di Circuiti Virtuali possibilità di configurare CoS/QoS (non intrinseco) Separa il piano di inoltro dei dati dal piano di controllo 7 Giugno 2006 CCR-INFN 10 End to End Tecnologia MPLS Label (etichette) : utilizzate per effettuare la commutazione e l’inoltro del traffico attraverso la rete Label Switched Path (LSP) : circuito virtuale end to end Provider Edge (PE) : router del backbone sul quale si originano e/o terminano LSP Provider (P) : router di backbone sul quale transitano gli LSP Customer Edge (CE): router utente che si connette al dominio MPLS 7 Giugno 2006 CCR-INFN 11 End to End Cosa si puó fare con MPLS ? Traffic Engineering Permette la creazione di percorsi per il traffico dati indipendenti dalle tabelle di routing (motivo per il quale è nato MPLS) Reti Virtuali Private geografiche di livello 2 e 3 VPN L2 : connessione di livello 2 punto-punto VPN L3 : connessione di livello 3 molti a molti VPLS : connessione di livello 2 molti a molti 7 Giugno 2006 CCR-INFN 12 End to End di VPNL2 sulle Reti Europee Implementazione DataTAG KarBol Mupbed 7 Giugno 2006 CCR-INFN 13 End to End Caratteristiche delle VPN configurate Configurazione di LSP interdomain DataTAg LSP diretti KarBol e Mupbed LSP “stitched” su GEANT Interfaccia di accesso apparato utente GE Monitoring MRTG degli LSP effettuato sui Juniper con MIB dedicate RSVP per la riservazione del path LDP per la segnalazione del path Ambiente multi-piattaforma 7 Giugno 2006 CCR-INFN 14 End to End DataTAG CERN Geant GARR GARR-PE CERN CNAF-CE MPLS-L2VPN configurata nel 2003 tra INFN-CNAF Bologna and CERN Sperimentazione di utilizzo di una connessione di livello 2 nel contesto del WP4 del Progetto 2 Juniper agli end-node (CCC) 4 diversi domini di competenza coinvolti 7 Giugno 2006 CCR-INFN 15 End to End KarBol G-WiN FZK-CE Geant DFN-PE GARR GARR-PE CNAF-CE MPLS-L2VPN configurata nel 2004 tra INFN-CNAF Bologna and FZKKarlsruhe (Germania) Studio di un modello di connessione end-to-end tra siti TIER1 Juniper end-node al CNAF, Cisco end-node a FZK (AToM) 5 diversi domini di competenza coinvolti 7 Giugno 2006 CCR-INFN 16 End to End MupBed- Multi-Partner European Testbed for Research Networking ACREO Northern Europe test bed NORDUnet DTU PSNC RedIRIS GEANT FAU Telefonica I+D Western Europe test bed CSP PIONIER TI TILAB GARR DFN Southern Europe test bed T-Systems DT Central Europe test bed Full-mesh connettivitá di livello 2 tra 5 siti cinvolti Integrazione e validazione delle tecnologie ASON/GMPLS (Automatically Switched Optical Network/Generalised Multi Protocol Label Switching) Diversi manufacturer agli end-node molti domini di competenza coinvolti 7 Giugno 2006 CCR-INFN 17 End to End Architettura multi-strato in MUPBED Application Plane video conf content/ storage HQ video GRID Application-Network Interface Control Plane Overlay approach Packet Layer CP Circuit Layer CP GMPLS Peer-to-Peer Approach Mngmnt Plane Data Plane Packet layer Circuit layer IP/MPLS IP/MPLS Ethernet SDH Control Plane Mngmnt OTH Lambda Ethernet Data Plane Mngmnt Fibre MUPBED multi-service transport network 7 Giugno 2006 CCR-INFN 18 End to End VPLS: Virtual Private LAN Service Connettivitá molti a molti di livello 2 Importa le caratteristiche delle VPN di livello 2 e 3 Utilizza MP-BGP per lo scambio di route VPN tra i PE 7 Giugno 2006 CCR-INFN 19 End to End Modello di VPLS La Rete si comporta da “learning bridge” dei MAC address degli host connessi 7 Giugno 2006 CCR-INFN 20 End to End Vantaggi della soluzione VPLS Possibilitá di creare una infrastruttura geografica distribuita dedicata Separazione logica di comunitá di utenti afferenti alla stessa istanza Configurazione di politiche di sicurezza e gestione dedicate alla comunitá specifica Possibilitá di configurazione di QoS per comunitá e per istanza Configurazione di architettura gerarchica 7 Giugno 2006 CCR-INFN 21 End to End Svantaggi della tecnologia VPLS non è uno standard draft-ietf-l2vpn-vpls-ldp-01 usa LDP per la distribuzione di label (Cisco) draft-ietf-l2vpn-vpls-bgp-01) utilizza BGP per la segnalazione tra i PE e la distribuzione di label (Juniper) Scalabilitá in termini di numero massimo di MAC address memorizzabili nella tabella di istradamento (FIB) di un PE 7 Giugno 2006 CCR-INFN 22 End to End Setup VPLS a Pisa Utilizzo di un Juniper M7i con Service Tunnel PIC (Jlab) 7 Giugno 2006 CCR-INFN 23 End to End Caratteristiche VPLS a Pisa Partner : Università di Pisa, INFN, Juniper Networks Test effettuato in dominio di produzione Ambiente IP/MPLS giá esistente : configurazione semplificata Singolo dominio Monovendor : Juniper Monitoring SNMP con MIB VPLS No QoS applicata 7 Giugno 2006 CCR-INFN 24 End to End Applicazioni Pisa VPLS Separazione di comunitá di utenti Servizio di autenticazione centralizzato per comunitá 7 Giugno 2006 CCR-INFN 25 End to End Test di funzionalitá Verifica di visibilitá tra host Verifica di distribuzione di route VPN tra PE Misura numero massimo di MAC-address memorizzabili per istanza, per PE Verifica funzionalitá MAC aging-time Verifica funzionalitá filtri VPLS per istanza e per interfaccia (MAC multicast, broadcast, unicast) Verifica affidabilitá con funzionalitá Fast ReRoute Trasmissione VIDEO su VPLS 7 Giugno 2006 CCR-INFN 26 End to End Prossime fasi di test Estensione Multi-dominio Configurazione QoS Utilizzo di altre piattaforme (Cisco) - test interoperabilitá - sistemi di monitoring 7 Giugno 2006 CCR-INFN 27 End to End Possibile configurazione Servizio VPLS GARR InterProvider VPLS : provata in laboratorio Juniper funziona! VPLS Utente A VPLS Utente B CE CE PE 2 PE 1 VPLS GARR PE 3 CE Si puó implementare solo sui PoP GARR con Juniper M320 7 Giugno 2006 CCR-INFN 28 End to End Agenda Circuiti e servizi end-to-end Servizi end-to-end su IP • IP Premium 7 Giugno 2006 CCR-INFN 29 End to End Servizio end-to-end IP Premium Il servizio di rete PREMIUM su rete IP ha l’obiettivo di simulare un circuito le cui caratteristiche, per quanto possibile, si avvicinino ad un circuito CDN Proprietá del servizio PIP E’ un servizio di tipo end-to-end con caratteristiche che devono essere assicurate tra due endpoint IP (Network Sorgente e Network di Destinazione) E’ un servizio di rete privilegiato (Premium), lungo il path dalla Network Sorgente alla Network di Destinazione deve essere garantito che il packet loss sia nullo il jitter sia il minore possibile (rispetto ai requisti imposte delle applicazioni) assenza di reodering dei pacchetti 7 Giugno 2006 CCR-INFN 30 End to End Descrizione del servizio PIP L’implementazione puó essere effettuata sul router con meccanismi di strict priority queuing (il traffico pregiato deve essere infatti servito prima di altri traffici di rete con cui si trova a competere). Flow 1 Scheduler Real-Time 10% BW Flow 2 Flow 3 Classifier BE RT Port Best-Effort 90% BW Flow 4 Flow 5 Flow 6 Affinchè il traffico Premium non determini uno starving del traffico non premium e’ richiesto che la banda complessiva lungo l’intero path non sia superiore al 10% della banda dei link 7 Giugno 2006 CCR-INFN 31 End to End Descrizione del servizio PIP (cont.) Netw6 Router UserA Netw1 BWTot Netw2 Netw5 Su ogni link lungo il path deve essere rispettata la condizione: i (BWPREMIUM )i ≤ 0,1*BWTot Netw4 Netw3 = Sorgente PIP 7 Giugno 2006 Flussi IP Premium Netw1 CCR-INFN Netw5 Netw3 Netw6 32 End to End Descrizione del servizio PIP (cont.) CLASSIFICAZIONE E MARKING all’ingresso della rete GARR Il traffico proveniente da un IP o una network considerata Premium viene marcato nei router di accesso GARR con DSCP=46 (EF), il resto del traffico (Best Effort) e’ marcato con DSCP=0 POLICING nel backbone GARR per privilegiare il forwarding del traffico Premium rispetto al BestEffort Il servizio Premium è erogato in modalitá bidirezionale POLICING POLICING POLICING Classification e Marking Classification e Marking Sorgente PIP 7 Giugno 2006 Dominio GARR CCR-INFN 33 End to End Descrizione del servizio PIP (cont.) Il POLICING è tale da scartare il traffico premium eccedente la soglia fissata Il traffico Premium eccedente la soglia NON viene rimarcato come Best Effort, bensí scartato per evitare effetti di reodering dei pacchetti Il POLICING viene effettuato utilizzando tre code HW dei router: In una coda HW viene inserito il traffico BE (DSCP=0) In una coda HW viene inserito il traffico Premium (DSCP=46) In una coda HW viene inserito il traffico del piano di controllo (OSPF e BGP); i pacchetti di segnalazione generati dai router hanno infatti lo stesso DSCP: 48 (0x30) Campo TOS del pacchetto IP marcato come Premium: 1 0 1 1 1 DSCP=46 7 Giugno 2006 CCR-INFN 0 0 0 ECN 34 End to End Applicazioni del servizio PIP Tipiche applicazioni che beneficiano del servizio Premium: trasporto di traffico VOIP e di VideoConferenza tra due sedi Parametri tipici di un’applicazione VOIP (da edge router ad edge router): Banda per singolo canale con codifica ITU-T G.729ab: 25Kbps end-to-end delay <100ms Packet Loss < 1% Jitter < 15ms 7 Giugno 2006 CCR-INFN 35 End to End TOPOLOGIA DI TEST LAB-GARR LABHOST1 LABHOST2 VLAN 99 VLAN 10 8 1 9 VLAN 20 16 17 24 fe-0/1/2 fe-0/1/2 PIP2 PIP1 fe-0/1/3 fe-0/1/0 fe-0/1/0 ospf – area 0 IP1 M7_A Interfacce MNG Interfacce MNG 7 Giugno 2006 fe-0/1/3 IP3 M7_B iBGP-AS 137 CCR-INFN 36 End to End Misure di Jitter tra hosts: PIP1-PIP2 Vengono generati due flussi: Flusso di background di tipo Best Effort, generato con applicazione Iperf Flusso Premium, generato con applicazione Rude & Crude hostMNG Avvio di Iperf client Avvio di Iperf server Avvio di rude Avvio di crude PIP1 eth1 LABHOST1 7 Giugno 2006 M7_B M7_A Flusso di misura Saturazione link FE CCR-INFN PIP2 eth1 LABHOST2 37 End to End Esempio di misura: con Premium e senza Premium Sigma NOQoS=187s, Packet Loss=56 (su 500K pacchetti) Sigma QoS=107s, Packet Loss=0 (su 500K pacchetti) 7 Giugno 2006 CCR-INFN 38 End to End CONSIDERAZIONI SULLA MISURA La deviazione standard sul jitter risulta essere maggiore senza QoS In condizioni di saturazione del link FE tra i due router (simulazione del link di backbone) vengono scartati solo i pacchetti BestEffort e nessun pacchetto Premium 7 Giugno 2006 CCR-INFN 39 End to End Questioni aperte delle implementazioni presentate Multidominio Setup complesso Gestione Monitoring Interoperabilitá di soluzioni tecnologiche L2 puó essere una “backdoor” di sicurezza nella LAN Due possibili approcci per l’accesso alla WAN • Condivisione di un unico link di accesso • separazione degli accessi L2 ed L3 Si assume che l’utente sia “trusted” Condivisione di spazio di indirizzamento degli endnode (privato, pubblico) 7 Giugno 2006 CCR-INFN 40 End to End Agenda Evoluzione del modello end-to-end - Bandwidth on Demand in ambiente multidominio monitoring multidominio configurazione e gestione 7 Giugno 2006 CCR-INFN 41 End to End Monitoring dei circuiti end-to-end All’interno Progetto GN2, Settembre 2004 Agosto 2008) La Joint Research Activity 1 di GN2 si propone di realizzare un sistema di monitoring che possa essere utilizzato nelle implementazioni Multidominio JRA1 sta sviluppando una infrastruttura di monitoring : PerfSonar 7 Giugno 2006 CCR-INFN 42 End to End PerfSonar Infrastruttura dedicata al “network performance monitoring” volta al controllo e alla ottimizzazione delle “prestazioni” su circuiti multidominio end-to-end Contiene un insieme di servizi che permettono di misurare le “prestazioni” in un ambiente multidominio I servizi si “comportano” come un layer intermedio tra le misure di performance e le applicazioni di visualizzazione Il software utilizza dei protocolli ben precisi per effettuare le operazioni descritte 7 Giugno 2006 CCR-INFN 43 End to End Bandwidth on Demand Multidominio La Joint Research Activity 3 (JRA3) di GN2 si occupa di Bandwith on Demand multidominio “A BoD service provides an end-to-end connection with a guaranteed capacity possibly spanning different administrative domains using preferably connection-oriented technologies” 7 Giugno 2006 CCR-INFN 44 End to End Obiettivi di JRA3 Definire un “Control Plane” comune ai domini che hanno diverse infrastrutture (ottica, SDH, MPLS ecc.): potrebbe essere MPLS o GMPLS ? Realizzazione di un “Interdomain Manager” per determinare il percorso end-to-end 7 Giugno 2006 CCR-INFN 45 End to End IDM: funzionalitá complessive Punto di ingresso al sistema di BoD Riceve e processa le richieste degli utenti di riservazione di bandao degli IDM dei domini confinanti Seleziona la concatenazione di domini che devono essre coinvolti in ciascun path end-to-end al fine di esaudire la richiesta “Inter-domain path-finding” Si basa su informazioni relative alla topologia e al Traffic Engineering Fase di Pre-riservazione e configurazione tra tutti gli IDM del path end-to-end Interazione con il servizio AAI, per l’autenticazione e l’autorizzazione degli utenti che richiedono l’accesso al servizio di BoD Gestione di crediti per il controllo e l’allocazione delle risorse di banda Modulo per Accounting and logging Policy per l’allocazione delle risorse di banda e per la gestione del servizio 7 Giugno 2006 CCR-INFN 46 End to End Gestione di implementazioni Multidominio Il Progetto LHC utilizzerá il Servizio di ENOC (Servizio di Coordinamento tra reti) che si occupa di: considerare problematiche di rete per EGEE and LCG ricevere TTS dalle NRENs, li analizza e fornisce informazioni rilevanti al Global Grid User Service che interagisce con l’utente della griglia effettuare il monitoring dei circuiti end-to-end (lightpaths) e stabilire le azioni da intraprendere 7 Giugno 2006 CCR-INFN 47 End to End Gestione di implementazioni Multidominio (cont.) La Service Activity 3 del Progetto GN2 ha creato un gruppo di esperti europei che si occupa di problemi di “Performance” delle Reti e delle applicazioni PERT : Performance Enhancement Response TEAM 7 Giugno 2006 CCR-INFN 48 End to End Problematiche di Performance PERT ha creato un PERT “Knowledge BASE”: Twiky.KB- Area WEB di collaborazione nella quale vengono riportate documenti riguardanti problematiche di performance e “Case study “ specifici. Molti problemi di performance sono da attribuirsi al “tuning” degli apparati degli utenti! http://pace.geant2.net/cgi-bin/twiki/view/PERTKB/WebHome 7 Giugno 2006 CCR-INFN 49 End to End Fine Domande? 7 Giugno 2006 CCR-INFN 50