Linux sui sistemi dell’Università di Palermo Massimo Tartamella [[email protected]] Palermo – 22 e 23 novembre 2002 Indice Cronologia degli eventi rilevanti Infrastruttura della rete universitaria I Server di rete Il progetto GARR-B per l’Università di Palermo Firewall, IDS, … Open Mosix: cluster per il calcolo distribuito LVS (Linux Virtual Server): cluster per il bilanciamento dei servizi di rete Cronologia degli eventi rilevanti Approccio a Linux e progetto di una rete metropolitana e geografica finanziata dal MURST Febbraio 2000: “Sviluppo della rete nazionale della ricerca (rete GARR-B)”: potenziamento reti regionali (18 milioni di Euro) Formazione specialisti di rete (2 milioni di Euro) Dicembre 2000: migrazione dei servizi web, posta elettronica e autenticazione RADIUS per i 90 accessi analogici/ISDN Gennaio 2001: implementazione di un Log Server e MRTG server Giugno 2001: Server Linux distribuiti con funzioni di file server con SAMBA e proxy server con Squid Ottobre 2001: backup centralizzati con rsync, mirrordir, wget, … Febbraio 2002: implementazione di Firewall con Iptables Giugno 2002: implementazione di antivirus mail server Luglio 2002: sistemi IDS Agosto 2002: avvio formazione specialisti di rete (12 allievi + tutor) - Cluster MOSIX, LVS e programmazione SQL/PHP Novembre 2002: installazione del mainframe IBM Z800 con sistema operativo Z/VM e Linux Novembre/Dicembre 2002: installazioni ponti laser, nodi ATM, switch/router a 1000 Mbps, 25 server di rete biprocessore, firewall, ids e log server Infrastruttura della rete universitaria Infrastruttura di rete attuale Parco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia (Policlinico), Rettorato e via Archirafi 2 link a 1000 Mbps 5 link a 100 Mbps via ponti ottici (tecnologia laser) 15 link a 11 Mbps via radio frequenza a 2,4 GHz 25 Link a 100 Mbps Tecnologia di rete adottata Fast Ethernet (100 Mbps) Gigabit Ethernet (1Gbps) IEEE 802.11b, wireless ethernet (11 Mbps) Infrastruttura di rete a breve Parco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia (Policlinico), Rettorato e via Archirafi 25 Link a 1000 Mbps 5 link a 155 Mbps via ponti ottici 15 link a 11 Mbps via radio a 2,4 GHz Tecnologie di rete da adottare Gigabit Ethernet (1Gbps) ATM (155 Mbps) Fast Ethernet (100 Mbps) IEEE 802.11b, wireless Ethernet (11 Mbps) Nuovi apparati di rete N. 1 Cisco 7606 (router di frontiera): ATM e Gigabit Ethernet N. 1 Cisco Catalyst 6509 (switch router di campus): ATM e Gigabit Ethernet N.25 Cisco Catalyst 3550 (switch router di periferia): Gigabit e Fast Ethernet N.5 Alcatel OMNI-5WX-PLUS:ATM e Fast Ethernet Altre connessioni HDSL Wind: 11 link HDSL Telecom: 5 Link ADSL Telecom: 20 link CDN Telecom: 40 link Accessi analogici/ISDN: 90 ATM Telecom a 28 Mbps: accesso alla rete GARR-B Server di rete Server di rete attualmente gestiti dal Centro Universitario di Calcolo n. 3 server con CPU ALPHA Server Oracle per procedura Contabilità (Tru64) Server Oracle per procedura Stipendi (Tru64) Server Oracle per sistema Aleph (Tru64) n. 1 server SPARC Server SilverPlatter (Solaris) n. 29 server con CPU INTEL (Red Hat Linux) Servizi di web server, mail server, proxy, dns, dhcp server, nfs server, ftp server, log server, mrtg server, samba server, appleshare, firewall, IDS Server di rete in arrivo al Centro Universitario di Calcolo n. 20 server HP/COMPAQ ML530 2 GB DDR SDRAM 2 processori Intel Xeon MP 2.4 GHz 512Kb Cache 2 schede di rete Ethernet 10/100/1000Mbps 3 hd 18GB in RAID n. 5 server HP/COMPAQ DL580, unità da rack 2 GB DDR SDRAM 2 processori Intel Xeon MP 1.6GHz 1Mbyte Cache 2 schede di rete Ethernet 10/100/1000Mbps 3 hd 18GB in RAID n. 1 SAN (Storage Area Network) HP/COMPAQ MA8000 da rack 1 TB di spazio disco complessivo da utilizzare in RAID Supporto x Linux n. 1 Armadio rack HPCOMPAQ Rack 10000 da 42 HE con switch e monitor flat panel 15” IBM Z800 Configurazione dell’IBM Z800 z/Architecture: 64-bit a 1000 MHz 1 way Model A01 (CPU Tradizionale) 1 Added IFL (CPU dedicata a Linux) 8 GB di RAM 12 canali ESCON attivi 4 porte ethernet 10/100 Mbps Parallel Channel Attached Using 9034-001 Può gestire fino a 15 partizioni logiche (PRSM) E’ una soluzione basata sul sistema operativo zVM 420 GB effettivi in RAID 5 di spazio disco utilizzabili in SAN (ESS 2105) 2 Z800 Applications Architecture IBM Z800 System Hypersocket New Environment - IFL Traditional CPU zVM 4.3 Segreteria Studenti VSEOther zVM 4.3 Virtual LAN or IUCV Linux ESCON AFP Srv Linux Linux FTP/NFS Srv RSCS TCP/IP Stack SNA Srv AFP Printers Linux OSA ESCON SNA Ctrl IEEE 802.3 OSA TCP/IP Stack and Gateway OSA OSA TCP/IP TN3270 Srv SNA Printers TCP/IP Ext TCP/IP SNA Ntwrk SNA Terminals TCP/IP Intranet 3 Un tool per lo storage consolidation IBM Z800 System Hypersocket New Environment - IFL Traditional CPU zVM 4.3 Segreteria Studenti VSEOther zVM 4.3 Escon Virtual LAN or IUCV Linux (SOD) ESCON AFP Srv Linux Linux FTP/NFS Srv RSCS TCP/IP Stack SNA Srv AFP Printers Linux OSA ESCON SNA Ctrl IEEE 802.3 TCP/IP Stack and Gateway OSA OSA TCP/IP TN3270 Srv SNA Printers OSA TCP/IP Ext TCP/IP SNA Ntwrk TCP/IP Intranet SNA Terminals ESS IBM 2105 FiberChannel SCSI 4 Progetto GARR-B per l’Università di Palermo Schema delle connessioni via ponti ottici (in tecnologia laser) Dipartimento di Matematica Palazzo Marina Rettorato Dip.to di Fisica (Os.rio Ast.co) A.O.U.P.G. Radiologia Fibra ottica multimodale 62,5/125 C.U.C. (Ingegneria DIE) Centro Univeritario di Calcolo Rete Parco D’ORLEANS Gigabit! Collegamento con le sedi esterne HDSL Wind HDSL Telecom ADSL Telecom Firewall, IDS, … OpenMOSIX: cluster per il calcolo distribuito Cos’è OpenMOSIX ? Descrizione Openmosix è un sistema open source utilizzabile in ambito scientifico per la realizzazione di cluster che sfrutta il load-balancing in ambienti x86. E’ possibile con questo sistema, realizzare calcolatori virtuali con elevata potenza di calcolo, utilizzando risorse, CPU e RAM, di una rete di computer. URL http://www.mosix.org Introduzione a OpenMOSIX Modalità di avvio della Farm La farm è costituita da una serie di nodi linux basati tecnologia x86 connessi attraverso LAN a 100/1000Mbit Livello di Implementazione Linux kernel Architettura di OpenMOSIX network L’utente connesso e le applicazioni vedono l’intero cluster come un unico sistema locale migrazione dei processi Ogni processo d’utente,può migrare su ogni nodo disponibile in modo del tutto trasparente in qualunque istante load balancing Viene effettuato un controllo continuo in rete per ridurre al minimo le differenze di carico tra i nodi e migrare dinamicamente i processi tra i nodi con carico minore (sulla base delle variazioni del carico dei nodi, velocità di esecuzione dei processi, numero dei nodi in rete, ..) memory sharing Viene presa una decisione sul processo da migrare sulla base della memoria disponibile sugli altri nodi e viene evitato l’utilizzo della swap memory Kernel communication È sviluppato per ridurre il sovraccarico delle comunicazioni interne del kernel e utilizza un protocollo veloce e affidabile Controllo decentralizzato e Autonomia Ogni nodo e’ capace di operare indipendentemente dagli altri Una idea sull’utilizzo di OpenMOSIX Nodi Chiavi Ora inizio Ora fine In cluster Durata (h:m:s) 8 100 13:54:13 13:56:07 Yes 1:54 1 100 13:59:48 14:08:38 No 8:50 8 1000 14:12:54 14:30:19 Yes 17:25 1 1000 14:33:37 15:30:08 No 56:31 8 10000 16:06:44 18:57:15 Yes 2:50:31 1 10000 / / No / 16 1000 11:49:30 12:11:58 Yes 22:28 16 10000 12:19:47 16:15:10 Yes 3:55:23 I test sono stati effettuati generando contemporaneamente una serie di chiavi crittate su un nodo del Cluster Progetto per l’integrazione di OpenMOSIX nelle Aule Didattiche Progetto per Cluster Scientifico 20 Server 12 PC Aula Corsi Facoltà di Lettere 20 + 20 Macchine Facoltà di Economia e Commercio 50 Macchine Aula Tortorici 40 Macchine Aula F 76 Macchine: 100 n°28 PIV 256MB RAM1500Mhz n°48 IBM256MB RAM1000Mhz LVS: cluster per il bilanciamento dei servizi di rete LVS Linux Virtual Server Esigenze nell’ambito dei servizi di rete Gestione di servizi con carico elevato Continuità e alta affidabilità dei servizi offerti Scalabilità del sistema e manutenzione trasparente dei server LVS Linux Virtual Server Internet FTP IP1 IP2 MAIL WEB IP3 Architettura tradizionale Vantaggi Semplice implementazione dell’architettura di rete Configurazione standard dei servizi Svantaggi Minima adattabilità all’aumentare del carico Scalabilità solo a livello del singolo server Nessuna ridondanza dei servizi Gestione aggiuntiva del sistema dei servizi di backup. Load Balancing Cresce l’uso di Internet . Come assicurare il proprio investimento avendo sempre una continuità del servizio, ed una efficente e crescente performance dei propri server? Incrementare le capacità dei Server Server overload Cresce la popolarità di internet Server farms La soluzione Servers più potenti LVS Linux Virtual Server Con il Load Balancing si incrementano le performance dei servizi attraverso il bilanciamento del carico su tutti i server. LVS FTP WEB MAIL Servizi non bilanciati Ottimizzazione dei servizi Director LVS Il director LVS offre il bilanciamento dei carichi a livello IP in modo da far apparire più servizi paralleli del cluster come servizi virtuali disponibili su un singolo indirizzo server (con un unico indirizzo IP). Tutte le richieste vengono inviate all’ IP virtuale (VIP) attribuito al director, che avrà il compito di smistarle secondo degli algoritmi di balancing o scheduling definiti (RoundRobin, Weighted Round-Robin, Least Connection, Weighted Least Connection) Unico Virtual Ip per tutti i servizi Unico indirizzo ip per tutti i servizi attivi della farm. Internet Internet Virtual IP LVS IP3 IP2 IP1 Multpli Indirizzi Ip di accesso Linux Virtual Server IP3 IP2 IP1 IP3 Unico Indirizzo Ip di accesso LVS Linux Virtual Server Anche se un singolo server dovesse risultare non disponibile il servizio viene sempre erogato. Internet Linux Virtual Server IP3 IP2 IP1 LVS Linux Virtual Server La soluzione deve essere flessibile e crescere all’aumentare della domanda; il tutto deve avvenire in una modalità “trasparente”, ottenendo un’ottima scalabilità. Linux Virtual Server LVS al Centro Univ. di Calcolo La finalità del progetto è di implementare inizialmente i servizi di web, proxy, ftp, mail e samba server sotto LVS utilizzando la soluzione in modalità LVS-Nat. Per assicurare la massima ridondanza verrà installato un Director LVS di backup configurato secondo l’ High-Availability Linux Project. Inoltre tutti i server verranno collegati alle SAN (Storage Area Network) IBM e Compaq per l’accesso ad uno spazio di disco condiviso Internet Linux Virtual Server Linux Virtual Server Backup FTP WEB MAIL SAN Storage Area Network Grazie a tutti