Linux sui sistemi
dell’Università di Palermo
Massimo Tartamella
[[email protected]]
Palermo – 22 e 23 novembre 2002
Indice







Cronologia degli eventi rilevanti
Infrastruttura della rete universitaria
I Server di rete
Il progetto GARR-B per l’Università di Palermo
Firewall, IDS, …
Open Mosix: cluster per il calcolo distribuito
LVS (Linux Virtual Server): cluster per il
bilanciamento dei servizi di rete
Cronologia degli eventi rilevanti
Approccio a Linux e progetto di una rete
metropolitana e geografica finanziata dal
MURST

Febbraio 2000: “Sviluppo della rete nazionale della ricerca (rete GARR-B)”:












potenziamento reti regionali (18 milioni di Euro)
Formazione specialisti di rete (2 milioni di Euro)
Dicembre 2000: migrazione dei servizi web, posta elettronica e autenticazione RADIUS per i
90 accessi analogici/ISDN
Gennaio 2001: implementazione di un Log Server e MRTG server
Giugno 2001: Server Linux distribuiti con funzioni di file server con SAMBA e proxy server
con Squid
Ottobre 2001: backup centralizzati con rsync, mirrordir, wget, …
Febbraio 2002: implementazione di Firewall con Iptables
Giugno 2002: implementazione di antivirus mail server
Luglio 2002: sistemi IDS
Agosto 2002: avvio formazione specialisti di rete (12 allievi + tutor)
- Cluster MOSIX, LVS e programmazione SQL/PHP
Novembre 2002: installazione del mainframe IBM Z800 con sistema operativo Z/VM e Linux
Novembre/Dicembre 2002: installazioni ponti laser, nodi ATM, switch/router a 1000 Mbps,
25 server di rete biprocessore, firewall, ids e log server
Infrastruttura della rete universitaria
Infrastruttura di rete attuale
Parco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.),
Ist. Di Radiologia (Policlinico), Rettorato e via
Archirafi
2 link a 1000 Mbps
5 link a 100 Mbps via ponti ottici (tecnologia laser)
15 link a 11 Mbps via radio frequenza a 2,4 GHz
25 Link a 100 Mbps
Tecnologia di rete adottata



Fast Ethernet (100 Mbps)
Gigabit Ethernet (1Gbps)
IEEE 802.11b, wireless ethernet (11 Mbps)
Infrastruttura di rete a breve
Parco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia
(Policlinico), Rettorato e via Archirafi
25 Link a 1000 Mbps
5 link a 155 Mbps via ponti ottici
15 link a 11 Mbps via radio a 2,4 GHz
Tecnologie di rete da adottare




Gigabit Ethernet (1Gbps)
ATM (155 Mbps)
Fast Ethernet (100 Mbps)
IEEE 802.11b, wireless Ethernet (11 Mbps)
Nuovi apparati di rete




N. 1 Cisco 7606 (router di frontiera): ATM e Gigabit Ethernet
N. 1 Cisco Catalyst 6509 (switch router di campus): ATM e Gigabit Ethernet
N.25 Cisco Catalyst 3550 (switch router di periferia): Gigabit e Fast Ethernet
N.5 Alcatel OMNI-5WX-PLUS:ATM e Fast Ethernet
Altre connessioni






HDSL Wind: 11 link
HDSL Telecom: 5 Link
ADSL Telecom: 20 link
CDN Telecom: 40 link
Accessi analogici/ISDN: 90
ATM Telecom a 28 Mbps: accesso alla rete GARR-B
Server di rete
Server di rete attualmente gestiti
dal Centro Universitario di Calcolo
n. 3 server con CPU ALPHA



Server Oracle per procedura Contabilità (Tru64)
Server Oracle per procedura Stipendi (Tru64)
Server Oracle per sistema Aleph (Tru64)
n. 1 server SPARC

Server SilverPlatter (Solaris)
n. 29 server con CPU INTEL (Red Hat Linux)

Servizi di web server, mail server, proxy, dns, dhcp server,
nfs server, ftp server, log server, mrtg server, samba server,
appleshare, firewall, IDS
Server di rete in arrivo al Centro
Universitario di Calcolo
n. 20 server HP/COMPAQ ML530

2 GB DDR SDRAM

2 processori Intel Xeon MP 2.4 GHz 512Kb Cache

2 schede di rete Ethernet 10/100/1000Mbps

3 hd 18GB in RAID
n. 5 server HP/COMPAQ DL580, unità da rack

2 GB DDR SDRAM

2 processori Intel Xeon MP 1.6GHz 1Mbyte Cache

2 schede di rete Ethernet 10/100/1000Mbps

3 hd 18GB in RAID
n. 1 SAN (Storage Area Network) HP/COMPAQ MA8000 da rack

1 TB di spazio disco complessivo da utilizzare in RAID

Supporto x Linux
n. 1 Armadio rack HPCOMPAQ Rack 10000 da 42 HE con switch e
monitor flat panel 15”
IBM Z800
Configurazione dell’IBM Z800
 z/Architecture: 64-bit a 1000 MHz
 1 way Model A01 (CPU Tradizionale)
 1 Added IFL (CPU dedicata a Linux)
 8 GB di RAM
 12 canali ESCON attivi
 4 porte ethernet 10/100 Mbps
 Parallel Channel Attached Using 9034-001
 Può gestire fino a 15 partizioni logiche (PRSM)
 E’ una soluzione basata sul sistema operativo
zVM
 420 GB effettivi in RAID 5 di spazio disco
utilizzabili in SAN (ESS 2105)
2
Z800 Applications Architecture
IBM Z800 System
Hypersocket
New Environment - IFL
Traditional CPU
zVM 4.3
Segreteria
Studenti
VSEOther
zVM 4.3
Virtual LAN or IUCV
Linux
ESCON
AFP Srv
Linux
Linux
FTP/NFS Srv
RSCS
TCP/IP Stack
SNA Srv
AFP
Printers
Linux
OSA
ESCON
SNA Ctrl
IEEE 802.3
OSA
TCP/IP Stack and Gateway
OSA
OSA
TCP/IP
TN3270 Srv
SNA Printers
TCP/IP
Ext
TCP/IP
SNA
Ntwrk
SNA Terminals
TCP/IP
Intranet
3
Un tool per lo storage consolidation
IBM Z800 System
Hypersocket
New Environment - IFL
Traditional CPU
zVM 4.3
Segreteria
Studenti
VSEOther
zVM 4.3
Escon
Virtual LAN or IUCV
Linux
(SOD)
ESCON
AFP Srv
Linux
Linux
FTP/NFS Srv
RSCS
TCP/IP Stack
SNA Srv
AFP
Printers
Linux
OSA
ESCON
SNA Ctrl
IEEE 802.3
TCP/IP Stack and Gateway
OSA
OSA
TCP/IP
TN3270 Srv
SNA Printers
OSA
TCP/IP Ext
TCP/IP
SNA Ntwrk
TCP/IP Intranet
SNA Terminals
ESS IBM 2105
FiberChannel
SCSI
4
Progetto GARR-B per l’Università di
Palermo
Schema delle connessioni via
ponti ottici (in tecnologia laser)
Dipartimento di
Matematica
Palazzo Marina
Rettorato
Dip.to di Fisica
(Os.rio Ast.co)
A.O.U.P.G.
Radiologia
Fibra ottica multimodale 62,5/125
C.U.C.
(Ingegneria DIE)
Centro Univeritario di
Calcolo
Rete Parco D’ORLEANS
Gigabit!
Collegamento con le sedi esterne
HDSL Wind
HDSL Telecom
ADSL Telecom
Firewall, IDS, …
OpenMOSIX: cluster per il calcolo distribuito
Cos’è OpenMOSIX ?
Descrizione
Openmosix è un sistema open source utilizzabile in
ambito scientifico per la realizzazione di cluster che
sfrutta il load-balancing in ambienti x86. E’ possibile
con questo sistema, realizzare calcolatori virtuali con
elevata potenza di calcolo, utilizzando risorse, CPU e
RAM, di una rete di computer.
URL
http://www.mosix.org
Introduzione a OpenMOSIX
Modalità di avvio della Farm

La farm è costituita da una serie di nodi
linux basati tecnologia x86 connessi
attraverso LAN a 100/1000Mbit
Livello di Implementazione

Linux kernel
Architettura di OpenMOSIX

network
L’utente connesso e le applicazioni vedono l’intero cluster come un unico sistema locale

migrazione dei processi
Ogni processo d’utente,può migrare su ogni nodo disponibile in modo del tutto trasparente
in qualunque istante

load balancing
Viene effettuato un controllo continuo in rete per ridurre al minimo le differenze di carico tra
i nodi e migrare dinamicamente i processi tra i nodi con carico minore (sulla base delle
variazioni del carico dei nodi, velocità di esecuzione dei processi, numero dei nodi in rete, ..)

memory sharing
Viene presa una decisione sul processo da migrare sulla base della memoria disponibile
sugli altri nodi e viene evitato l’utilizzo della swap memory

Kernel communication
È sviluppato per ridurre il sovraccarico delle comunicazioni interne del kernel e utilizza un
protocollo veloce e affidabile

Controllo decentralizzato e Autonomia
Ogni nodo e’ capace di operare indipendentemente dagli altri
Una idea sull’utilizzo di
OpenMOSIX
Nodi
Chiavi
Ora inizio
Ora fine
In cluster
Durata
(h:m:s)
8
100
13:54:13
13:56:07
Yes
1:54
1
100
13:59:48
14:08:38
No
8:50
8
1000
14:12:54
14:30:19
Yes
17:25
1
1000
14:33:37
15:30:08
No
56:31
8
10000
16:06:44
18:57:15
Yes
2:50:31
1
10000
/
/
No
/
16
1000
11:49:30
12:11:58
Yes
22:28
16
10000
12:19:47
16:15:10
Yes
3:55:23
I test sono stati effettuati generando contemporaneamente una serie di chiavi crittate su un nodo del Cluster
Progetto per l’integrazione
di OpenMOSIX nelle
Aule Didattiche
Progetto per Cluster Scientifico
20 Server
12 PC Aula Corsi
Facoltà di
Lettere
20 + 20 Macchine
Facoltà di
Economia e
Commercio
50 Macchine
Aula
Tortorici
40 Macchine
Aula F
76 Macchine:
100
n°28
PIV
256MB
RAM1500Mhz
n°48
IBM256MB
RAM1000Mhz
LVS: cluster per il bilanciamento
dei servizi di rete
LVS Linux Virtual Server
Esigenze nell’ambito dei servizi di rete



Gestione di servizi con carico elevato
Continuità e alta affidabilità dei servizi
offerti
Scalabilità del sistema e manutenzione
trasparente dei server
LVS Linux Virtual Server
Internet
FTP
IP1
IP2
MAIL
WEB
IP3
Architettura tradizionale
Vantaggi


Semplice
implementazione
dell’architettura di rete
Configurazione standard
dei servizi




Svantaggi
Minima adattabilità
all’aumentare del carico
Scalabilità solo a livello
del singolo server
Nessuna ridondanza dei
servizi
Gestione aggiuntiva del
sistema dei servizi di
backup.
Load Balancing
Cresce l’uso di Internet .
Come assicurare il proprio investimento
avendo sempre una continuità del servizio,
ed una efficente e crescente performance
dei propri server?
Incrementare le capacità
dei Server
Server overload
Cresce la popolarità
di internet
Server farms
La soluzione
Servers più potenti
LVS Linux Virtual Server
Con il Load Balancing si incrementano le
performance dei servizi attraverso il
bilanciamento del carico su tutti i server.
LVS
FTP
WEB
MAIL
Servizi non bilanciati
Ottimizzazione dei servizi
Director LVS


Il director LVS offre il bilanciamento dei
carichi a livello IP in modo da far apparire più
servizi paralleli del cluster come servizi virtuali
disponibili su un singolo indirizzo server (con
un unico indirizzo IP).
Tutte le richieste vengono inviate all’ IP
virtuale (VIP) attribuito al director, che avrà il
compito di smistarle secondo degli algoritmi
di balancing o scheduling definiti (RoundRobin, Weighted Round-Robin, Least
Connection, Weighted Least Connection)
Unico Virtual Ip per tutti i servizi
Unico indirizzo ip per tutti i servizi attivi
della farm.
Internet
Internet
Virtual IP
LVS
IP3
IP2
IP1
Multpli Indirizzi Ip di accesso
Linux Virtual
Server
IP3
IP2
IP1
IP3
Unico Indirizzo Ip di accesso
LVS Linux Virtual Server
Anche se un singolo server dovesse risultare
non disponibile il servizio viene sempre
erogato.
Internet
Linux Virtual
Server
IP3
IP2
IP1
LVS Linux Virtual Server
La soluzione deve essere flessibile e crescere
all’aumentare della domanda; il tutto deve avvenire
in una modalità “trasparente”, ottenendo un’ottima
scalabilità.
Linux Virtual
Server
LVS al Centro Univ. di Calcolo



La finalità del progetto è di implementare inizialmente
i servizi di web, proxy, ftp, mail e samba server sotto
LVS utilizzando la soluzione in modalità LVS-Nat.
Per assicurare la massima ridondanza verrà installato
un Director LVS di backup configurato secondo l’
High-Availability Linux Project.
Inoltre tutti i server verranno collegati alle SAN
(Storage Area Network) IBM e Compaq per l’accesso
ad uno spazio di disco condiviso
Internet
Linux Virtual
Server
Linux Virtual
Server Backup
FTP
WEB
MAIL
SAN
Storage Area
Network
Grazie a tutti
Scarica

MOSIXok-slidesmaxok