Convegno
Virtualizzare il desktop
L’ICT si trasforma in Utility
Rodolfo Boraso
CSP – Innovazione nelle ICT
20 maggio 2008
La compagine societaria del CSP
CSP è una società consortile senza fini di lucro
Laboratorio di ricerca accreditato presso il MIUR, certificato UNI
EN ISO 9001:2000
10%
10%
40%
10%
I
10%
10%
10%
CSI Piemonte
Comune di Torino
Politecnico di Torino
Università agli Studi di Torino
Unione Industriale di Torino
Confindustria Piemonte
IRIDE
2
Il Bilancio
5.000
4.500
4.000
3.500
3.000
2.500
2.000
1.500
1.000
500
0
anno 1999 anno 2000 anno 2001 anno 2002 anno 2003 anno 2004 anno 2005 anno 2006 anno 2007
CSI Piemonte
PA
Unione Europea
Privati
No-profit
3
Il Personale
CSP è composto al 31 marzo 2008 da:
43 dipendenti
I dipendenti di sesso femminile sono 17
I laureati sono 32
L’età media è pari a 35 anni
Nel 2007 in CSP hanno operato complessivamente 100 persone, oltre
ai dipendenti, di cui:
19 borsisti (+2 Borse Lagrange)
8 stagisti
9 tesisti
62 tra collaboratori a progetto, occasionali e professionali
4
Le attività nel 2007
97 diverse attività svolte oggetto di offerta di cui:
 54 per la Pubblica Amministrazione Locale (di cui 31 per
Regione Piemonte, 19 per CSI Piemonte, 4 per la PA locale)
 6 per altre Pubbliche Amministrazioni
 20 per imprese di cui 10 locali
 7 su bandi di ricerca e sviluppo di cui 5 esteri, 1 nazionale e 1
regionale
 10 per Enti di ricerca e non profit tutti locali
5
Una terza fase per CSP
Prima Fase 1989 – 1998: Centro per il supercalcolo del Piemonte
Seconda Fase 1998 – 2007: Centro per la sperimentazione di
tecnologie innovative
Terza Fase dal 2008
CSP struttura di innovazione e ricerca della PA piemontese che agisce
come Organismo di ricerca secondo quanto previsto dalla Disciplina
comunitaria relativa a Innovazione e R&S
6
Competenze al servizio di temi strategici
Le competenze tecnologiche del CSP al servizio di progetti di innovazione su temi strategici
quali:
-
La Mobilità (ad es. il progetto VICSUM in collaborazione con Politecnico, CRF e
GTT sulla C2C e C2I communication)
-
L’Ambiente (ad es. il progetto sui precursori sismici in alta montagna realizzato con il
contributo di ricercatori del settore)
-
L’Aereospazio (ad es. con la partecipazione al Bando sulla piattaforma tecnologica
con 2 diverse proposte in collaborazione con il Politecnico di Torino e l’associazione
ITHACA)
-
La Sanità (ad es. con lo sviluppo dell’iniziativa del Laboratorio promosso da CSI
Piemonte)
-
Il Socio-assistenziale (ad es. con la proposta comune CSI-CSP e ISMB su sistemi
avanzati di localizzazione di soggetti fragili)
-
L’Industria creativa (ad es. con la partecipazione al progetto europeo CREATE con
Regione Piemonte e Politecnico)
Le competenze: Media & Network Convergence (NMC)
Descrizione generale
Valorizzazione dei contenuti tramite la convergenza di reti e media
digitali
Keywords
IpTV, MobileTV, Personal Video Recording, Pod/Vodcasting,
Streaming, Set-top-box, New format, Innovative Channel, DVB-x,
DRM, WaterMarking
Le competenze: Future Generation Networks (FGN)
Descrizione generale
Reti IP di nuova generazione per il trasporto di dati, voce e video su
tecnologie interoperabili e abilitate al controllo di qualità
Keywords
All-IP, Scalable Network structure, Wireless and mobile networks, Adhoc networking, Safety Networks, C2C, M2I, Security Network,
WLL, IP over PowerLine, Mesh & Sensor Networks
Le competenze: Next Generation Services (NGS)
Descrizione generale
Framework per la realizzazione e distribuzione di servizi in rete IP
Keywords
SOA, GRID, M2M, SAN, Agenti intelligenti, ECM, DHPC, ISCSI,
Security Middleware, Clearing Houses, LBS, CA&PKI
Le competenze: Social Computing (SC)
Descrizione generale
Modelli di collaborazione e partecipazione per la valorizzazione di
contenuti non strutturati (User generated content)
Keywords
Knowledge management, usabilità, accessibilità, paradigma 2.0, Digital
content, Interface Design
Attività di scouting tecnologico sulla virtualizzazione
Obiettivi
-
L’individuazione dei modelli di utilizzo, delle soluzioni e delle
tecnologie che meglio si prestano ad un modello distribuito di
erogazione dei contenuti e dei servizi.
Esigenze di operatività.
Utilizzo di Internet come piattaforma:
“costruire applicazioni in modo tale che sfruttino l’effetto della rete
e migliorino quanto maggiore è il numero di utenti che le usano” –
O’Reilly.
Alcune considerazioni..
Esigenza di operatività legata alla fornitura dei servizi.
Si sta evidenziando un nuovo approccio che tende a migliorare i
componenti, i sistemi e le relazioni tra questi al fine di garantire
alcuni aspetti e funzionalità oggi invece delegate all’operato
dell’uomo e alle procedure operative:
-
Dependability dei sistemi.
Autonomic computing.
Autonomic network.
Virtualizzazione intesa come disaccoppiamento delle istanze di
oggetti e componenti dal loro supporto fisico (reti, sistemi e
storage).
Dependability
“la dependability di un sistema informativo è la
capacità di fornire un servizio su cui si può fare
affidamento in maniera giustificata”
14
Attributi della dependability
- Availability: capacità di fornire un servizio corretto
quando richiesto.
- Reliability:
capacità di fornire con continuità un servizio
corretto.
- Safety: l’assenza, nell’erogazione di un servizio, di
conseguenze catastrofiche sugli utenti e/o sull’ambiente
esterno.
- Confidentiality: assenza di accessi non autorizzati alle
informazioni.
- Integrity: assenza di alterazioni sullo stato del sistema.
- Maintainability: predisposizione a ricevere manutenzioni e
modifiche.
15
Autonomic computing
- Termine coniato nel 2001 dal Paul Horn, vice
presidente della ricerca IBM.
- Creare sistemi in grado di gestirsi con modalità
autonome.
- Articolo “The vision of Autonomic Computing”:
•“un mondo avviato verso una crescita, in numero e
tipologia, di ogni genere di apparati in grado di
interconnettersi tra loro ma senza il controllo
necessario per manutenere la mole dei nuovi
collegamenti generati”.
- Superare la complessità crescente dovuta ai modelli
computazionali del Pervasive Computing e oggi quelli del
Cloud Computing.
- Gestione autonoma dei nodi che andranno a
comporre i sistemi informativi del futuro.
16
Autonomic Computing: 4 obiettivi
- Auto-configurazione degli elementi del sistema e della rete:
abilitare nei sistemi la capacità di adattarsi alle mutate
condizioni modificando le proprie configurazioni.
- Auto-ottimizzazione dei processi: monitorare il proprio
stato e le performance per un tuning proattivo.
- Auto-protezione:integrare il sistema con l’intelligenza per il
riconoscimento degli attacchi informatici o eventuali problemi
come l’aumento della temperatura.
- Auto-riparazione dai malfunzionamenti: capacità di
riconoscere eventuali deviazioni del comportamento desiderato
e applicare azioni per riportare il sistema alla normalità.
“Autonomic computing” è quella disciplina che studia
come dotare i vari componenti hardware e software di
funzionalità che li mettano in grado di misurare il “proprio
stato di salute”, decidere eventuali azioni da intraprendere ed
eseguire le azioni necessarie per ripristinare lo stato di
funzionamento ottimale (IBM).
17
Gestione dinamica delle risorse - Utility
- L’infrastruttura di utility deve avere vari centri di
“produzione della risorsa” dislocati in modo intelligente sul
territorio e collegati in una rete di distribuzione la cui topologia
può essere “ri-programmata” in modo da far fronte al
malfunzionamento di uno dei centri di produzione.
- Sarebbe molto più efficiente se le applicazioni fossero
“disaccoppiate” dalla sottostante infrastruttura
hardware/software/middleware, potendo tutte
attingere con granularità alle risorse (potenza elaborativa,
storage, comunicazioni) secondo il bisogno del momento,
evitando sia gli sprechi dovuti alla sottoutilizzazione sia le
cattive prestazioni dovute all’eventuale scarsità delle risorse ad
essa dedicate - > Virtualizzazione.
18
Virtualizzazione per la Dependability.
- IEEE Technical Committee on Dependable Computing and
Fault Tolerance.
- International Conference on Dependable Systems and
Networks (DSN 2007).
Attività svolte all’interno dell’IEEE e recenti presentazioni ai
convegni specializzati sulla dependability del sistemi hanno
confermato l’interesse per la virtualizzazione dei sistemi
operativi come un nuovo strumento per l’introduzione di una
maggiore flessibilità nelle architetture dei sistemi informatici.
19
Virtualizzazione: Live Migration
I concetti di base si concentrano sulla virtualizzazione al fine di
raggiungere un’astrazione sufficiente a delineare la configurazione
dell’hardware sottostante e consentendo l’hosting di macchine virtuali
multiple sulle macchine fisiche, evidenziando aspetti come il loggingreplay delle VM.
- Static migration: fermo la VM e copio su altro host la VM
utilizzando comandi del sistema operativo.
- Cold migration: sospendo la VM utilizzando strumenti del VMM,
copio l’immagine su altro VMM per poi riprendere l’esecuzione.
- Live migration: il VMM muove l’istanza della VM in esecuzione
da un host fisico ad un altro host fisico.
La live migration consente il bilanciamento del carico dinamico
di un pool di risorse virtualizzate, la manutenzione
dell’hardware, il failover dinamico evitando quindi possibili
tempi di fermo del servizio.
20
VDA - Virtual Desktop Architecture
VDA è un modello d’uso che facilita il disaccoppiamento
nell’architettura di elaborazione tra l’interfaccia utente e la sua
elaborazione in remoto.
- Virtualizzazione del desktop.
- Utilizzo un protocollo di desktop remoting.
- Una macchina virtuale singola per ogni utente.
- Utilizzo le architetture multi-core e i sistemi operativi che
sfruttano la virtualizzazione in hardware.
- Isolamento dell’ambiente di esecuzione con livelli raggiungibili
solo con una installazione in hardware.
- Nuovo modello "pay-per-use" dei software come servizi.
21
VDA e Green Computing 1/3
Thin Client
- Separazione delle funzioni di input/output dal calcolo vero e
proprio; si rende quindi il sistema a disposizione dell’utente
estremamente leggero, essenziale e indipendente dalla
piattaforma di calcolo.
- Vecchio concetto dell’informatica (mainframe).
- Riuso di computer obsoleti e prolungamento del ciclo di vita
del computer, da 3-4 anni al più fisiologico 6-7 anni con una
conseguente riduzione dell’impatto ambientale (in Italia vengono
prodotti 14 Kg annui pro capite di rifiuti elettrici ed elettronici).
22
VDA e Green Computing 2/3
Consumi energetici di un Thin Client (dati UniTre)
“a PC consumes roughly 100/150 watts (more or less)
- a Thin Client is in the 5/10 watts ball-park
- a server blade consumes about 300 watts to support around
15 users (assumption).
- so the difference between a PC and a Virtual Client
implementation is:
- 125 watts (PC) – 7 watts (tc) – 20 watts (300 watts / 15 users)
= roughly 100 watts
at an average energy cost of 0.10€ per hour ....
- (assuming the client device is on 24/24) you would be saving:
- 82€ every year
- Per user !”
23
VDA e Green Computing 3/3
L’utilizzo delle reti come strumento di sostenibilità.
-
Riduzione di emissioni e consumi.
Minori spostamenti.
Minori emissioni.
Minori consumi.
-
Minori spese.
Maggiore produttività/ora.
Minore traffico.
Miglior qualità della vita.
24
Banda larga
La banda larga diventa una necessità per:
- La movimentazione delle macchine virtuali.
- L’effettuazione di snapshot.
- L’accesso a repositories di dati remoti di immagini virtuali.
- L’implementazione di file system distribuiti a cui le macchine
virtuali attingono i dati per l’elaborazione.
Si ipotizza che con la disponibilità dei processori a
16-64 core, l’architettura di rete di riferimento debba diventare
l’infrastruttura a 100 Gigabit Ethernet.
25
Scenari d’uso su un’infrastruttura di rete geografica
26
Intel Micro 2015
27
Intel Micro 2015 Architetture future dei processori
- Integrazione di transistor fino a decine di miliardi su un
singolo chip.
- Disponibilità di un parallelismo a tutti i livelli gestito attraverso
una struttura ridondante di thread.
- Strutture interne al chip dedicate a funzionalità speciali come
l’elaborazione grafica e real-time.
- Memoria on-chip riconfigurabile e condivisa da gruppi di core,
da differenti sistemi operativi e da hardware specializzato oltre
che da micro-kernel.
- Core interconnessi da link ad alta velocità per trasferire i dati
tra gruppi di core e all’interno dei gruppi stessi.
- Virtualizzazione con meccanismi in grado di fornire livelli di
astrazione alle applicazioni e ai sistemi operativi.
28
Intel Virtualization Technology for Connectivity
Intel ha introdotto le seguenti strategie per la virtualizzazione
dell’I/O con un supporto in hardware ed una maggiore capacità
dell’hypervisor di governare il sistema di gestione dei sistemi
guests, diminuendo il numero di righe di codice necessarie e
diminuendo il potenziale impatto dell’esecuzione di software
aggiuntivo sulle performance.
- Virtual Machine Device Queues (VMDq)
- Single Root I/O Virtualization (SR-IOV).
29
Peculiarità di KVM vs XEN
Xen will never be part of Linux
Anthony Liguori, Software Engineer at Linux Technology
Center (Xen e KVM developer):
“Linux distributions ship Xen today and by default install a
Linux guest (known as domain-0) and do their best to hide the
fact that Xen is not a part of Linux. They've done a good job,
most users won't even notice that they are running an entirely
different Operating System. The whole situation is somewhat
absurd though. It's like if the distributions shipped a NetBSD
kernel automatically and switched to using it when you wanted
to run a LAMP stack. We don't ship a plethora of purpose-built
kernels in a distribution. We ship one kernel and make sure that
it works well for all users. That's what makes a Linux distribution
Linux. When you take away the Linux kernel, it's not Linux any
more”
30
CSP- Innovazione nelle ICT
Sede legale e operativa
Via Livorno, 60
Torino
Tel. +39 011 4815111
Fax +39 011 4815001
Seconda sede operativa
Villa Gualino
Viale Settimio Severo 65
Torino
www.csp.it
31
Scarica

La Virtualizzazione dal punto di vista del CSP "innovazione nelle ICT"