Convegno Virtualizzare il desktop L’ICT si trasforma in Utility Rodolfo Boraso CSP – Innovazione nelle ICT 20 maggio 2008 La compagine societaria del CSP CSP è una società consortile senza fini di lucro Laboratorio di ricerca accreditato presso il MIUR, certificato UNI EN ISO 9001:2000 10% 10% 40% 10% I 10% 10% 10% CSI Piemonte Comune di Torino Politecnico di Torino Università agli Studi di Torino Unione Industriale di Torino Confindustria Piemonte IRIDE 2 Il Bilancio 5.000 4.500 4.000 3.500 3.000 2.500 2.000 1.500 1.000 500 0 anno 1999 anno 2000 anno 2001 anno 2002 anno 2003 anno 2004 anno 2005 anno 2006 anno 2007 CSI Piemonte PA Unione Europea Privati No-profit 3 Il Personale CSP è composto al 31 marzo 2008 da: 43 dipendenti I dipendenti di sesso femminile sono 17 I laureati sono 32 L’età media è pari a 35 anni Nel 2007 in CSP hanno operato complessivamente 100 persone, oltre ai dipendenti, di cui: 19 borsisti (+2 Borse Lagrange) 8 stagisti 9 tesisti 62 tra collaboratori a progetto, occasionali e professionali 4 Le attività nel 2007 97 diverse attività svolte oggetto di offerta di cui: 54 per la Pubblica Amministrazione Locale (di cui 31 per Regione Piemonte, 19 per CSI Piemonte, 4 per la PA locale) 6 per altre Pubbliche Amministrazioni 20 per imprese di cui 10 locali 7 su bandi di ricerca e sviluppo di cui 5 esteri, 1 nazionale e 1 regionale 10 per Enti di ricerca e non profit tutti locali 5 Una terza fase per CSP Prima Fase 1989 – 1998: Centro per il supercalcolo del Piemonte Seconda Fase 1998 – 2007: Centro per la sperimentazione di tecnologie innovative Terza Fase dal 2008 CSP struttura di innovazione e ricerca della PA piemontese che agisce come Organismo di ricerca secondo quanto previsto dalla Disciplina comunitaria relativa a Innovazione e R&S 6 Competenze al servizio di temi strategici Le competenze tecnologiche del CSP al servizio di progetti di innovazione su temi strategici quali: - La Mobilità (ad es. il progetto VICSUM in collaborazione con Politecnico, CRF e GTT sulla C2C e C2I communication) - L’Ambiente (ad es. il progetto sui precursori sismici in alta montagna realizzato con il contributo di ricercatori del settore) - L’Aereospazio (ad es. con la partecipazione al Bando sulla piattaforma tecnologica con 2 diverse proposte in collaborazione con il Politecnico di Torino e l’associazione ITHACA) - La Sanità (ad es. con lo sviluppo dell’iniziativa del Laboratorio promosso da CSI Piemonte) - Il Socio-assistenziale (ad es. con la proposta comune CSI-CSP e ISMB su sistemi avanzati di localizzazione di soggetti fragili) - L’Industria creativa (ad es. con la partecipazione al progetto europeo CREATE con Regione Piemonte e Politecnico) Le competenze: Media & Network Convergence (NMC) Descrizione generale Valorizzazione dei contenuti tramite la convergenza di reti e media digitali Keywords IpTV, MobileTV, Personal Video Recording, Pod/Vodcasting, Streaming, Set-top-box, New format, Innovative Channel, DVB-x, DRM, WaterMarking Le competenze: Future Generation Networks (FGN) Descrizione generale Reti IP di nuova generazione per il trasporto di dati, voce e video su tecnologie interoperabili e abilitate al controllo di qualità Keywords All-IP, Scalable Network structure, Wireless and mobile networks, Adhoc networking, Safety Networks, C2C, M2I, Security Network, WLL, IP over PowerLine, Mesh & Sensor Networks Le competenze: Next Generation Services (NGS) Descrizione generale Framework per la realizzazione e distribuzione di servizi in rete IP Keywords SOA, GRID, M2M, SAN, Agenti intelligenti, ECM, DHPC, ISCSI, Security Middleware, Clearing Houses, LBS, CA&PKI Le competenze: Social Computing (SC) Descrizione generale Modelli di collaborazione e partecipazione per la valorizzazione di contenuti non strutturati (User generated content) Keywords Knowledge management, usabilità, accessibilità, paradigma 2.0, Digital content, Interface Design Attività di scouting tecnologico sulla virtualizzazione Obiettivi - L’individuazione dei modelli di utilizzo, delle soluzioni e delle tecnologie che meglio si prestano ad un modello distribuito di erogazione dei contenuti e dei servizi. Esigenze di operatività. Utilizzo di Internet come piattaforma: “costruire applicazioni in modo tale che sfruttino l’effetto della rete e migliorino quanto maggiore è il numero di utenti che le usano” – O’Reilly. Alcune considerazioni.. Esigenza di operatività legata alla fornitura dei servizi. Si sta evidenziando un nuovo approccio che tende a migliorare i componenti, i sistemi e le relazioni tra questi al fine di garantire alcuni aspetti e funzionalità oggi invece delegate all’operato dell’uomo e alle procedure operative: - Dependability dei sistemi. Autonomic computing. Autonomic network. Virtualizzazione intesa come disaccoppiamento delle istanze di oggetti e componenti dal loro supporto fisico (reti, sistemi e storage). Dependability “la dependability di un sistema informativo è la capacità di fornire un servizio su cui si può fare affidamento in maniera giustificata” 14 Attributi della dependability - Availability: capacità di fornire un servizio corretto quando richiesto. - Reliability: capacità di fornire con continuità un servizio corretto. - Safety: l’assenza, nell’erogazione di un servizio, di conseguenze catastrofiche sugli utenti e/o sull’ambiente esterno. - Confidentiality: assenza di accessi non autorizzati alle informazioni. - Integrity: assenza di alterazioni sullo stato del sistema. - Maintainability: predisposizione a ricevere manutenzioni e modifiche. 15 Autonomic computing - Termine coniato nel 2001 dal Paul Horn, vice presidente della ricerca IBM. - Creare sistemi in grado di gestirsi con modalità autonome. - Articolo “The vision of Autonomic Computing”: •“un mondo avviato verso una crescita, in numero e tipologia, di ogni genere di apparati in grado di interconnettersi tra loro ma senza il controllo necessario per manutenere la mole dei nuovi collegamenti generati”. - Superare la complessità crescente dovuta ai modelli computazionali del Pervasive Computing e oggi quelli del Cloud Computing. - Gestione autonoma dei nodi che andranno a comporre i sistemi informativi del futuro. 16 Autonomic Computing: 4 obiettivi - Auto-configurazione degli elementi del sistema e della rete: abilitare nei sistemi la capacità di adattarsi alle mutate condizioni modificando le proprie configurazioni. - Auto-ottimizzazione dei processi: monitorare il proprio stato e le performance per un tuning proattivo. - Auto-protezione:integrare il sistema con l’intelligenza per il riconoscimento degli attacchi informatici o eventuali problemi come l’aumento della temperatura. - Auto-riparazione dai malfunzionamenti: capacità di riconoscere eventuali deviazioni del comportamento desiderato e applicare azioni per riportare il sistema alla normalità. “Autonomic computing” è quella disciplina che studia come dotare i vari componenti hardware e software di funzionalità che li mettano in grado di misurare il “proprio stato di salute”, decidere eventuali azioni da intraprendere ed eseguire le azioni necessarie per ripristinare lo stato di funzionamento ottimale (IBM). 17 Gestione dinamica delle risorse - Utility - L’infrastruttura di utility deve avere vari centri di “produzione della risorsa” dislocati in modo intelligente sul territorio e collegati in una rete di distribuzione la cui topologia può essere “ri-programmata” in modo da far fronte al malfunzionamento di uno dei centri di produzione. - Sarebbe molto più efficiente se le applicazioni fossero “disaccoppiate” dalla sottostante infrastruttura hardware/software/middleware, potendo tutte attingere con granularità alle risorse (potenza elaborativa, storage, comunicazioni) secondo il bisogno del momento, evitando sia gli sprechi dovuti alla sottoutilizzazione sia le cattive prestazioni dovute all’eventuale scarsità delle risorse ad essa dedicate - > Virtualizzazione. 18 Virtualizzazione per la Dependability. - IEEE Technical Committee on Dependable Computing and Fault Tolerance. - International Conference on Dependable Systems and Networks (DSN 2007). Attività svolte all’interno dell’IEEE e recenti presentazioni ai convegni specializzati sulla dependability del sistemi hanno confermato l’interesse per la virtualizzazione dei sistemi operativi come un nuovo strumento per l’introduzione di una maggiore flessibilità nelle architetture dei sistemi informatici. 19 Virtualizzazione: Live Migration I concetti di base si concentrano sulla virtualizzazione al fine di raggiungere un’astrazione sufficiente a delineare la configurazione dell’hardware sottostante e consentendo l’hosting di macchine virtuali multiple sulle macchine fisiche, evidenziando aspetti come il loggingreplay delle VM. - Static migration: fermo la VM e copio su altro host la VM utilizzando comandi del sistema operativo. - Cold migration: sospendo la VM utilizzando strumenti del VMM, copio l’immagine su altro VMM per poi riprendere l’esecuzione. - Live migration: il VMM muove l’istanza della VM in esecuzione da un host fisico ad un altro host fisico. La live migration consente il bilanciamento del carico dinamico di un pool di risorse virtualizzate, la manutenzione dell’hardware, il failover dinamico evitando quindi possibili tempi di fermo del servizio. 20 VDA - Virtual Desktop Architecture VDA è un modello d’uso che facilita il disaccoppiamento nell’architettura di elaborazione tra l’interfaccia utente e la sua elaborazione in remoto. - Virtualizzazione del desktop. - Utilizzo un protocollo di desktop remoting. - Una macchina virtuale singola per ogni utente. - Utilizzo le architetture multi-core e i sistemi operativi che sfruttano la virtualizzazione in hardware. - Isolamento dell’ambiente di esecuzione con livelli raggiungibili solo con una installazione in hardware. - Nuovo modello "pay-per-use" dei software come servizi. 21 VDA e Green Computing 1/3 Thin Client - Separazione delle funzioni di input/output dal calcolo vero e proprio; si rende quindi il sistema a disposizione dell’utente estremamente leggero, essenziale e indipendente dalla piattaforma di calcolo. - Vecchio concetto dell’informatica (mainframe). - Riuso di computer obsoleti e prolungamento del ciclo di vita del computer, da 3-4 anni al più fisiologico 6-7 anni con una conseguente riduzione dell’impatto ambientale (in Italia vengono prodotti 14 Kg annui pro capite di rifiuti elettrici ed elettronici). 22 VDA e Green Computing 2/3 Consumi energetici di un Thin Client (dati UniTre) “a PC consumes roughly 100/150 watts (more or less) - a Thin Client is in the 5/10 watts ball-park - a server blade consumes about 300 watts to support around 15 users (assumption). - so the difference between a PC and a Virtual Client implementation is: - 125 watts (PC) – 7 watts (tc) – 20 watts (300 watts / 15 users) = roughly 100 watts at an average energy cost of 0.10€ per hour .... - (assuming the client device is on 24/24) you would be saving: - 82€ every year - Per user !” 23 VDA e Green Computing 3/3 L’utilizzo delle reti come strumento di sostenibilità. - Riduzione di emissioni e consumi. Minori spostamenti. Minori emissioni. Minori consumi. - Minori spese. Maggiore produttività/ora. Minore traffico. Miglior qualità della vita. 24 Banda larga La banda larga diventa una necessità per: - La movimentazione delle macchine virtuali. - L’effettuazione di snapshot. - L’accesso a repositories di dati remoti di immagini virtuali. - L’implementazione di file system distribuiti a cui le macchine virtuali attingono i dati per l’elaborazione. Si ipotizza che con la disponibilità dei processori a 16-64 core, l’architettura di rete di riferimento debba diventare l’infrastruttura a 100 Gigabit Ethernet. 25 Scenari d’uso su un’infrastruttura di rete geografica 26 Intel Micro 2015 27 Intel Micro 2015 Architetture future dei processori - Integrazione di transistor fino a decine di miliardi su un singolo chip. - Disponibilità di un parallelismo a tutti i livelli gestito attraverso una struttura ridondante di thread. - Strutture interne al chip dedicate a funzionalità speciali come l’elaborazione grafica e real-time. - Memoria on-chip riconfigurabile e condivisa da gruppi di core, da differenti sistemi operativi e da hardware specializzato oltre che da micro-kernel. - Core interconnessi da link ad alta velocità per trasferire i dati tra gruppi di core e all’interno dei gruppi stessi. - Virtualizzazione con meccanismi in grado di fornire livelli di astrazione alle applicazioni e ai sistemi operativi. 28 Intel Virtualization Technology for Connectivity Intel ha introdotto le seguenti strategie per la virtualizzazione dell’I/O con un supporto in hardware ed una maggiore capacità dell’hypervisor di governare il sistema di gestione dei sistemi guests, diminuendo il numero di righe di codice necessarie e diminuendo il potenziale impatto dell’esecuzione di software aggiuntivo sulle performance. - Virtual Machine Device Queues (VMDq) - Single Root I/O Virtualization (SR-IOV). 29 Peculiarità di KVM vs XEN Xen will never be part of Linux Anthony Liguori, Software Engineer at Linux Technology Center (Xen e KVM developer): “Linux distributions ship Xen today and by default install a Linux guest (known as domain-0) and do their best to hide the fact that Xen is not a part of Linux. They've done a good job, most users won't even notice that they are running an entirely different Operating System. The whole situation is somewhat absurd though. It's like if the distributions shipped a NetBSD kernel automatically and switched to using it when you wanted to run a LAMP stack. We don't ship a plethora of purpose-built kernels in a distribution. We ship one kernel and make sure that it works well for all users. That's what makes a Linux distribution Linux. When you take away the Linux kernel, it's not Linux any more” 30 CSP- Innovazione nelle ICT Sede legale e operativa Via Livorno, 60 Torino Tel. +39 011 4815111 Fax +39 011 4815001 Seconda sede operativa Villa Gualino Viale Settimio Severo 65 Torino www.csp.it 31